JP4061760B2 - Particle image segmentation method - Google Patents

Particle image segmentation method Download PDF

Info

Publication number
JP4061760B2
JP4061760B2 JP00730299A JP730299A JP4061760B2 JP 4061760 B2 JP4061760 B2 JP 4061760B2 JP 00730299 A JP00730299 A JP 00730299A JP 730299 A JP730299 A JP 730299A JP 4061760 B2 JP4061760 B2 JP 4061760B2
Authority
JP
Japan
Prior art keywords
density
background
region
coordinate
still image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP00730299A
Other languages
Japanese (ja)
Other versions
JP2000206027A (en
Inventor
訓 光山
仁司 松尾
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP00730299A priority Critical patent/JP4061760B2/en
Publication of JP2000206027A publication Critical patent/JP2000206027A/en
Application granted granted Critical
Publication of JP4061760B2 publication Critical patent/JP4061760B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は計算機を用いた画像処理に関し、特に粒子画像を背景と対象領域(粒子の存在する領域)とに分離する領域分割方法に関する。
【0002】
【従来の技術】
従来、この種の領域分割方法としては、例えば白血球画像の領域分割方法として、「白血球分類の自動化」(Medical Imaging Technology、 Vol.14、 No.1、 January、 1996、 P.14-22)に記載されている技術が知られている。この技術は、白血球が撮影された静止画像の、赤成分の濃度(R濃度)と、緑成分の濃度(G濃度)と青成分の濃度(B濃度)に閾値を設け、背景と対象領域を分離している。この技術を応用すると、例えばR濃度、G濃度をそれぞれ縦軸、横軸とする座標面上において、図2に示すように背景濃度が103、対象領域の濃度が104のように分布した場合、R濃度に閾値T1、T2を設定し、G濃度に閾値T11、T12を設定し、R濃度がT1以上T2以下であり、かつG濃度がT11以上T12以下である濃度を有する画素を背景、それ以外の画素を対象領域とすることにより、背景と対象領域とを分離することができる。
【0003】
【発明が解決しようとする課題】
しかしながら、尿沈渣画像に上述の従来技術を応用した場合、必ずしも全ての尿沈渣画像の領域分割が正確に行えない、という問題があった。背景領域に色むら、濃度むら(明暗のむら)が存在する場合、背景領域の濃度分布は特定の方向に広がる場合がある。例えばRG平面上において、明るさ方向は原点から放射上に広がる方向であり、背景に濃度むらがある場合には図3の101に示すように背景濃度分布は原点と背景濃度分布の中心を結ぶ直線方向に広がった形状となる。この時、対象領域の濃度が102のように分布したとすると、R、G濃度に閾値を設けるだけで背景と対象とを正確に分離することはできない。例えば背景濃度分布101を囲むようにR濃度に閾値T21、T22を設定し、G濃度に閾値T31、T32を設定し、 R濃度がT21以上T22以下であり、かつG濃度がT31以上T32以下である濃度を有する画素を背景、それ以外の画素を対象領域とすると、対象領域の濃度分布102は背景濃度とみなされ、対象領域が正確に抽出されない。また、対象領域が抽出されるように閾値を設定すると、背景濃度の一部が対象領域の濃度とみなされ、背景の一部が対象として抽出され、正確な領域分割を行うことができない。特に背景と対象粒子との色調差が小さい画像の領域分割において、上記の問題が顕著に現われる。
【0004】
本発明は上記事情に鑑みてなされたものであり、その目的とするところは、従来の技術における上述の如き問題を解消し、背景に色むらや濃度むらがある粒子画像や、背景と対象粒子との色調差が小さい粒子画像でも正確に背景と対象領域とを分離することができる領域分割方法を提供することにある。
【0005】
【課題を解決するための手段】
本発明の上述の目的は、色濃度座標中で、粒子画像の背景の濃度分布が最も広がる方向と、色濃度座標の一軸が平行になるように色濃度座標を回転し、粒子画像の濃度値を回転後の座標の座標値に変換し、該座標値に閾値を設け、背景と対象領域とに分割することにより達成される。
【0006】
また、特に背景の色が一様で、濃度むらのみがある場合には、RGB濃度座標における背景の分布の中心(Rm、Gm、Bm)を求め、濃度座標の黒色を示す点(座標原点)と(Rm、Gm、Bm)を通る直線が、色濃度座標の一軸に平行になるように色濃度座標を回転し、R濃度、G濃度、B濃度を回転後の座標系(UVW座標系とする)の座標値(U値、V値、W値)に変換し、U、V、W値に閾値を設け、背景と対象領域を分離することができる。図2に示すように背景濃度と対象領域濃度が分布した場合、原点と背景濃度分布の中心を通る軸を有する座標系は例えば図1に示すU軸、V軸により表現することができる。背景濃度、対象領域濃度をU値、V値により表現し、例えばU値に閾値Ua、Ucを設け、V値に閾値Va、Vcを設け、U値がUa以上Uc以下であり、かつV値がVa以上Vc以下である画素を背景、それ以外の画素を対象領域とすることにより、背景と対象領域を正確に分離することができる。
【0007】
背景の面積が大きい粒子画像の場合には、粒子画像のR濃度、G濃度、B濃度の最頻値が背景濃度分布の中心に一致する。そのため、粒子画像のR、G、B濃度の最頻値を上記(Rm、Gm、Bm)として用いることができる。
【0008】
また、濃度座標の変換を行った後、更に画像を背景と対象領域と、背景濃度と対象領域濃度の中間的な濃度を持つ領域(中間領域)の3種類の領域に分割し、中間領域の周囲長Lと、背景と接する周囲長Lbを求め、Lb/Lに閾値を設定し、Lb/Lが閾値より小さい中間領域を対象領域に統合し、Lb/Lが閾値より大きい中間領域を背景に統合することにより、背景と対象の色調差が小さい画像に対しても正確な領域分割を行うことができる。
【0009】
また、濃度座標を回転する際の、回転角に関する情報を表示する工程により、操作者が回転角を確認し、背景の色調を知ることができ、背景の色調がおかしい、領域分割が正常に行われていない可能性がある、等の異常を検出することができる。
【0010】
また、濃度座標の回転角に基準となる範囲を設け、回転角が基準となる範囲から外れた場合には警告を発する工程により、上記のような異常を自動検出することができる。
【0011】
【発明の実施の形態】
以下、本発明を尿沈渣検査装置に応用した実施例を、図面を参照して詳細に説明する。
【0012】
図4は本発明を応用した尿沈渣検査装置の構成の概要を示す図である。測定装置本体200では染色液添加装置210により尿試料に染色液を添加し、一定時間後、画像入力装置220により尿中の固形成分の拡大静止画像を撮影する。撮影された画像はパターン認識装置230に転送され、画像パターン認識を行い、撮影された固形成分の分類が行われ、1つの検体中にどのような固形成分がどのくらいの頻度で出現したかがカウントされる。カウントされた結果は出力装置240を通じて操作者に報告される。出力装置240としては例えばプリンタ、液晶ディスプレイ等を用いる。画像入力装置220により撮影された画像、測定装置本体200による分類結果、及び測定装置本体200による画像パターン認識の途中で得られた画像特徴量、等のデータは通信手段20を通じレビュー装置30に転送される。レビュー装置30は、操作者が任意の画像を表示させ、自動分類の修正や、目視による細分類を行うことができる。レビュー装置30としてはディスプレイ31、キーボード32、記憶装置33を備えた汎用のパーソナルコンピュータを用いる。
【0013】
図5は測定装置本体200を構成する画像入力装置220の構成例を示す図である。この装置では、フローセル221を用い、対物レンズ223とパルスランプ222との間に幅広で厚さの薄い、扁平な尿試料の流れを作る。フローセル221により形成される尿試料の流れには、パルスランプ222が瞬間的に照射され、対物レンズ223により拡大される尿中の固形成分像がCCDカラーテレビカメラ224により静止画像として撮影される。得られた画像はパターン認識装置230に転送される。
【0014】
次に画像処理装置230の、より詳細な構成例を図6を用いて説明する。CCDカラーテレビカメラ224より入力されるアナログ画像信号はA/D変換器231によりR濃度、G濃度、B濃度のデジタルデータに変換され、領域分割部232に送られる。領域分割部232は画像を背景領域と対象領域とに分割する。特徴量計算部233では領域分割部232で対象領域として分割された領域の画像特徴量を計算する。画像中に複数の対象が存在する時には、それぞれの対象領域について特徴量を計算する。特徴量としては例えば対象領域の面積、周囲長、平均色濃度、等を用いる。
【0015】
パターン認識部234には特徴量計算部233で求められた各対象領域の画像特徴量が入力され、その対象がどのような成分であるか分類を行う。パターン認識としては例えばニューラルネットワークを用いることができる。分類項目としては例えば赤血球、白血球、上皮細胞、円柱、結晶等を用いる。
【0016】
カウント部235は分類すべきクラスと同数のカウンタを持ち、パターン認識部234により各分類クラスに分類された対象の数をカウントする。一つの検体について測定が終了すると、カウンタの内容が単位体積中の個数に換算され、出力装置240に転送され、出力される。各カウンタの値は一検体の測定が終了するごとに0にリセットされる。
【0017】
次に図6における領域分割部232の処理内容をより詳細に説明する。図7は本発明による領域分割部232の処理フローの第一の実施例を説明する図である。まず、ステップS100において領域分割部に入力された粒子画像のR濃度、G濃度、B濃度のヒストグラムを作成する。次にステップS110においてR濃度、G濃度、B濃度の各ヒストグラムの最頻値を求め、Rm、Gm、Bmとする。本装置で撮影された尿沈渣画像は背景領域が最も大きな面積を占めるため、濃度ヒストグラム中、最も大きなピークが背景濃度分布の中心を表す。次に、ステップS120で濃度座標の変換式を決定する。背景色が一様で、濃度むらのみが存在する場合には、背景濃度分布は黒色を示す点(原点)から放射状の方向へ広がる。そこで、変換式は、変換後の座標系のうちの一軸が、RGB座標における原点(0、0、0)と背景濃度分布の中心を示す点(Rm、Gm、Bm)を結ぶ方向と平行になるように決定する。変換後の座標軸をU、V、Wとすると、例えば図8に示すようにU軸をRGB座標の原点と(Rm、Gm、Bm)を結ぶ方向に一致させるとする。また、U、V、W軸は例えばそれぞれ直交する座標系とする。この時の変換式はV、W軸の向きにより無数に存在し、一意には定まらない
【0018】
が、例えば【数1】に示す式により変換を行うことができる。ただし、r、g、bはそれぞれR濃度値、G濃度値、B濃度値を表し、u、v、wは変換後のU値、V値、W値を表す。
【0019】
【数1】

Figure 0004061760
【0020】
ここで、θ、ωは図8に示す角度であり、sinθ、cosθ、sinω、c
【0021】
osωはそれぞれ【数2】、【数3】、【数4】、【数5】により求めることができる。
【0022】
【数2】
Figure 0004061760
【0023】
【数3】
Figure 0004061760
【0024】
【数4】
Figure 0004061760
【0025】
【数5】
Figure 0004061760
【0026】
なお、前述のように座標変換は一意には定まらず、ここで述べた変換方法は一例に過ぎない。他にも様々な変換式を用いることが可能である。また、各座標軸は必ずしも直交している必要はなく、極座標等も用いることができる。極座標(r、θ、φ)を用いる場合にはr軸を背景濃度分布の広がり方向に設定する。
【0027】
ステップS123ではステップS120で求めた濃度変換式により座標が回転する回転角度を記録する。回転角度は数1による変換式を用いる場合にはθ、ωに相当する。回転角度は通信手段20(図4)を介してレビュー装置30に送られ、記憶装置33に記録される。操作者はディスプレイ31とキーボード32を用いて記録装置33に記録された回転角度を参照することができる。これらの回転角度は画像の背景色の異常の検出等、メンテナンス時の情報として用いることができる。また、ステップS126では回転角度を予め設定した基準範囲と比較し、回転角度が基準範囲から外れた場合には、異常を示す警告のメッセージを出力する。例えば上記θに閾値θ1、θ2(θ1<θ2)を設定し、ωに閾値ω1、ω2(ω1<ω2)を設定し、θ<θ1またはθ>θ2またはω<ω1またはω>ω2の時に警告のメッセージを出力する。警告のメッセージは図4の出力装置240に表示するか、または通信手段20、レビュー装置30を介し、ディスプレイ31に表示する。また、警告は音により出力しても良い。
【0028】
次にステップS130において、画像上の各画素のRGB値よりUVW値を求め、U値、V値、W値のヒストグラムを作成し、ステップS140においてU値、V値、W値に設ける閾値を定める。閾値はヒストグラムを用いて例えば次のように定めることができる。まず、図9に示す最頻値Umを求め、Umにおける頻度Fpuを記憶し、次に頻度がFpuの半分であるU値(Ul、Uh)を求める
【0029】
。その後、求まったUm、Ul、Uhを元に、【数6】、【数7】、【数8】、
【0030】
【数9】により閾値Ua、Ub、Uc、Udを求める。ただし、Ku1、Ku2(Ku1<Ku2)、Ku3、Ku4(Ku3<Ku4)は実験的に求められる定数である。V値、W値に関しても全く同様にしてV値に設ける閾値Va、Vb、Vc、Vd、及びW値に設ける閾値Wa、Wb、Wc、Wdを求める。
【0031】
【数6】
Figure 0004061760
【0032】
【数7】
Figure 0004061760
【0033】
【数8】
Figure 0004061760
【0034】
【数9】
Figure 0004061760
【0035】
ステップS150では、ステップS140で定めた閾値を用い、粒子画像の対象領域を抽出する。ステップS150における対象領域抽出処理フローの詳細を図11に示す。まずステップS300において、画像を背景、対象領域、中間領域の3種類の領域に分割する。中間領域とは背景と対象領域との中間的な濃度値をもつ領域であり、ステップS140で定めた閾値を用いて例えば下記のように3種類の領域を定める。但し、以下では注目する画素のU値、V値、W値をそれぞれu、v、wとする
(背景)Ua<u<UcかつVa<v<VcかつWa<w<Wcを満たす画素
(対象領域)u<Ubまたはu>Udまたはv<Vbまたはv>Vdまたはw<Wbまたはw>Wdを満たす画素
(中間領域)背景、対象領域以外の画素
これはUVW座標系において、濃度値がU=Ua、U=Uc、V=Va、V=Vc、W=Wa、W=Wcという6個の平面に囲まれた直方体(直方体Aとする)内にある画素を背景とし、U=Ub、U=Ud、V=Vb、V=Vd、W=Wb、W=Wdという6個の平面に囲まれた直方体(直方体Bとする)の外にある画素を対象領域としている。直方体Bは直方体Aを内部に含み、直方体Bに含まれ、直方体Aの外にある画素が中間領域となる。わかり易くするため、UV平面でこの関係を図示したのが図10である。図10において外側の長方形が上述の直方体Bに相当し、内側の長方形が直方体Aに相当する。内側の長方形の内部に存在する画素は背景、外側の長方形の外側に存在する画素は対象領域、2つの長方形に挟まれた領域に存在する画素が中間領域として分割される。
【0036】
画像が3種類の領域に分割された後、ステップS310において、中間領域にラベリングを行う。ラベリングとは、抽出された領域が1個の連結領域でなく、複数であった場合、それぞれの領域に個別の番号を与える処理である。ここでは、中間領域として抽出された領域が複数であった場合に、それぞれの領域に1から始まる個別の番号を与える。
【0037】
ラベリングが終了した後、ステップS320でnに1を代入し、ステップS330で中間領域n(ステップS310のラベリング処理においてnという番号が与えられた中間領域)の周囲長Lを求める。さらにステップS340で中間領域nの周囲長のうち、背景領域に接する長さLbを求める。次にステップS350においてLb/Lを予め定めた閾値Rlと比較し、Lb/LがRlより大きい時にはステップS360で中間領域nを背景に統合し、Lb/LがRlより小さい時にはステップS370で中間領域nを対象領域に統合する。さらにステップS380でnの値を1つ増加し、ステップS390で中間領域nの有無を調べ、中間領域nが存在すればステップS330以降の処理を繰り返す。中間領域nが存在しない場合には対象領域抽出処理を終了する。更に、必要に応じ、対象領域の穴埋め、背景領域の孤立点除去等の修正処理を施す。
【0038】
ここで述べた、粒子画像を背景、対象領域、中間領域に分割した後、中間領域の周囲長L、対象領域と接する周囲長Lbを用いて中間領域を背景、対象領域のどちらかに統合する、という対象領域抽出方法は、特に対象粒子と背景が似た色調の場合に有効な方法である。対象粒子が背景と似た色調の場合、背景、対象領域、中間領域の3種類の領域は例えば図12に示すように分割される。図12では、中間領域320は対象領域310の内部にあり、本来対象領域として抽出されるべき領域である。逆に中間領域330は対象領域310の外側にあり、本来背景として分割されるべき領域である。各中間領域の周囲長Lと背景と接する周囲長Lbの比Lb/Lに着目すると、中間領域320のように対象領域の内部にある場合、背景に接している部分が無いかまたは非常に少ないので、Lb/Lは小さな値となる。一方、中間領域330のように対象領域の外側にある場合は、背景と接している部分が多いため、Lb/Lは大きな値となる。そのため、上述のようにLb/Lが大きい中間領域を背景に統合し、Lb/Lの小さい領域を対象領域に統合することにより、対象領域の内部を誤って背景と分割したり、背景の一部を誤って対象領域として抽出することを防ぐことができる。
【0039】
以上で述べたステップS140における閾値の設定方法、ステップS150における対象領域の抽出方法は一例であり、本発明に用いる閾値設定方法、対象領域抽出方法はこれに限定されるものではない。閾値設定方法、対象領域抽出方法は撮影される粒子の性質に応じ、適切な方法を選択すれば良い。
【0040】
次に図13を用いて本発明による領域分割部232(図6)の処理フローの第2の実施例を説明する。第1の実施例では、粒子が撮影された画像の濃度ヒストグラムから背景の平均濃度(Rm、Gm、Bm)を決定したが、第2の実施例では、粒子画像の撮影に先立ち、まず、ステップS210において粒子の存在しない背景のみの画像を撮影する。ステップS220でこの画像の濃度分布の広がりの方向を求める。濃度分布の広がりの方向を求めるためには、例えば多変量解析技術を用いることができる。多変量解析と呼ばれる技術のうち、主成分分析を行うことにより、分布が最も広がる方向を第1主成分として求めることができる。また、ステップS230において第2主成分、第3主成分を求めることにより、座標変換式を行列式として求めることができる。また、背景濃度の色が一定で、濃度のみが変化していることが予め分かっている場合には、ステップS220においてR濃度、G濃度、B濃度の平均値(または最頻値)を求め、それぞれRm、Gm、Bmとする。(Rm、Gm、Bm)は第1の実施例と同様、背景濃度分布の中心を表す。次にステップS230において、(Rm、Gm、Bm)を用いてR、G、B濃度値をU、V、W値に変換する変換式を決定する。変換式の決定方法は第1の実施例のステップS120と同じ方法を用いることができる。ステップS233ではステップS230で求めた変換式による座標が回転する回転角度を記録し、ステップS236で回転角度が異常でないかを判定する。ステップS233及びステップS236の処理はそれぞれ第1の実施例におけるステップS123、S126の処理と同じ処理を用いることができる。
【0041】
変換式が決定した後、粒子画像の入力を開始し(ステップS240)、粒子画像のU、V、W値のヒストグラムを作成し(ステップS250)、閾値を決定し(ステップS260)、対象領域を抽出する(ステップS270)。ステップS250、S260、S270における処理は第1の実施例で述べたステップS130、S140、S150と同じ処理を用いることができる。ステップS280では領域分割結果を出力し、ステップS290で次の画像が入力されるかどうかを判断する。次の画像が入力される場合にはステップS240以下の処理を繰り返し、画像が入力されない場合には処理を終了する。
【0042】
第1の実施例では粒子画像1枚毎に背景濃度を求め、最適な変換式を求めているのに対し、第2の実施例では最初に撮影した背景画像を用いて決定した変換式をその後の全ての粒子画像の領域分割に使用するため、第2の実施例の方が高速な処理が可能である。粒子画像1枚毎に背景の濃度が変動するような場合には第1の実施例が有効である。一方、背景の濃度が全ての画像において殆ど変化しない場合には、第2の実施例が有効である。また、第2の実施例において、主成分分析を行い背景の濃度分布の方向を求める場合には、処理時間は増えるが、背景に濃度むらだけでなく色むらがある場合にも望ましい領域分割結果を得る事が可能である。
【0043】
以上、本発明を尿沈渣検査装置に応用した実施例について述べたが、本発明は尿沈渣検査装置への応用に限定されるものではない。例えば血球画像、微生物画像等、様々な粒子画像の領域分割に応用が可能である。
【0044】
【発明の効果】
以上述べたように、本発明によれば粒子画像の背景濃度の広がりの方向に軸を有する濃度座標を定め、領域分割を行うことにより、背景に濃度むらや色むらがある画像についても正確な領域分割が可能である。背景濃度分布の広がりの方向は予め粒子の存在しない画像を撮影することにより、求めることができ、この方法は画像毎に背景濃度が変化しない場合や、背景に濃度むらだけでなく色むらがある場合に有効である。また、粒子が撮影された画像の濃度の最頻値から背景濃度の広がりの方向を求めることも可能であり、この場合、画像一枚毎に背景濃度分布の広がりの方向を求めることができるので、画像一枚毎に背景濃度や背景色が変化する場合に有効である。
【0045】
更に、画像を背景と対象領域と、背景濃度と対象領域濃度との中間的な濃度を持つ領域(中間領域)の3種類に分割し、中間領域の周囲長Lと、背景と接する周囲長Lbを求め、Lb/Lに閾値を設定し、Lb/Lが閾値より大きい中間領域を背景、閾値より小さい中間領域を対象領域に統合することにより、背景と対象との色調差が小さい画像に対しても正確な領域分割を行うことができる。
【0046】
また、濃度座標を回転する際の回転角度を記録し、後から参照することにより、装置の異常を検出することが可能となる。予め回転角度に基準範囲を設定し、回転角度が基準範囲を外れた時に警告を発することにより、装置の異常を自動検出することができる。
【図面の簡単な説明】
【図1】本発明による領域分割の原理を示す図である。
【図2】従来技術による領域分割の原理を示す図である。
【図3】従来技術による領域分割の問題点を示す図である。
【図4】本発明を用いた尿沈渣検査装置の構成例を示す図である。
【図5】本発明を用いた尿沈渣検査装置の画像入力装置の構成例を示す図である。
【図6】本発明を用いた尿沈渣検査装置のパターン認識装置の構成例を示す図である。
【図7】本発明を用いた尿沈渣検査装置の領域分割部における処理フローの第1の実施例を示す図である。
【図8】変換前後の座標軸の関係を示す図である。
【図9】閾値設定基準を説明する図である。
【図10】背景濃度と、対象領域濃度と、中間領域濃度の関係を説明する図である。
【図11】本発明を用いた尿沈渣検査装置の領域分割部における領域抽出処理フローを示す図である。
【図12】粒子画像上における、背景と対象領域と中間領域の関係を説明する図である。
【図13】本発明を用いた尿沈渣検査装置の領域分割部における処理フローの第2の実施例を示す図である。
【符号の説明】
20:通信手段
30:レビュー装置
31:ディスプレイ
32:キーボード
33:記憶装置
101:RG濃度平面上における背景の濃度分布
102:RG濃度平面上における対象の濃度分布
103:RG濃度平面上における背景の濃度分布
104:RG濃度平面上における対象の濃度分布
200:測定装置本体
210:染色液添加装置
220:画像入力装置
221:フローセル
222:パルスランプ
223:対物レンズ
224:CCDカラーテレビカメラ
230:パターン認識装置
231:A/D変換器
232:領域分割部
233:特徴量計算部
234:パターン認識部
235:カウント部
240:出力装置
300:粒子画像
310:対象領域
320:中間領域
330:中間領域。[0001]
BACKGROUND OF THE INVENTION
The present invention relates to image processing using a computer, and more particularly to a region dividing method for separating a particle image into a background and a target region (region where particles exist).
[0002]
[Prior art]
Conventionally, as this type of region segmentation method, for example, as a region segmentation method for white blood cell images, “Automated white blood cell classification” (Medical Imaging Technology, Vol. 14, No. 1, January, 1996, P. 14-22) The described techniques are known. This technique sets a threshold for the red component density (R density), the green component density (G density), and the blue component density (B density) of a still image in which white blood cells are photographed, It is separated. When this technology is applied, for example, when the background density is 103 and the density of the target area is 104 as shown in FIG. Threshold values T1 and T2 are set for the R density, threshold values T11 and T12 are set for the G density, a pixel having a density with the R density of T1 to T2 and the G density of T11 to T12, By using other pixels as the target area, the background and the target area can be separated.
[0003]
[Problems to be solved by the invention]
However, when the above-described prior art is applied to the urine sediment image, there is a problem that the region division of all the urine sediment images cannot always be performed accurately. When color unevenness and density unevenness (lightness / darkness unevenness) exist in the background area, the density distribution of the background area may spread in a specific direction. For example, on the RG plane, the brightness direction extends from the origin to the radiation, and when there is uneven density in the background, the background density distribution connects the origin and the center of the background density distribution as shown by 101 in FIG. The shape spreads in the linear direction. At this time, if the density of the target region is distributed as 102, the background and the target cannot be accurately separated only by providing threshold values for the R and G densities. For example, threshold values T21 and T22 are set for the R density so as to surround the background density distribution 101, threshold values T31 and T32 are set for the G density, the R density is T21 or more and T22 or less, and the G density is T31 or more and T32 or less. If a pixel having a certain density is the background and other pixels are the target area, the density distribution 102 of the target area is regarded as the background density, and the target area is not accurately extracted. If the threshold is set so that the target area is extracted, a part of the background density is regarded as the density of the target area, and a part of the background is extracted as a target, and accurate area division cannot be performed. In particular, the above problem appears remarkably in the area division of an image with a small color tone difference between the background and the target particles.
[0004]
The present invention has been made in view of the above circumstances, and the object thereof is to solve the above-described problems in the prior art, particle images having uneven color and uneven density, and background and target particles. It is an object of the present invention to provide a region dividing method capable of accurately separating a background and a target region even in a particle image having a small color tone difference.
[0005]
[Means for Solving the Problems]
The above-described object of the present invention is to rotate the color density coordinates so that the density distribution of the background of the particle image spreads most in the color density coordinates so that one axis of the color density coordinates is parallel to the density value of the particle image. Is converted into coordinate values of the coordinates after rotation, a threshold value is provided for the coordinate values, and the image is divided into the background and the target region.
[0006]
In particular, when the background color is uniform and there is only density unevenness, the center (Rm, Gm, Bm) of the background distribution in the RGB density coordinates is obtained, and the point indicating the black color coordinates (coordinate origin) Rotate the color density coordinates so that the straight line passing through (Rm, Gm, Bm) is parallel to one axis of the color density coordinates, and rotate the R density, G density, and B density to the coordinate system (UVW coordinate system and Can be converted into coordinate values (U value, V value, W value), and threshold values can be provided for the U, V, and W values to separate the background and the target area. When the background density and the target area density are distributed as shown in FIG. 2, a coordinate system having an axis passing through the origin and the center of the background density distribution can be expressed by, for example, the U axis and the V axis shown in FIG. The background density and the target area density are expressed by U value and V value. For example, threshold values Ua and Uc are provided for U value, threshold values Va and Vc are provided for V value, U value is not less than Ua and not more than Uc, and V value By using a pixel whose V is Va or more and Vc or less as a background and other pixels as a target region, the background and the target region can be accurately separated.
[0007]
In the case of a particle image having a large background area, the mode values of the R density, G density, and B density of the particle image coincide with the center of the background density distribution. Therefore, the mode values of the R, G, and B concentrations of the particle image can be used as the above (Rm, Gm, Bm).
[0008]
In addition, after the density coordinate conversion, the image is further divided into three types of areas: a background, a target area, and an area having an intermediate density between the background density and the target area density (intermediate area). The peripheral length L and the peripheral length Lb in contact with the background are obtained, a threshold is set for Lb / L, an intermediate region where Lb / L is smaller than the threshold is integrated into the target region, and an intermediate region where Lb / L is larger than the threshold is set as the background By integrating into the image, accurate area division can be performed even for an image with a small difference in color between the background and the object.
[0009]
In addition, the process of displaying information about the rotation angle when rotating the density coordinates allows the operator to check the rotation angle and know the background color tone, the background color tone is strange, and the region division is performed normally. It is possible to detect abnormalities such as that there is a possibility that they are not broken.
[0010]
Further, by providing a reference range for the rotation angle of the density coordinates and issuing a warning when the rotation angle deviates from the reference range, the above abnormality can be automatically detected.
[0011]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an embodiment in which the present invention is applied to a urine sediment examination apparatus will be described in detail with reference to the drawings.
[0012]
FIG. 4 is a diagram showing an outline of the configuration of a urine sediment examination apparatus to which the present invention is applied. In the measuring apparatus main body 200, a staining solution is added to the urine sample by the staining solution adding device 210, and after a certain time, an enlarged still image of solid components in urine is taken by the image input device 220. The captured images are transferred to the pattern recognition device 230, image pattern recognition is performed, the captured solid components are classified, and what solid components appear in one sample and how often are counted. Is done. The counted result is reported to the operator through the output device 240. As the output device 240, for example, a printer, a liquid crystal display, or the like is used. Data such as an image photographed by the image input device 220, a classification result by the measuring device main body 200, and an image feature amount obtained during image pattern recognition by the measuring device main body 200 are transferred to the review device 30 through the communication means 20. Is done. The review device 30 allows an operator to display an arbitrary image and correct automatic classification or perform visual fine classification. As the review device 30, a general-purpose personal computer including a display 31, a keyboard 32, and a storage device 33 is used.
[0013]
FIG. 5 is a diagram illustrating a configuration example of the image input device 220 constituting the measuring apparatus main body 200. In this apparatus, a flow cell 221 is used to create a flow of a wide and thin flat urine sample between the objective lens 223 and the pulse lamp 222. The flow of the urine sample formed by the flow cell 221 is instantaneously irradiated with a pulse lamp 222, and a solid component image in urine magnified by the objective lens 223 is photographed as a still image by the CCD color TV camera 224. The obtained image is transferred to the pattern recognition device 230.
[0014]
Next, a more detailed configuration example of the image processing apparatus 230 will be described with reference to FIG. The analog image signal input from the CCD color television camera 224 is converted into digital data of R density, G density, and B density by the A / D converter 231, and sent to the area dividing unit 232. The area dividing unit 232 divides the image into a background area and a target area. The feature amount calculation unit 233 calculates the image feature amount of the region divided as the target region by the region division unit 232. When there are a plurality of targets in the image, the feature amount is calculated for each target region. As the feature amount, for example, the area of the target region, the perimeter, the average color density, and the like are used.
[0015]
The pattern recognition unit 234 receives the image feature amount of each target area obtained by the feature amount calculation unit 233, and classifies what component the target is. As the pattern recognition, for example, a neural network can be used. As classification items, for example, red blood cells, white blood cells, epithelial cells, cylinders, crystals and the like are used.
[0016]
The counting unit 235 has the same number of counters as the classes to be classified, and counts the number of objects classified into each classification class by the pattern recognition unit 234. When the measurement for one specimen is completed, the contents of the counter are converted into the number in the unit volume, transferred to the output device 240, and output. The value of each counter is reset to 0 every time measurement of one sample is completed.
[0017]
Next, the processing content of the area dividing unit 232 in FIG. 6 will be described in more detail. FIG. 7 is a diagram for explaining a first embodiment of the processing flow of the area dividing unit 232 according to the present invention. First, a histogram of the R density, G density, and B density of the particle image input to the region dividing unit in step S100 is created. Next, in step S110, the mode values of the histograms of R density, G density, and B density are obtained and set as Rm, Gm, and Bm. Since the background region occupies the largest area in the urine sediment image photographed with this apparatus, the largest peak in the density histogram represents the center of the background density distribution. In step S120, a density coordinate conversion formula is determined. When the background color is uniform and only density unevenness exists, the background density distribution spreads in a radial direction from a point (origin) indicating black. Therefore, the conversion formula is such that one axis in the converted coordinate system is parallel to the direction connecting the origin (0, 0, 0) in RGB coordinates and the point (Rm, Gm, Bm) indicating the center of the background density distribution. Decide to be. Assuming that the converted coordinate axes are U, V, and W, for example, as shown in FIG. 8, the U axis is made to coincide with the direction connecting the origin of RGB coordinates and (Rm, Gm, Bm). The U, V, and W axes are, for example, orthogonal coordinate systems. There are innumerable conversion equations at this time depending on the directions of the V and W axes, and they are not uniquely determined.
However, the conversion can be performed by, for example, an expression shown in the following equation (1). However, r, g, and b represent R density value, G density value, and B density value, respectively, and u, v, and w represent converted U value, V value, and W value, respectively.
[0019]
[Expression 1]
Figure 0004061760
[0020]
Here, θ and ω are angles shown in FIG. 8, and sin θ, cos θ, sin ω, c
[0021]
osω can be obtained by the following equations (2), (3), (4), and (5), respectively.
[0022]
[Expression 2]
Figure 0004061760
[0023]
[Equation 3]
Figure 0004061760
[0024]
[Expression 4]
Figure 0004061760
[0025]
[Equation 5]
Figure 0004061760
[0026]
As described above, coordinate conversion is not uniquely determined, and the conversion method described here is merely an example. Various other conversion formulas can be used. Further, the coordinate axes are not necessarily orthogonal, and polar coordinates or the like can be used. When polar coordinates (r, θ, φ) are used, the r axis is set in the direction in which the background density distribution spreads.
[0027]
In step S123, the rotation angle at which the coordinates rotate is recorded by the density conversion formula obtained in step S120. The rotation angle corresponds to θ and ω in the case of using the conversion formula of Equation 1. The rotation angle is sent to the review device 30 via the communication means 20 (FIG. 4) and recorded in the storage device 33. The operator can refer to the rotation angle recorded in the recording device 33 using the display 31 and the keyboard 32. These rotation angles can be used as information at the time of maintenance such as detection of an abnormality in the background color of the image. In step S126, the rotation angle is compared with a preset reference range, and if the rotation angle is out of the reference range, a warning message indicating an abnormality is output. For example, threshold values θ1 and θ2 (θ1 <θ2) are set for θ, threshold values ω1 and ω2 (ω1 <ω2) are set for ω, and a warning is given when θ <θ1 or θ> θ2 or ω <ω1 or ω> ω2. Message is output. The warning message is displayed on the output device 240 of FIG. 4 or is displayed on the display 31 via the communication means 20 and the review device 30. The warning may be output by sound.
[0028]
Next, in step S130, UVW values are obtained from the RGB values of each pixel on the image, a histogram of U values, V values, and W values is created. In step S140, threshold values provided for the U values, V values, and W values are determined. . The threshold value can be determined, for example, as follows using a histogram. First, the mode value Um shown in FIG. 9 is obtained, the frequency Fpu at Um is stored, and then the U value (U1, Uh) whose frequency is half of Fpu is obtained.
. After that, based on the calculated Um, Ul, Uh, [Equation 6], [Equation 7], [Equation 8],
[0030]
Threshold values Ua, Ub, Uc and Ud are obtained by the following equation (9). However, Ku1, Ku2 (Ku1 <Ku2), Ku3, Ku4 (Ku3 <Ku4) are constants obtained experimentally. The threshold values Va, Vb, Vc, Vd provided for the V value and the threshold values Wa, Wb, Wc, Wd provided for the W value are obtained in the same manner for the V value and the W value.
[0031]
[Formula 6]
Figure 0004061760
[0032]
[Expression 7]
Figure 0004061760
[0033]
[Equation 8]
Figure 0004061760
[0034]
[Equation 9]
Figure 0004061760
[0035]
In step S150, the target area of the particle image is extracted using the threshold value determined in step S140. Details of the target area extraction processing flow in step S150 are shown in FIG. First, in step S300, the image is divided into three types of areas: background, target area, and intermediate area. The intermediate area is an area having an intermediate density value between the background and the target area. For example, the following three areas are determined using the threshold values determined in step S140. However, in the following, the U value, V value, and W value of the pixel of interest are set to u, v, and w, respectively (background) pixels that satisfy Ua <u <Uc, Va <v <Vc, and Wa <w <Wc (target) Area) pixels satisfying u <Ub or u> Ud or v <Vb or v> Vd or w <Wb or w> Wd (intermediate area) pixels other than the background and target areas. This is a density value of U in the UVW coordinate system. = Ua, U = Uc, V = Va, V = Vc, W = Wa, W = Wc, a pixel in a rectangular parallelepiped (referred to as a rectangular parallelepiped A) surrounded by six planes, and U = Ub, A pixel outside the rectangular parallelepiped (referred to as a rectangular parallelepiped B) surrounded by six planes U = Ud, V = Vb, V = Vd, W = Wb, and W = Wd is the target region. The rectangular parallelepiped B includes the rectangular parallelepiped A inside, the pixels included in the rectangular parallelepiped B, and the pixels outside the rectangular parallelepiped A are intermediate regions. For the sake of clarity, FIG. 10 illustrates this relationship on the UV plane. In FIG. 10, the outer rectangle corresponds to the aforementioned rectangular parallelepiped B, and the inner rectangle corresponds to the rectangular parallelepiped A. The pixels existing inside the inner rectangle are divided as the background, the pixels existing outside the outer rectangle are divided into the target region, and the pixels existing in the region sandwiched between the two rectangles are divided as the intermediate region.
[0036]
After the image is divided into three types of regions, labeling is performed on the intermediate region in step S310. Labeling is a process of assigning individual numbers to each area when the extracted areas are not a single connected area but a plurality. Here, when there are a plurality of regions extracted as intermediate regions, individual numbers starting from 1 are assigned to the respective regions.
[0037]
After the labeling is completed, 1 is substituted for n in step S320, and the peripheral length L of the intermediate region n (the intermediate region given the number n in the labeling process in step S310) is obtained in step S330. Further, in step S340, the length Lb in contact with the background area is obtained from the peripheral length of the intermediate area n. Next, in step S350, Lb / L is compared with a predetermined threshold value Rl. When Lb / L is larger than Rl, the intermediate region n is integrated into the background in step S360, and when Lb / L is smaller than Rl, intermediate in step S370. The area n is integrated into the target area. Further, in step S380, the value of n is incremented by one. In step S390, the presence / absence of the intermediate region n is checked. If the intermediate region n exists, the processes in and after step S330 are repeated. If the intermediate area n does not exist, the target area extraction process is terminated. Further, correction processing such as filling of the target region and removal of isolated points from the background region is performed as necessary.
[0038]
After the particle image is divided into the background, the target region, and the intermediate region, the intermediate region is integrated into either the background or the target region using the peripheral length L of the intermediate region and the peripheral length Lb in contact with the target region. The target region extraction method is an effective method particularly in the case of a color tone similar to the target particle. When the target particle has a color tone similar to that of the background, the three types of areas of the background, the target area, and the intermediate area are divided as shown in FIG. In FIG. 12, the intermediate area 320 is inside the target area 310 and is an area that should originally be extracted as the target area. Conversely, the intermediate area 330 is outside the target area 310 and is an area that should be originally divided as the background. When attention is paid to the ratio Lb / L of the peripheral length Lb of each intermediate region and the peripheral length Lb in contact with the background, when the target region is inside the target region like the intermediate region 320, there is no or very little portion in contact with the background. Therefore, Lb / L is a small value. On the other hand, in the case of being outside the target region as in the intermediate region 330, Lb / L has a large value because there are many portions in contact with the background. For this reason, as described above, the intermediate region having a large Lb / L is integrated into the background, and the region having a small Lb / L is integrated into the target region. It is possible to prevent the part from being erroneously extracted as the target region.
[0039]
The threshold value setting method in step S140 and the target region extraction method in step S150 described above are examples, and the threshold value setting method and target region extraction method used in the present invention are not limited to these. As the threshold setting method and the target region extraction method, an appropriate method may be selected according to the properties of the particles to be photographed.
[0040]
Next, a second embodiment of the processing flow of the area dividing unit 232 (FIG. 6) according to the present invention will be described with reference to FIG. In the first embodiment, the average density (Rm, Gm, Bm) of the background is determined from the density histogram of the image in which the particles are photographed. In the second embodiment, first, before the particle image is photographed, the steps are performed. In S210, an image of only the background without particles is taken. In step S220, the direction of spread of the density distribution of the image is obtained. In order to obtain the direction of the spread of the concentration distribution, for example, a multivariate analysis technique can be used. Among the techniques called multivariate analysis, by performing principal component analysis, the direction in which the distribution is most spread can be obtained as the first principal component. Further, by obtaining the second principal component and the third principal component in step S230, the coordinate conversion formula can be obtained as a determinant. If it is known in advance that the color of the background density is constant and only the density is changed, the average value (or mode) of the R density, G density, and B density is obtained in step S220. Let them be Rm, Gm, and Bm, respectively. (Rm, Gm, Bm) represents the center of the background density distribution, as in the first embodiment. In step S230, a conversion equation for converting R, G, B density values into U, V, W values using (Rm, Gm, Bm) is determined. As a method for determining the conversion formula, the same method as in step S120 of the first embodiment can be used. In step S233, the rotation angle at which the coordinates based on the conversion formula obtained in step S230 rotate is recorded, and in step S236, it is determined whether the rotation angle is abnormal. The processes in steps S233 and S236 can be the same as the processes in steps S123 and S126 in the first embodiment, respectively.
[0041]
After the conversion formula is determined, input of the particle image is started (step S240), a histogram of the U, V, and W values of the particle image is created (step S250), a threshold is determined (step S260), and the target area is determined. Extract (step S270). The processes in steps S250, S260, and S270 can use the same processes as steps S130, S140, and S150 described in the first embodiment. In step S280, the region division result is output, and in step S290, it is determined whether or not the next image is input. If the next image is input, the processing from step S240 is repeated, and if no image is input, the processing ends.
[0042]
In the first embodiment, the background density is obtained for each particle image and the optimum conversion formula is obtained, whereas in the second embodiment, the conversion formula determined by using the first photographed background image is used thereafter. Therefore, the second embodiment can perform high-speed processing. The first embodiment is effective when the density of the background varies for each particle image. On the other hand, when the background density hardly changes in all the images, the second embodiment is effective. In the second embodiment, when the principal component analysis is performed to determine the direction of the background density distribution, the processing time increases, but the desired region division result is also obtained when the background has not only density unevenness but also color unevenness. Can be obtained.
[0043]
As mentioned above, although the Example which applied this invention to the urine sediment test | inspection apparatus was described, this invention is not limited to the application to a urine sediment test | inspection apparatus. For example, the present invention can be applied to area segmentation of various particle images such as blood cell images and microorganism images.
[0044]
【The invention's effect】
As described above, according to the present invention, density coordinates having an axis in the direction of the spread of the background density of the particle image are determined, and region division is performed, so that an image having density unevenness or color unevenness can be accurately obtained. Region division is possible. The direction of the spread of the background density distribution can be obtained by photographing an image in which particles are not present in advance, and this method has a case where the background density does not change for each image or there is not only uneven density but also uneven color in the background. It is effective in the case. It is also possible to determine the direction of the background density spread from the mode of the density of the image where the particles are photographed. In this case, the direction of the background density distribution spread can be obtained for each image. This is effective when the background density or background color changes for each image.
[0045]
Further, the image is divided into three types: a background, a target region, and a region (intermediate region) having an intermediate density between the background density and the target region density, and the peripheral length Lb of the intermediate region and the peripheral length Lb in contact with the background. By setting a threshold value for Lb / L, and integrating an intermediate region where Lb / L is greater than the threshold value into the background and an intermediate region where Lb / L is smaller than the threshold value into the target region, an image having a small color difference between the background and the target However, accurate area division can be performed.
[0046]
Further, it is possible to detect an abnormality of the apparatus by recording the rotation angle when rotating the density coordinates and referring to it later. By setting a reference range for the rotation angle in advance and issuing a warning when the rotation angle is outside the reference range, it is possible to automatically detect an abnormality in the apparatus.
[Brief description of the drawings]
FIG. 1 is a diagram showing the principle of area division according to the present invention.
FIG. 2 is a diagram illustrating a principle of region division according to a conventional technique.
FIG. 3 is a diagram illustrating a problem of area division according to a conventional technique.
FIG. 4 is a diagram showing a configuration example of a urine sediment examination apparatus using the present invention.
FIG. 5 is a diagram showing a configuration example of an image input device of a urine sediment examination device using the present invention.
FIG. 6 is a diagram showing a configuration example of a pattern recognition apparatus of a urine sediment inspection apparatus using the present invention.
FIG. 7 is a diagram showing a first example of a processing flow in an area dividing unit of a urine sediment examination apparatus using the present invention.
FIG. 8 is a diagram illustrating a relationship between coordinate axes before and after conversion.
FIG. 9 is a diagram illustrating threshold setting criteria.
FIG. 10 is a diagram for explaining a relationship among background density, target area density, and intermediate area density;
FIG. 11 is a diagram showing a region extraction processing flow in a region dividing unit of the urine sediment examination apparatus using the present invention.
FIG. 12 is a diagram for explaining a relationship among a background, a target region, and an intermediate region on a particle image.
FIG. 13 is a diagram showing a second embodiment of the processing flow in the area dividing unit of the urine sediment examination apparatus using the present invention.
[Explanation of symbols]
20: Communication means 30: Review device 31: Display 32: Keyboard 33: Storage device 101: Background density distribution on RG density plane 102: Target density distribution on RG density plane 103: Background density on RG density plane Distribution 104: Concentration distribution 200 on the RG density plane 200: Measuring device main body 210: Staining solution addition device 220: Image input device 221: Flow cell 222: Pulse lamp 223: Objective lens 224: CCD color TV camera 230: Pattern recognition device 231: A / D converter 232: region dividing unit 233: feature amount calculating unit 234: pattern recognition unit 235: counting unit 240: output device 300: particle image 310: target region 320: intermediate region 330: intermediate region

Claims (6)

粒子が撮影された静止画像を、前記粒子の存在する領域と背景に分割する領域分割方法において、多次元色濃度座標を持つ空間上に前記静止画像の色濃度分布を表したとき濃度分布が最も広がる方向と新たな色濃度座標軸の一軸が平行になるように前記多次元色濃度座標系を回転し、前記粒子が撮影された静止画像の色濃度を回転後の座標の座標値に変換し、該座標値に閾値を設け、前記静止画像を前記背景と前記粒子の存在する領域とに分割することを特徴とする粒子画像領域分割方法。In an area dividing method for dividing a still image in which particles are photographed into an area where the particles exist and a background, when the color density distribution of the still image is represented on a space having multidimensional color density coordinates , the density distribution is The multi-dimensional color density coordinate system is rotated so that the most spread direction and one axis of the new color density coordinate axis are parallel, and the color density of the still image in which the particles are photographed is converted into the coordinate value of the rotated coordinates. A particle image region dividing method, wherein a threshold value is provided for the coordinate value, and the still image is divided into the background and the region where the particles exist. 粒子が撮影された静止画像の、赤成分の濃度(R濃度)、緑成分の濃度(G濃度)、青成分の濃度(B濃度)を用い、前記静止画像を、前記粒子の存在する領域と背景に分割する領域分割方法において、前記R濃度、G濃度、B濃度を座標軸とする色濃度座標空間上で前記静止画像の色濃度分布を表したとき、色濃度分布の中心と黒色を示す点とを結ぶ直線と、新たな色濃度座標の一軸が平行になるように前記色濃度座標系を回転し、前記R濃度、G濃度、B濃度を回転後の座標系の座標値に変換し、前記回転後の座標系の少なくとも一軸上に設けた閾値により前記静止画像を前記背景と前記粒子の存在する領域とに分割することを特徴とする粒子画像領域分割方法。Using the density of the red component (R density), the density of the green component (G density), and the density of the blue component (B density) of the still image in which the particles are photographed, the still image is defined as an area where the particles exist. In the area dividing method of dividing into backgrounds, when the color density distribution of the still image is represented on the color density coordinate space with the R density, G density, and B density as coordinate axes, the center of the color density distribution and the point indicating black The color density coordinate system is rotated so that a straight line connecting the two and one axis of the new color density coordinates are parallel, and the R density, G density, and B density are converted into coordinate values of the rotated coordinate system, A particle image region dividing method, wherein the still image is divided into the background and the region where the particles exist by a threshold value provided on at least one axis of the rotated coordinate system. 粒子が撮影された静止画像の、赤成分の濃度(R濃度)、緑成分の濃度(G濃度)、青成分の濃度(B濃度)を用い、前記静止画像を、前記粒子の存在する領域と背景に分割する領域分割方法において、前記R濃度、G濃度、B濃度を座標軸とする色濃度座標空間上に前記静止画像を表したときの色濃度の最頻値を求め、前記濃度座標中で前記最頻値を示す点と、黒色を示す点とを結ぶ直線と、新たな色濃度座標の一軸が平行になるように前記色濃度座標を回転し、前記R濃度、G濃度、B濃度を回転後の座標系の座標値に変換し、該回転後の座標系の少なくとも一軸上に設けた閾値により前記静止画像を前記背景と前記粒子の存在する領域とに分割することを特徴とする粒子画像領域分割方法。  Using the density of the red component (R density), the density of the green component (G density), and the density of the blue component (B density) of the still image in which the particles are photographed, the still image is defined as an area where the particles exist. In the area dividing method for dividing into backgrounds, a mode value of color density when the still image is represented on a color density coordinate space having the R density, G density, and B density as coordinate axes is obtained, The color density coordinate is rotated so that the straight line connecting the point indicating the mode and the point indicating black and one axis of the new color density coordinate are parallel, and the R density, G density, and B density are set. Particles converted into coordinate values of a coordinate system after rotation, and dividing the still image into the background and the region where the particles exist by using a threshold value provided on at least one axis of the coordinate system after rotation Image segmentation method. 請求項1〜3記載の粒子画像領域分割方法のおいて、前記静止画像を前記背景と、前記粒子の存在する領域と、前記背景と前記粒子の存在する領域との中間的な濃度値を有する領域とに分割し、前記中間的な濃度値を有する領域の周囲長と、背景に接する周囲長を求め、該背景に接する周囲長と、前記周囲長との比に閾値を設け、前記背景に接する周囲長と前記周囲長との比が前記閾値より大きい時には前記中間的な濃度値を有する領域を背景とし、前記背景に接する周囲長と前記周囲長との比が前記閾値より小さい時には、前記中間的な濃度値を有する領域を対象領域として分割することを特徴とする粒子画像領域分割方法。  4. The particle image region dividing method according to claim 1, wherein the still image has an intermediate density value between the background, the region where the particles exist, and the region where the backgrounds and the particles exist. The area is divided into regions, and the peripheral length of the region having the intermediate density value and the peripheral length in contact with the background are obtained, and a threshold is set for the ratio between the peripheral length in contact with the background and the peripheral length, and the background When the ratio between the peripheral length in contact with the peripheral length is larger than the threshold, the region having the intermediate density value is used as a background, and when the ratio between the peripheral length in contact with the background and the peripheral length is smaller than the threshold, A particle image region dividing method characterized by dividing a region having an intermediate density value as a target region. 請求項1〜4記載の粒子画像領域分割方法において、前記濃度座標を回転する角度を示す情報を表示する工程を有することを特徴とする粒子画像領域分割方法。  5. The particle image region dividing method according to claim 1, further comprising a step of displaying information indicating an angle at which the density coordinates are rotated. 請求項1〜4記載の粒子画像領域分割方法において、前記濃度座標を回転させる角度に基準となる範囲を設け、前記角度が前記基準となる範囲から外れた時に、警告を発する工程を有することを特徴とする粒子画像領域分割方法。  5. The particle image region dividing method according to claim 1, further comprising a step of providing a reference range for an angle for rotating the density coordinates, and issuing a warning when the angle is out of the reference range. A particle image region dividing method as a feature.
JP00730299A 1999-01-14 1999-01-14 Particle image segmentation method Expired - Lifetime JP4061760B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP00730299A JP4061760B2 (en) 1999-01-14 1999-01-14 Particle image segmentation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP00730299A JP4061760B2 (en) 1999-01-14 1999-01-14 Particle image segmentation method

Publications (2)

Publication Number Publication Date
JP2000206027A JP2000206027A (en) 2000-07-28
JP4061760B2 true JP4061760B2 (en) 2008-03-19

Family

ID=11662236

Family Applications (1)

Application Number Title Priority Date Filing Date
JP00730299A Expired - Lifetime JP4061760B2 (en) 1999-01-14 1999-01-14 Particle image segmentation method

Country Status (1)

Country Link
JP (1) JP4061760B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009125678A1 (en) * 2008-04-07 2009-10-15 株式会社日立ハイテクノロジーズ Method and device for dividing area of image of particle in urine
JP5586889B2 (en) * 2009-07-29 2014-09-10 株式会社日立ハイテクノロジーズ Particle image analyzer
JP5851160B2 (en) * 2011-08-31 2016-02-03 オリンパス株式会社 Image processing apparatus, operation method of image processing apparatus, and image processing program
CN111272675A (en) * 2020-02-26 2020-06-12 北京机科国创轻量化科学研究院有限公司 Dye liquor detection device

Also Published As

Publication number Publication date
JP2000206027A (en) 2000-07-28

Similar Documents

Publication Publication Date Title
US9224193B2 (en) Focus stacking image processing apparatus, imaging system, and image processing system
WO2021139258A1 (en) Image recognition based cell recognition and counting method and apparatus, and computer device
Visen et al. AE—automation and emerging technologies: identification and segmentation of occluding groups of grain kernels in a grain sample image
US20070014460A1 (en) Method and apparatus for detecting various cell types of cells in a biological sample
KR0137757B1 (en) Object recognition method and apparatus for determining and shape of an object
JP3581149B2 (en) Method and apparatus for identifying an object using a regular sequence of boundary pixel parameters
US20230214989A1 (en) Defect detection method, electronic device and readable storage medium
US20120207379A1 (en) Image Inspection Apparatus, Image Inspection Method, And Computer Program
WO2019210707A1 (en) Image sharpness evaluation method, device and electronic device
US11068740B2 (en) Particle boundary identification
JP4061760B2 (en) Particle image segmentation method
JP2008185337A (en) System, method and program for evaluating pathological image
JPH07122902B2 (en) Cell position detector
JP3653804B2 (en) Particle image region segmentation method and apparatus
JP2928714B2 (en) Cell activity determination method and device
Fermin et al. Colour thresholding and objective quantification in bioimaging
JP2001314374A (en) Corneal endothelial cell measuring apparatus
JPS5830049B2 (en) Automatic reticulocyte measurement device
JP3745075B2 (en) Film thickness measuring device
JPH0473052A (en) Method and apparatus for measuring diameter of hair and sample for measurement
CN116106226B (en) Target area analysis system and method for biological detection
JPH08202871A (en) Picture information processor
CN118196072A (en) Method for measuring tobacco shred width, electronic equipment and storage medium
JP2007017345A (en) Method and apparatus for automatically detecting observation target
CN115760786A (en) Target segmentation detection method in non-uniform brightness image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040325

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20040325

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050524

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20060417

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20061128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070110

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20071204

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20071217

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110111

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110111

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120111

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130111

Year of fee payment: 5

EXPY Cancellation because of completion of term