JP2017029549A - 内視鏡画像処理装置、内視鏡画像処理方法及び内視鏡画像処理プログラム - Google Patents

内視鏡画像処理装置、内視鏡画像処理方法及び内視鏡画像処理プログラム Download PDF

Info

Publication number
JP2017029549A
JP2017029549A JP2015154569A JP2015154569A JP2017029549A JP 2017029549 A JP2017029549 A JP 2017029549A JP 2015154569 A JP2015154569 A JP 2015154569A JP 2015154569 A JP2015154569 A JP 2015154569A JP 2017029549 A JP2017029549 A JP 2017029549A
Authority
JP
Japan
Prior art keywords
image
color space
image processing
processing
endoscope
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015154569A
Other languages
English (en)
Other versions
JP6566395B2 (ja
JP2017029549A5 (ja
Inventor
晃弥 皆本
Akiya Minamoto
晃弥 皆本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Saga University NUC
Original Assignee
Saga University NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Saga University NUC filed Critical Saga University NUC
Priority to JP2015154569A priority Critical patent/JP6566395B2/ja
Publication of JP2017029549A publication Critical patent/JP2017029549A/ja
Publication of JP2017029549A5 publication Critical patent/JP2017029549A5/ja
Application granted granted Critical
Publication of JP6566395B2 publication Critical patent/JP6566395B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】カラーの内視鏡画像に対して画像処理を行うことで、内視鏡で確認が可能な病変部位を強調して表示し、専門医の負担を軽減することができる内視鏡画像処理装置等を提供する。【解決手段】カラーの内視鏡画像を任意の色空間に変換する色空間変換部22と、変換後の画像情報に対して周波数分解の処理を行う周波数変換部23、前記周波数分解の処理における係数に前記画像情報のエッジを強調するコントラスト強調処理を適用するコントラスト強調部24とを備える。また、周波数逆変換部25で得られた画像を低値化又はビットプレーン分解する低値化処理部26と、画像の複雑性を求める複雑性演算部51と、求められた複雑性が高い箇所を病変箇所として特定する病変特定部52とを備える。【選択図】図5

Description

本発明は、カラーの内視鏡画像を画像処理することで病変部位を強調する内視鏡画像処理装置等に関する。
現在、内視鏡画像を用いた早期癌の診断は、専門医の主観的な判断によるものであり、その経験や知識に大きく左右される。また、専門医は癌の有無を調べる過程で、数多くの正常な部位の画像も確認しなければならない。このことは、専門医の負担を非常に大きくする要因となっている。
早期癌の診断に用いる内視鏡画像システムには、白色光照明を用いたものと、レーザ光源を用いたものが広く知られている。特にレーザ光源を用いたものは、白色光照明の撮像では表現し難かった血管や表面構造を強調することが可能となっており、癌の早期発見に大きく寄与している。例えば、非特許文献1では、内視鏡画像に基づいて、早期食道癌の検出を行う技術が提案されている。この手法では、Gabor特徴量を用いて、RGB色空間、HSI色空間、YCbCr色空間での検出性能を評価し、サポートベクタマシン(SVM)を用いて、血管を基に早期癌の部位と正常部位の画像分類を行っている。
しかしながら、非特許文献1で扱っている画像は、専門的な知識がなくても明らかに異常とわかるものが多く、専門医の負担軽減という観点からは十分な技術ではない。すなわち、異常部位を明らかに判断することができるような内視鏡画像ではなく、正常部位と異常部位との区別が専門医でないと判断できないような内視鏡画像について、異常部位を強調できる技術が望まれている。
また、画像処理の技術を医療診断等に利用する技術として、例えば、特許文献1、2に示す技術が開示されている。特許文献1に示す技術は、少なくとも1つの医療映像を変換することにより、少なくとも1つの医療映像を、マルチスケールの複数方向を有する映像情報に分解する段階と、マルチスケールの映像情報において、各スケールの映像情報の係数分散を推定する段階と、推定された分散と、各スケールを含む複数個のスケールの映像情報の係数と、を利用し、各スケールの映像情報の係数値を調整する段階と、調整されたマルチスケールの複数方向を有する映像情報を逆変換することにより、少なくとも1つの医療映像の復元映像を生成する段階と、を含む医療映像処理方法である。
特許文献2に示す技術は、皮膚ゾーンにおける皮膚症状を検出して数量化する方法であって、予め決められた複数の肌の色の濃淡度の分類と複数のタイプの皮膚症状とに対して、選択された複数の波長を識別することにより、皮膚症状のタイプと肌の色の濃淡度の分類との各組み合わせに対して、上記波長の1つによって、この分類に属する肌の色の濃淡度を有する人の肌の皮膚におけるこのようなタイプの症状を、コントラストによって検出でき、白色光による画像を撮影し、この画像から肌の色の濃淡度と、対応する分類とを自動的に識別し、この肌の色の濃淡度の分類に応じて、この肌の色の濃淡度の分類と、検出しようとしているタイプの皮膚症状との組み合わせに対応する波長の画像を自動的に捕捉し、次いで、このように捕捉された画像を少なくとも処理して、前記検出しようとする上記タイプの皮膚症状を検出する方法である。
特開2013−119040号公報 特表2015−500722号公報
特許文献1、2に示す技術は、いずれも画像処理技術を医療分野に応用するものであるが、内視鏡のカラー画像を対象にしたものではないため、内視鏡のカラー画像に対して特許文献1、2に開示されるような処理を行ったとしても、病変部位を強調することができない。
本発明は、カラーの内視鏡画像に対して画像処理を行うことで、内視鏡で確認が可能な病変部位を強調して表示し、専門医の負担を軽減することができる内視鏡画像処理装置等を提供する。
本発明に係る内視鏡画像処理装置は、カラーの内視鏡画像を任意の色空間に変換する色空間変換手段と、変換後の画像情報に対して周波数分解の処理を行う周波数変換処理手段と、前記周波数分解の処理における係数に前記画像情報のエッジを強調するコントラスト強調処理を適用するコントラスト強調処理手段とを備えるものである。
このように、本発明に係る内視鏡画像処理装置においては、カラーの内視鏡画像を任意の色空間に変換し、変換後の画像情報に対して周波数分解の処理を行い、前記周波数分解の処理における係数に前記画像情報のエッジを強調するコントラスト強調処理を適用するため、専門医の判断に依らなければ判断が難しいような内視鏡画像における病変を強調することができ、専門医の負担を軽減することができるという効果を奏する。
本発明に係る内視鏡画像処理装置は、コントラストが強調された前記画像情報を低値化又はビットプレーン分解する低値化処理手段を備えるものである。
このように、本発明に係る内視鏡画像処理装置においては、コントラストが強調された前記画像情報を低値化又はビットプレーン分解するため、内視鏡画像における病変をより明確に表示することが可能になるという効果を奏する。
本発明に係る内視鏡画像処理装置は、低値化された前記画像情報における複雑性が高い箇所を抽出する複雑性抽出手段を備えるものである。
このように、本発明に係る内視鏡画像処理装置においては、低値化された前記画像情報における複雑性が高い箇所を抽出するため、特に、複雑な直線や曲線が多く観察される傾向にある病変を容易に見極めることができるという効果を奏する。
本発明に係る内視鏡画像処理装置は、前記画像情報における複雑性が高い箇所を癌の病変箇所として出力することを特徴とする病変出力手段を備えるものである。
このように、本発明に係る内視鏡画像処理装置においては、画像情報における複雑性が高い箇所を癌の病変箇所として出力するため、特に、複雑な直線や曲線が多く観察される傾向にある早期癌を容易に発見することができるという効果を奏する。
第1の実施形態に係る内視鏡画像処理装置のハードウェア構成図である。 第1の実施形態に係る内視鏡画像処理装置の機能ブロック図である。 第1の実施形態に係る内視鏡画像処理装置の処理を示すフローチャートである。 CIE L色空間のイメージ図である。 第2の実施形態に係る内視鏡画像処理装置の機能ブロック図である。 ボックスカウント法の処理過程を示す図である。 動的閾値法と静的閾値法による2値化の結果を示す図である。 第2の実施形態に係る内視鏡画像処理装置の処理を示すフローチャートである。 第3の実施形態に係る内視鏡画像処理装置の機能ブロック図である。 第3の実施形態に係る内視鏡画像処理装置の動作を示すフローチャートである。 実施例における第1の実験結果を示す第1の図である。 実施例における第1の実験結果を示す第2の図である。 実施例における第2の実験結果を示す図である。 実施例における第3の実験結果を示す図である。 実施例における第4の実験結果を示す図である。 実施例における第5の実験結果を示す図である。 実施例における第6の実験結果を示す図である。 低値化処理後の画像を示す図である。 低値化処理後のフラクタル次元の計算結果を示す図である。 実施例における第7の実験結果を示す第1の図である。 実施例における第7の実験結果を示す第2の図である。 実施例における第7の実験結果を示す第3の図である。 実施例における第7の実験結果を示す第4の図である。 ビットプレーン処理後の画像を示す図である。 ビットプレーン処理後のフラクタル次元の計算結果を示す図である。 実施例における第8の実験結果を示す第1の図である。 実施例における第8の実験結果を示す第2の図である。 実施例における第8の実験結果を示す第3の図である。 実施例における第8の実験結果を示す第4の図である。
以下、本発明の実施の形態を説明する。また、本実施形態の全体を通して同じ要素には同じ符号を付けている。
(本発明の第1の実施形態)
本実施形態に係る内視鏡画像処理装置について、図1ないし図4を用いて説明する。本実施形態に係る内視鏡画像処理装置は、白色光照明を用いて撮像されたカラーの内視鏡画像やレーザ光源を用いて撮像されたカラーの内視鏡画像の色空間を、撮像元の光源に応じた所定の色空間に変換し、Curvelet変換やWavelet変換を用いてコントラストが強調された画像を作成するものである。
本実施形態に係る内視鏡画像処理装置は、内視鏡システムに組み込んで一体的な装置としてもよいし、一旦内視鏡システムで撮像された画像を取り込んで画像処理を行う別体の装置としてもよい。
図1は、本実施形態に係る内視鏡画像処理装置のハードウェア構成図である。内視鏡画像処理装置10は、少なくとも、CPU11、RAM12、ROM13、ハードディスク(HDとする)14、通信I/F15、及び入出力I/F16を備える。ROM13やHD14には、オペレーティングシステム、プログラム、内視鏡画像等が格納されており、必要に応じてプログラムがRAM12に読み出され、CPU11により実行される。
通信I/F15は、装置間の通信を行うためのインタフェースである。入出力I/F16は、タッチパネル、キーボード、マウス、カメラ等の入力機器からの入力を受け付けたり、プリンタやモニタ等にデータを出力するためのインタフェースである。この入出力I/F16は、必要に応じて光磁気ディスク、フロッピー(登録商標)ディスク、CD−R、DVD−R等のリムーバブルディスク等に対応したドライブを接続することができる。各処理部はバスを介して接続され、情報のやり取りを行う。なお、上記ハードウェアの構成はあくまで一例であり、必要に応じて変更可能である。
内視鏡画像にはいくつかのタイプがあり、ここでは、白色光照明を光源として撮像された白色光画像、並びに、レーザ光を光源として撮像されたFICE画像(富士フイルム株式会社製の内視鏡システム)、BLI画像(富士フイルム株式会社製の内視鏡システム)、NBI画像(オリンパス株式会社製の内視鏡システム)に対して、有効な画像処理技術を説明する。
図2は、本実施形態に係る内視鏡画像処理装置の機能ブロック図である。内視鏡画像処理装置10は、内視鏡システム20で撮像されたカラーの内視鏡画像を入力する画像入力部21と、入力された内視鏡画像の色空間を当該入力された内視鏡画像のタイプに応じて他の色空間に変換する色空間変換部22と、色空間が変換された変換画像に対して内視鏡画像のタイプ及び/又は変換後の色空間に応じて、例えばCurvelet変換やWavelet変換等の周波数変換を行う周波数変換部23と、周波数変換により得られるエッジ情報を適正な係数を求めることで強調するコントラスト強調部24と、コントラスト強調された画像に対して、周波数変換部23の変換と逆の変換を行う周波数逆変換部25と、逆変換により得られた画像を閾値処理して低値化又はビットプレーン分解する低値化処理部26と、低値化された結果をディスプレイ28に表示する表示制御部27とを備える。
なお、図2において、低値化処理部26を備えないようにしてもよい。すなわち、周波数逆変換部25の逆変換により得られた画像を表示制御部27がそのままディスプレイ28に表示する構成であってもよい。また、周波数逆変換部25についても、周波数変換部23で行われる周波数変換の種類によっては、必ずしも必須の構成ではない。具体的には、以下に説明するCurvelet変換の場合は、周波数逆変換部25の処理を行うが、下記の第3の実施形態において示す離散ウェーブレット変換(DWT)による周波数変換を行う場合は、周波数逆変換部25は必要ない。
各処理部の詳細を以下に説明する。ここでは、FICE画像をCIE L色空間に変換し、周波数変換にCurvelet変換を利用した場合の処理について説明する。図3は、本実施形態に係る内視鏡画像処理装置の処理を示すフローチャートである。まず、色空間変換部22が、画像入力部21で入力されたFICE画像をRGB色空間からCIE L色空間に変換する(S1)。
ここで、FICE画像とは、レーザ光源を用いた内視鏡画像システムで用いられるものであり、粘膜や血管のコントラストが強調されているため、通常の白色光光源の場合に比べて血管や表面構造の観察に適している。FICE画像を撮像するモードは、RGB色空間で表現された画像から被写体の分光反射率を推定し特定の波長情報を利用することで、白色光ではわかりにくい病変の特徴を際立たせる特殊光観察法である。
CIE L色空間は、マンセルシステムをモデルとして改良されてきたものである。このマンセル表色系は,色差が均等にできている等色差性という性質をもっている。そして、CIE L色空間には、RGB色空間やCMYK色空間などに比べて、人間の視覚に近い設計がされているという利点がある。これは、CIE L色空間が均等色空間(USC:Uniform Color Space)として考案されたためである。UCSとは、色空間内での距離が色の変化量に類似するよう設計されている空間のことである。つまり、色の値が変化したときの差分と人間の心理的な色の差分が等しいということである。例えば、UCSの変化量が大きくなれば、人間の視覚的にも色の変化が大きくなる。
の各成分の値は、XYZ色空間の各成分の値を視覚の特性を考慮した簡単な変換式で変換することによって計算される。図4は、CIE L色空間のイメージ図である。図4(A)において、L軸は明度を表しており、0を黒、100を白とした無彩色の軸である。また、a,bの値によって色相が変化し、原点から遠ざかるほど彩度が高くなる。図4(B)は、図4(A)からa,bの座標を取り出したものである。図4において、aは赤紫(+)と青緑(−)の成分であり、bは黄(+)と青(−)の成分である。ここで、線分OCの長さは彩度、角度θは色相を示している。明度、色相、彩度に関するものは心理メトリック量と呼ばれている。Lはメトリック明度、線分OCの長さはメトリック彩度、θはメトリック色相角と呼ばれている。
RGB色空間からCIE L色空間への変換は以下の手順で行われる。まず、RGB色空間をXYZ色空間に変換する。
ここで、変換行列は3原色のX,Y,Z座標と白色点の座標Xn,Yn,Znから求められる。上記の変換行列は、(Xn,Yn,Zn)=(0.9642,1,0.8249)として計算している。Xn,Yn,Znに関しての詳細は、参考文献1(JISC 日本工業標準調査会:“色の表示方法−XYZ表色系及びX10Y10Z10表色系”)に記載されている通りである。次に、Lの各成分の値を求めるための関数f定義する。
(1)より、Lの各成分の値は次のように計算される。
また、(1)の表記は一般的なものであるが、以下のように書き直すこともできる。
(2)の場合、Lの各成分の値は次の通りに計算される。
図3に戻って、得られたa成分に対して、周波数変換部23がCurvelet変換を適用する(S2)。ここでは、CIE L色空間のa成分を利用する。これは、FICE画像にa成分が多く見られるためである。a成分は色相と彩度に関する成分である。コントラスト強調部24が、S2のCurvelet係数にコントラスト強調と適用する(S3)。
離散Curvelet変換に基づいたコントラスト強調は以下の手法で行う。離散Curvelet変換は、連続Curvelet変換の離散化により構成され、Curvelet係数は以下の式より得られる。
ここで、b=k/L1,j+k/L2,j、0≦n≦L、0≦n≦L2,j、n=(n,n)∈Z、k=(k,k)∈Zである。U~j,lはradial window W(r)とangular window V(t)によって得られるfrequency window関数で、そのサポートが長さL1,j、幅L2,jの矩形である。また、f^はfのフーリエ変換を表す。W(r)、V(t)の定義は以下の通りである。
ここで、Wのサポートは開区間(1/2,2)に、Vのサポートは閉区間[−1,1]に含まれる。式(3)によって得られたCurvelet係数を用いてコントラスト強調を行う(参考文献2(Starck, J.−L., Murtagh, F., Candes,E.J. and Donoho, D.L.: Gray and Color Image Contrast Enhancement by the Curvelet Transform, IEEE Transactions on Image Processing, Vol.12, issue6,pp.706−717, June, 2003))。そこで、
とし、変数m=ρcD,max j,lとして以下の式を計算する。
ここで、(p,s,ρ,c)=(0.5,0,0.5,3)とする。σは画像に入ったノイズの標準偏差である。
式(4)、(5)より、コントラスト強調されたCurvelet係数c~ j,l,kを得る。
周波数逆変換部25が、コントラスト強調されたCurvelet係数にCurvelet逆変換を適用する(S4)。低値化処理部26が、得られた成分に対して閾値処理により低値化する(S5)。閾値の決定方法として、ここでは取得していた事前データに基づいて、予め決定しておく。具体的には、a~を専門医が病変であると判断した異常部位とそれ以外の正常部位ブロックに分割し、各ブロックの中央値をヒストグラム化し、それぞれの分布の度数が等しい値を閾値Tとして決定する。なお、低値化する際には、2値化でもよいし、実験結果に示すように8階調や16階調で低値化したり、ビットプレーン分解するようにしてもよい。表示制御部27が、低値化された画像をディスプレイ28に表示して(S6)、処理を終了する。
なお、内視鏡画像はFICE画像以外にも、白色光画像、BLI画像、NBI画像等に対して、上記処理を適用することが可能である。また、上記各内視鏡画像のタイプに応じて、色空間変換部22による変換対象となる色空間及び変換後の色空間をRGB(赤:Red、緑:Green、青:Blue)、HSV(色相:Hue、彩度:Saturation、明度(強度):Value)、HSB(色相:Hue、彩度:Saturation、明度(強度):Brightness)、HLS(色相:Hue、輝度:Liminance、彩度:Saturation)、CMY(シアン:Cyan、マゼンタ:Magenta、イエロー:Yellow)、YUV(輝度:Y、色差(輝度−青):U、色差(輝度−赤):V)、YCbCr(輝度:Y、色差:Cb、色差:Cr)、YIQ(輝度:Y、色差(オレンジ−シアン):I、色差(緑−マゼンタ):Q)、又は、CIEL*a*b*(L*:明度、a*:色度(赤紫)、b*:色度(青緑)のいずれかとしてもよい。
さらに、上記各内視鏡画像のタイプや、変換後の色空間に応じて、周波数変換部23及び周波数逆変換部24による周波数変換の処理を、連続ウェーブレット変換、整数型離散ウェーブレット変換、実数型離散ウェーブレット変換、多重解像度解析(又は多重解像度近似)、連続カーブレット変換、離散カーブレット変換、マルチウェーブレット変換、複素数(連続)ウェーブレット変換、複素数離散ウェーブレット変換、ダイアディック(2進)ウェーブレット変換、ウェーブレットパケット変換、リフティングウェーブレット変換、又は、スティショナリー(定常)ウェーブレット変換のいずれかを用いるようにしてもよい。
このように、本実施形態に係る内視鏡画像処理装置においては、カラーの内視鏡画像を任意の色空間に変換し、変換後の画像情報に対して周波数分解の処理を行い、周波数分解の処理における係数に画像情報のエッジを強調するコントラスト強調処理を適用し、コントラスト強調処理がなされた画像情報に対して周波数分解の逆変換処理を行い、コントラストが強調された前記画像情報を低値化又はビットプレーン分解して可視化するため、専門医の判断に依らなければ判断が難しいような内視鏡画像における病変を強調することができ、専門医の負担を軽減することができる。また、コントラストが強調された画像情報を低値化又はビットプレーン分解して可視化することで、内視鏡画像における病変をより明確に表示することが可能になる。
(本発明の第2の実施形態)
本実施形態に係る内視鏡画像処理装置について、図5ないし図8を用いて説明する。本実施形態に係る内視鏡画像処理装置は、上記第1の実施形態において低値化された画像情報における複雑性を視覚化し、その複雑性が高い箇所の癌の病変箇所として出力するものである。なお、本実施形態において前記第1の実施形態と重複する説明は省略する。
図5は、本実施形態に係る内視鏡画像処理装置の機能ブロック図である。図5において、前記第1の実施形態における図2と異なるのは、低値化処理部26で低値化又はビットプレーン分解された画像の複雑性をボックスカウント法を用いて小ブロックごとにフラクタル次元を求める複雑性演算部51と、複雑性が演算された結果、複雑性が高いと判断された箇所を癌の病変であると特定する病変特定部52とを備えることである。
なお、図5において、前記第1の実施形態の場合と同様に、周波数逆変換部25については、周波数変換部23で行われる周波数変換の種類によって、必ずしも必須の構成ではない。
フラクタル次元とは、ある図形や集合がそれより小さく相似な図形によって構成されているようなフラクタル図形に対して特徴付けを行う指標である。フラクタル次元は、図形を構成する小図形がどのような尺度にしたがって変化するかを測ることができる。
Sを入力図形、N(s)をSを覆うために必要な直径sの開球の最小数とする。このときのフラクタル次元は以下の式で定義される。
このフラクタル次元はユークリット次元とは異なり非整数値をとる。フラクタル次元は、図形の複雑度を表す指標となり、簡単な例として、コッホ曲線やカントール集合などがある。ある長さの線分を折り曲げて一辺が元の図形の1/3になるように変形し、これを無限回繰り返したものがコッホ曲線である。このコッホ曲線のフラクタル次元は、初めの直線の長さを1とすると、n回変形したときの図形のフラクタル次元は、式(6)を使えば、
となるので、この変形を無限回繰り返した図形のフラクタル次元も1.26となる。より詳細は、参考文献3(Kenneth,F.: Fractal geometry mathematical foundations and applications second edition, Wiley, 2003)に記述されている。デジタル画像に対して適用することができるフラクタル次元の計算法として、以降に説明するボックスカウント法を利用する。
ボックスカウント法は、フラクタル次元を求める場合に用いられる手法の一つである。式(6)では、フラクタル次元を計算するために極限操作を考慮する必要があるため、コンピュータにおける計算には適していない。ボックスカウント法では、与えられた図形を覆う開球を、図形を格子に区切ってできたブロックに置き換えて定義する。図6に示すように、格子を次第に細かくしながら反復し、各反復ごとにフラクタル次元を計算して、その平均値をフラクタル次元とする。対象を格子状に区切ることにより、画素単位で処理でき、デジタル画像に対して一意にフラクタル次元を計算することが可能となる。以上より、ボックスカウント法は式(6)の近似と考えることができる。動的閾値を用いた場合のボックスカウント法のアルゴリズムを以下に示す。
まず、(1)動的閾値を用いて、入力画像を0と1で表現される2値画像に変換する。入力画像Iに対する動的閾値Tは、以下の式から求める。
この式は、画素I(i,j)の閾値を、I(i,j)を中心とする(2R+1)×(2R+1)ピクセルの正方形の平均画素値とする。ここでは、仮にRの値を入力画像のサイズの1/4とする。動的閾値Tを以下の式のように用いて、入力画像を2値化したIbinを得る。
(2)2値化画像Ibinをδ×δ(1≦i≦m)ピクセルの重なりのないブロックに分割する。ここで、δはブロックの一辺の長さの初期値である。
(3)ブロック内に画素値が1の画素を含むブロックの数を数えて、それをnとする。
(4)以下の式からフラクタル次元Dを求める。
(5)ブロックサイズをδi+1=δ/2のように更新して、アルゴリズム(2)〜(4)をδ=1となるまで繰り返す。
(6)ここでは、病変箇所をより特定し易くするために、入力画像のフラクタル次元Dを各ループにおけるフラクタル次元の平均値とする処理を行う。それは以下の式で表される。
なお、上記(1)は動的閾値法のアルゴリズム、(2)〜(6)はボックスカウント法のアルゴリズムを示している。すなわち、ここでは、上記ボックスカウント法のアルゴリズムの中で、2値化のために動的閾値法を用いている。これは、上記第1の実施形態のような静的閾値法では閾値を手動で設定する必要があり、最適な閾値を決定するために試行錯誤が必要となるためである。図7は動的閾値法と静的閾値法による2値化の結果を示す図である。図7(A)の動的閾値法による2値画像の方が、図7(B)の静的閾値法に比べて部位の様子が明らかに明確になっていることがわかる。また、特に、病変箇所を特定し易くするために、本実施形態においては(6)のようにフラクタル次元を平均化する処理を行っている。
図8は、本実施形態に係る内視鏡画像処理装置の処理を示すフローチャートである。ステップS1からステップS5までの処理は前記第1の実施形態における処理と同じである。ステップS5で低値化処理部26により低値化処理又はビットプレーン分解が行われると、複雑性演算部51がフラクタル次元を用いて画像を数値化して可視化する(S6)。画像が数値化された結果、病変特定部52が、複雑性が高いと判断された箇所を癌の病変であると特定する(S7)。表示制御部27が、病変として特定された箇所の画像及びその旨を示す情報をディスプレイ28に表示して(S8)、処理を終了する。
このように、本実施形態に係る内視鏡画像処理装置においては、低値化された前記画像情報における複雑性が高い箇所を抽出するため、特に、複雑な直線や曲線が多く観察される傾向にある病変を容易に見極めることができる。また、画像情報における複雑性が高い箇所を癌の病変箇所として出力するため、特に、複雑な直線や曲線が多く観察される傾向にある早期癌を容易に発見することができる。
(本発明の第3の実施形態)
本実施形態に係る内視鏡画像処理装置について、図9及び図10を用いて説明する。本実施形態に係る内視鏡画像処理装置は、上記各実施形態において、色空間変換処理にYCbCr色空間を用い、周波数変換処理に離散ウェーブレット変換(以下、DWTという)を用い、演算時間を短縮するための前処理を加えたものである。なお、本実施形態において前記各実施形態と重複する説明は省略する。
図9は、本実施形態に係る内視鏡画像処理装置の機能ブロック図である。図9において、前記各実施形態における図2又は図5と異なるのは、色空間変換部22で変換された色空間の成分に対して、後段処理の演算時間を短縮するために前処理を行う前処理部91を備え、前処理がなされた画像に対して周波数変換等の後続の処理が実施されることである。また、上述したように、本実施形態においては周波数変換処理にDWTを用いることから、周波数逆変換部25は構成として必要ない。
前処理部91は、入力された内視鏡画像の臓器以外の領域を除去し、処理対象を臓器のみが写っている画像にする。また、DWTを用いる場合には画像サイズを2のべき乗にする必要があるため、例えば、1024×1024ピクセルとなるようにミラーリングして拡張する。その他、成分の値が平均値より小さい部分(暗い部分)には病変が写っていないとものとして、その部分を後段処理の対象から除去することで、後段処理の演算時間を短縮する。
図10は、本実施形態に係る内視鏡画像処理装置の動作を示すフローチャートである。まず、色空間変換部22が、画像入力部21で入力された白色光照明で撮像された内視鏡画像をRGB色空間からYCbCr色空間に変換すると共に、R(赤)、G(緑)、B(青)及びY(輝度)の4成分を取り出す(S1)。なお、Cb(青系統の色相と彩度)及びCr(赤系統の色相と彩度)成分については、特徴量が非常に少ないので、以降の処理では利用しないものとする。前処理部91が、臓器が写っている領域のみが残るように画像を切り取る(S2)。また、DWT処理のために、各成分の画像サイズを所定サイズ(例えば1024×1024(2のべき乗))のピクセルとなるように、ミラーリングして拡張する(S3)。さらに、各成分に対して、重なりのない所定サイズ(例えば、128×128ピクセル)のブロックに分割し、当該ブロックの平均値が成分の平均値の所定の割合(例えば、70%)より低い場合は、当該ブロックの画素値を全て0とし、後段の処理対象から除外する(S4)。
S4で値が0以外のブロックに対して、周波数変換部23がDWTを複数回(画像サイズに応じて2回以上)適用する(S5)。ここでは、DWTを2回行うことで、各成分の画像サイズは、256×256ピクセルとなる。なお、本実施形態においては、以降の処理で低周波成分のみを使用する。すなわち、低周波成分を使用することで、コントラストが強調された主要成分に対して以降の処理を行う。なお、上述したように、ここでは周波数逆変換部25による周波数逆変換の処理は必要ない。低値化処理部26及び複雑性演算部51が、各ブロックを所定サイズ(例えば、16×16ピクセル)で重なりのない小ブロックに分割し、ボックスカウント法を用いて、小ブロックごとにフラクタル次元を計算する(S6)。このとき、第2の実施形態のように低値化処理又はビットプレーン分解処理において動的閾値法を用いる。R成分、G成分、B成分及びY成分に対してそれぞれフラクタル次元を計算し、それぞれのフラクタル次元の要素ごとの積を以下のようにして計算する(S7)。
ここで、Dred、Dgreen、Dblue及びDluminanceは、それぞれR成分、G成分、B成分及びY成分において計算されたフラクタル次元を示す。病変特定部52が各画素の明暗によって病変部位を特定すると共に、表示制御部27が、Dallをグレースケールでディスプレイ28に表示して(S8)、処理を終了する。
このように、本実施形態に係る内視鏡画像処理装置においては、前処理として明らかに病変ではないと判断できる箇所を処理対象から除外することで、計算時間を短縮することができる。
本発明に係る内視鏡画像処理装置について、以下の実験を行った。
(1)FICE画像、CIE L色空間、離散Cuevelet変換
上記第1の実施形態で説明した手法に基づいて実験を行った。実験にはMATLABのツールボックスで、2,3次元での高速離散Curvelet変換できるCurveLabを用いた。CurveletLabを使用して、離散Curvelet変換及び離散Curvelet逆変換を適用した。内視鏡画像は早期食道癌患者のものを使用した。
図11は、本実施例における第1の実験結果を示す第1の図である。図11(A)は、色空間変換後のa成分、図11(B)は、コントラスト強調されたCurvelet逆変換適用後の内視鏡画像、図11(C)は、閾値処理により2値化された内視鏡画像である。図からわかる通り、処理を行うごとに食道の表面の状態の視認性が高くなっており、専門医が病変を見つけやすくなっている。
図12は、本実施例における第1の実験結果を示す第2の図である。左側の図はFICE画像を見て専門医が癌であると診断した結果の画像を示し、右側の図は上記手法を用いた場合の結果の画像を示している。左側の図は、一般の人が見た場合に一見すると癌であると気づきにくい。これに対して、右側の図は、一般の人が見た場合でも何かしらの病変があると気づくことができる画像となっており、且つ、専門医が癌であると判断した箇所が確実に表示されている。なお、図12の左側のFICE画像は白黒画像となっているが、実際のFICE画像はカラー画像である。
以上のように、本発明の内視鏡画像処理装置の処理により、専門医でなくても病変を認識できるレベルの内視鏡画像を出力することが可能である。
(2)白色光画像、RGB色空間+YCbCr色空間、DWT2回
上記第3の実施形態で説明した手法に基づいて、以下の環境で実験を行った。
図13は、本実施例における第2の実験結果を示す図である。左の画像が、専門医によりマーキング付き内視鏡画像であり、中央の画像が、実数型DWTを使用した場合のフラクタル次元の画像であり、右の画像が整数型DWTを使用した場合のフラクタル次元の画像である。フラクタル次元の画像中の1つのブロックは、左の内視鏡画像の64×64ピクセルに相当し、内視鏡画像とフラクタル次元の画像との位置関係は一致している。フラクタル次元が周囲に比べて低く計算された部分、すなわち図面中で黒く表示されている部分を早期食道癌の疑いがある部位として特定している。そして、点線で示す領域が処理対象から除外された部分である。
図からわかる通り、実数型DWTと整数型DWTを使用した場合で抽出結果に大きな差はなかった。特徴量の抽出時間については、R、G、B及びYの4成分について抽出処理を行ったが、各成分につき約7秒で全体でも約30秒の処理時間だった。これは、前処理を行わなかった場合の処理時間に比べて約170秒以上の削減となり、大きな効果が得られた。時間短縮の理由は、DWTを適用する際のブロック処理を最適化したためである。
(3)白色光画像(富士フイルム株式会社製)、HSV色空間、ダイアディックウェーブレット変換
白色光で撮像された画像をHSV色空間に変換し、ダイアディックウェーブレット変換で周波数変換を行った。図14は、本実施例における第3の実験結果を示す図である。図14(A)は原画像、図14(B)は専門医によるマーキング画像、図14(C)はダイアディックウェーブレット変換でコントラスト強調した画像、図14(D)は閾値処理により2値化した画像、図14(E)はフラクタル次元を求めて可視化した画像である。
図からわかる通り、コントラスト強調や2値化処理により早期食道癌の部位が鮮明に表示され、最終的にフラクタル次元が高い箇所を早期食道癌として特定し、その位置は専門医によるマーキングと一致している。すなわち、本発明の内視鏡画像処理により、白色光の内視鏡画像から、一般的には識別が困難となるような早期食道癌を専門医に限らず特定することが可能であることが明確である。
(4)FICE画像(富士フイルム株式会社製)、HSV色空間、ダイアディックウェーブレット変換
FICE画像をHSV色空間に変換し、ダイアディックウェーブレット変換で周波数変換を行った。図15は、本実施例における第4の実験結果を示す図である。図15(A)は原画像、図15(B)は専門医によるマーキング画像、図15(C)はダイアディックウェーブレット変換でコントラスト強調した画像、図15(D)は閾値処理により2値化した画像、図15(E)はフラクタル次元を求めて可視化した画像である。
上記(3)第3の実験の場合と同様に、コントラスト強調や2値化処理により早期食道癌の部位が鮮明に表示され、最終的にフラクタル次元が高い箇所を早期食道癌として特定し、その位置は専門医によるマーキングと一致している。すなわち、本発明の内視鏡画像処理により、内視鏡システムのFICE画像から、一般的には識別が困難となるような早期食道癌を専門医に限らず特定することが可能であることが明確である。
(5)白色光画像(オリンパス株式会社製)、HSV色空間、ダイアディックウェーブレット変換
白色光画像をHSV色空間に変換し、ダイアディックウェーブレット変換で周波数変換を行った。図16は、本実施例における第5の実験結果を示す図である。図16(A)は原画像、図16(B)は専門医によるマーキング画像、図16(C)はダイアディックウェーブレット変換でコントラスト強調した画像、図16(D)は閾値処理により2値化した画像、図16(E)はフラクタル次元を求めて可視化した画像である。
上記(3)、(4)の実験の場合と同様に、コントラスト強調や2値化処理により早期食道癌の部位が鮮明に表示され、ここでは最終的にフラクタル次元が低い箇所、すなわち画像中の黒い部分を早期食道癌として特定し、その位置は専門医によるマーキングと一致している。したがって、本発明の内視鏡画像処理により、内視鏡システムの白色光画像から、一般的には識別が困難となるような早期食道癌を専門医に限らず特定することが可能であることが明確である。
(6)NBI画像(オリンパス株式会社製)、HSV色空間、ダイアディックウェーブレット変換
NBI画像をHSV色空間に変換し、ダイアディックウェーブレット変換で周波数変換を行った。図17は、本実施例における第6の実験結果を示す図である。図17(A)は原画像、図17(B)は専門医によるマーキング画像、図17(C)はダイアディックウェーブレット変換でコントラスト強調した画像、図17(D)は閾値処理により2値化した画像、図17(E)はフラクタル次元を求めて可視化した画像である。
上記(3)〜(5)の実験の場合と同様に、コントラスト強調や2値化処理により早期食道癌の部位が鮮明に表示され、ここでは最終的にフラクタル次元が低い箇所、すなわち画像中の黒い部分を早期食道癌として特定し、その位置は専門医によるマーキングと一致している。すなわち、本発明の内視鏡画像処理により、内視鏡システムのNBI画像から、一般的には識別が困難となるような早期食道癌を専門医に限らず特定することが可能であることが明確である。
(7)低値化処理
低値化処理について、以下の実験を行った。ここでは、256階調の画像を所定の階調をもつ閾値画像に変換する。この変換処理について、図18の例で説明する。例えば、256階調の画像を8階調の閾値画像に変換する場合、図18(A)の画像は[0,31]→1とし、それ以外の[32,255]→0とする。図18(B)の画像も同様の手法で[32,63]→1とし、それ以外の[0,31]及び[64,255]→0とする。図18(C)〜(H)も同様の手法で順次8階調の閾値画像に変換する。これらの各画像のフラクタル次元を計算すると、図19に示すような画像(A)〜(H)(図18の(A)〜(H)に対応)が得られる。計算されたフラクタル次元から下位25%(図19の場合は、(A)と(B)の画像であり、異常部位にあたる部分が集中している)を足し合わせることで、間引きされたフラクタル次元を計算することができる。
このような手法を用いて、様々な画像(白色光画像、FICE画像、NBI画像)に対して16階調の閾値画像を生成し、フラクタル次元を計算した。その結果を図20〜図23に示す。図20は白色光画像(富士フイルム株式会社製)の処理結果、図21はFICE画像(富士フイルム株式会社製)の処理結果、図22は白色光画像(オリンパス株式会社製)の処理結果、図23はNBI(オリンパス株式会社製)の処理結果である。なお、各図における(A)は原画像、(B)は専門医による診断結果、(C)はコントラスト強調画像、(D)は低値化してフラクタル次元を可視化した画像である。
図20〜図23に示すように、食道の中心部分がどうしても影になるため黒く表示されているものの、それ以外の専門医が癌と特定した部分も黒く表示されており、癌の部位が特定可能であることがわかる。
このように、低値化処理により早期食道癌の部位を区別して表示することが可能となり、内視鏡システムの画像から、一般的には識別が困難となるような早期食道癌を専門医に限らず特定することが可能となる。
(8)ビットプレーン分解
ビットプレーン分解処理について、以下の実験を行った。ここでは、256階調の画像をビットプレーン分解する。この分解処理について、図24の例で説明する。例えば、180という値を持つピクセルは、180=10110100となり、図24(A:第8ビットプレーン)における当該ピクセルは0、図24(B:第7ビットプレーン)における当該ピクセルは0、図24(C:第6ビットプレーン)における当該ピクセルは1、図24(D:第5ビットプレーン)における当該ピクセルは0、図24(E:第4ビットプレーン)における当該ピクセルは1、図24(F:第3ビットプレーン)における当該ピクセルは1、図24(G:第2ビットプレーン)における当該ピクセルは0、図24(H:第1ビットプレーン)における当該ピクセルは1となる。このような手法で図24(A)〜(G)のようなビットプレーン分解画像(最上位ビットが第1ビットプレーン、最下位ビットが第8ビットプレーン)を作成する。
作成された各ビットプレーン分解画像のフラクタル次元を計算すると、図25に示すような分解画像(A)〜(H)(図24の(A)〜(H)に対応)が得られる。フラクタル次元が計算された各分解画像のうち、(A)、(B)及び(F)〜(H)の5枚を足し合わせて、一つのビットプレーン画像を作成する。なお、(C)〜(E)のフラクタル次元は、加算してもほとんど影響がないため、上記5枚の分解画像(第4ビットプレーン〜第6ビットプレーンを除いた間引き画像)でビットプレーン画像を作成する。
このような手法を用いて、様々な画像(白色光画像、FICE画像、NBI画像)に対してビットプレーン画像を生成した。その結果を図26〜図29に示す。図26は、白色光画像(富士フイルム株式会社製)の処理結果、図27はFICE画像(富士フイルム株式会社製)の処理結果、図28は白色光画像(オリンパス株式会社製)の処理結果、図29はNBI(オリンパス株式会社製)の処理結果である。なお、各図における(A)は原画像、(B)は専門医による診断結果、(C)はコントラスト強調画像、(D)は低値化してフラクタル次元を可視化した画像である。
図26〜図29に示すように、専門医が癌と特定した部分も黒く表示されており、癌の部位が特定可能であることがわかる。
10 内視鏡画像処理装置
11 CPU
12 RAM
13 ROM
14 HD
15 通信I/F
16 入出力I/F
20 内視鏡システム
21 画像入力部
22 色空間変換部
23 周波数変換部
24 コントラスト強調部
25 周波数逆変換部
26 低値化処理部
27 表示制御部
28 ディスプレイ
51 複雑性演算部
52 病変特定部
91 前処理部

Claims (6)

  1. カラーの内視鏡画像を任意の色空間に変換する色空間変換手段と、
    変換後の画像情報に対して周波数分解の処理を行う周波数変換処理手段と、
    前記周波数分解の処理における係数に前記画像情報のエッジを強調するコントラスト強調処理を適用するコントラスト強調処理手段とを備えることを特徴とする内視鏡画像処理装置。
  2. 請求項1に記載の内視鏡画像処理装置において、
    コントラストが強調された前記画像情報を低値化又はビットプレーン分解する低値化処理手段を備えることを特徴とする内視鏡画像処理装置。
  3. 請求項2に記載の内視鏡画像処理装置において、
    低値化された前記画像情報における複雑性が高い箇所を抽出する複雑性抽出手段を備えることを特徴とする内視鏡画像処理装置。
  4. 請求項3に記載の内視鏡画像処理装置において、
    前記画像情報における複雑性が高い箇所を癌の病変箇所として出力することを特徴とする病変出力手段を備えることを特徴とする内視鏡画像処理装置。
  5. コンピュータが、
    カラーの内視鏡画像を任意の色空間に変換する色空間変換ステップと、
    変換後の画像情報に対して周波数分解の処理を行う周波数変換処理ステップと、
    前記周波数分解の処理における係数に前記画像情報のエッジを強調するコントラスト強調処理を適用するコントラスト強調処理ステップとを実行することを特徴とする内視鏡画像処理方法。
  6. カラーの内視鏡画像を任意の色空間に変換する色空間変換手段、
    変換後の画像情報に対して周波数分解の処理を行う周波数変換処理手段、
    前記周波数分解の処理における係数に前記画像情報のエッジを強調するコントラスト強調処理を適用するコントラスト強調処理手段としてコンピュータを機能させることを特徴とする内視鏡画像処理プログラム。
JP2015154569A 2015-08-04 2015-08-04 内視鏡画像処理装置、内視鏡画像処理方法及び内視鏡画像処理プログラム Active JP6566395B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015154569A JP6566395B2 (ja) 2015-08-04 2015-08-04 内視鏡画像処理装置、内視鏡画像処理方法及び内視鏡画像処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015154569A JP6566395B2 (ja) 2015-08-04 2015-08-04 内視鏡画像処理装置、内視鏡画像処理方法及び内視鏡画像処理プログラム

Publications (3)

Publication Number Publication Date
JP2017029549A true JP2017029549A (ja) 2017-02-09
JP2017029549A5 JP2017029549A5 (ja) 2018-08-02
JP6566395B2 JP6566395B2 (ja) 2019-08-28

Family

ID=57985500

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015154569A Active JP6566395B2 (ja) 2015-08-04 2015-08-04 内視鏡画像処理装置、内視鏡画像処理方法及び内視鏡画像処理プログラム

Country Status (1)

Country Link
JP (1) JP6566395B2 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112601486A (zh) * 2018-10-22 2021-04-02 奥林巴斯株式会社 图像处理装置、图像处理方法、内窥镜***和内窥镜观察方法

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11120350A (ja) * 1997-10-14 1999-04-30 Sony Corp 不定形の識別方法及び不定形の識別装置
JPH11306362A (ja) * 1998-04-15 1999-11-05 Sysmex Corp 画像解析装置
JP2000011146A (ja) * 1998-06-19 2000-01-14 Fuji Xerox Co Ltd 画像処理装置、ctスキャナ及びフラクタル次元測定方法
JP2000020729A (ja) * 1998-06-29 2000-01-21 Fuji Xerox Co Ltd フラクタル次元計算装置及びフラクタル次元計算方法
JP2003265409A (ja) * 2002-03-15 2003-09-24 Olympus Optical Co Ltd 内視鏡装置
WO2005121784A1 (ja) * 2004-06-10 2005-12-22 Kurume University 医用画像処理システム
JP2006041744A (ja) * 2004-07-23 2006-02-09 M & C:Kk 画像処理装置及び画像処理方法
JP2007117154A (ja) * 2005-10-25 2007-05-17 Pentax Corp 電子内視鏡システム
JP2007236415A (ja) * 2006-03-03 2007-09-20 Olympus Medical Systems Corp 生体観察装置
JP2010000183A (ja) * 2008-06-19 2010-01-07 Fujinon Corp 電子内視鏡用プロセッサ装置
JP2010036017A (ja) * 2008-07-08 2010-02-18 Hoya Corp 電子内視鏡用信号処理装置および電子内視鏡装置
JP2010114879A (ja) * 2008-10-08 2010-05-20 Nikon Corp 画像処理方法
JP2010537673A (ja) * 2007-05-04 2010-12-09 スミス アンド ネフュー インコーポレーテッド 外科手術用カメラシステム
JP2014144073A (ja) * 2013-01-28 2014-08-14 Hoya Corp キーボードカバー及び医療システム

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11120350A (ja) * 1997-10-14 1999-04-30 Sony Corp 不定形の識別方法及び不定形の識別装置
JPH11306362A (ja) * 1998-04-15 1999-11-05 Sysmex Corp 画像解析装置
JP2000011146A (ja) * 1998-06-19 2000-01-14 Fuji Xerox Co Ltd 画像処理装置、ctスキャナ及びフラクタル次元測定方法
JP2000020729A (ja) * 1998-06-29 2000-01-21 Fuji Xerox Co Ltd フラクタル次元計算装置及びフラクタル次元計算方法
JP2003265409A (ja) * 2002-03-15 2003-09-24 Olympus Optical Co Ltd 内視鏡装置
WO2005121784A1 (ja) * 2004-06-10 2005-12-22 Kurume University 医用画像処理システム
JP2006041744A (ja) * 2004-07-23 2006-02-09 M & C:Kk 画像処理装置及び画像処理方法
JP2007117154A (ja) * 2005-10-25 2007-05-17 Pentax Corp 電子内視鏡システム
JP2007236415A (ja) * 2006-03-03 2007-09-20 Olympus Medical Systems Corp 生体観察装置
JP2010537673A (ja) * 2007-05-04 2010-12-09 スミス アンド ネフュー インコーポレーテッド 外科手術用カメラシステム
JP2010000183A (ja) * 2008-06-19 2010-01-07 Fujinon Corp 電子内視鏡用プロセッサ装置
JP2010036017A (ja) * 2008-07-08 2010-02-18 Hoya Corp 電子内視鏡用信号処理装置および電子内視鏡装置
JP2010114879A (ja) * 2008-10-08 2010-05-20 Nikon Corp 画像処理方法
JP2014144073A (ja) * 2013-01-28 2014-08-14 Hoya Corp キーボードカバー及び医療システム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112601486A (zh) * 2018-10-22 2021-04-02 奥林巴斯株式会社 图像处理装置、图像处理方法、内窥镜***和内窥镜观察方法
CN112601486B (zh) * 2018-10-22 2024-05-24 奥林巴斯株式会社 图像处理装置、图像处理方法、内窥镜***和内窥镜观察方法

Also Published As

Publication number Publication date
JP6566395B2 (ja) 2019-08-28

Similar Documents

Publication Publication Date Title
US11612350B2 (en) Enhancing pigmentation in dermoscopy images
US9082165B2 (en) Inspection of region of interest
JP6361776B2 (ja) 診断支援装置、及び診断支援装置における画像処理方法、並びにプログラム
US10206555B2 (en) Image processing apparatus, image processing method, and computer readable recording medium
WO2017203701A1 (ja) 画像処理装置、画像処理装置の作動方法及び画像処理装置の作動プログラム
JP6566395B2 (ja) 内視鏡画像処理装置、内視鏡画像処理方法及び内視鏡画像処理プログラム
US20120070047A1 (en) Apparatus, method and computer readable storage medium employing a spectrally colored, highly enhanced imaging technique for assisting in the early detection of cancerous tissues and the like
US8774521B2 (en) Image processing apparatus, image processing method, and computer-readable recording device
Shahril et al. Pre-processing Technique for Wireless Capsule Endoscopy Image Enhancement.
JP5203159B2 (ja) 画像処理方法、画像処理システムおよび画像処理プログラム
Vani et al. Color image enhancement techniques in Wireless Capsule Endoscopy
JP4742068B2 (ja) 画像処理方法、画像処理システムおよび画像処理プログラム
US20180040124A1 (en) Disease diagnostic apparatus, image processing method in the same apparatus, and medium storing program associated with the same method
JP6351550B2 (ja) ハリ感評価装置、ハリ感評価方法およびハリ感評価プログラム
Hiroyasu et al. Preprocessing with image denoising and histogram equalization for endoscopy image analysis using texture analysis
Faisal et al. New Segmentation Method for Skin Cancer Lesions
Saha et al. A novel method for automated correction of non-uniform/poor illumination of retinal images without creating false artifacts
JP5903315B2 (ja) 画像処理装置および画像処理プログラム
Murali et al. Removal of shadows from a single image
Reddy et al. Guided image filtering for image enhancement
Patil et al. Screening of damage regions in retinopathy using segmentation-color space selection
KR101293728B1 (ko) 피부의 상처 부위 검출 방법 및 그 기록 매체
JP6503733B2 (ja) 診断支援装置並びに当該診断支援装置における画像処理方法及びそのプログラム
JP5739790B2 (ja) 色計算装置、色計算方法及びプログラム
JP6459410B2 (ja) 診断装置並びに当該診断装置における画像処理方法及びそのプログラム

Legal Events

Date Code Title Description
A80 Written request to apply exceptions to lack of novelty of invention

Free format text: JAPANESE INTERMEDIATE CODE: A80

Effective date: 20150827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180612

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180612

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190327

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190402

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190716

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190722

R150 Certificate of patent or registration of utility model

Ref document number: 6566395

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250