JP3791714B2 - Endoscope image processing device - Google Patents

Endoscope image processing device Download PDF

Info

Publication number
JP3791714B2
JP3791714B2 JP02178897A JP2178897A JP3791714B2 JP 3791714 B2 JP3791714 B2 JP 3791714B2 JP 02178897 A JP02178897 A JP 02178897A JP 2178897 A JP2178897 A JP 2178897A JP 3791714 B2 JP3791714 B2 JP 3791714B2
Authority
JP
Japan
Prior art keywords
image
signal
endoscope
wavelength region
contrast
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP02178897A
Other languages
Japanese (ja)
Other versions
JPH10216080A (en
Inventor
啓 高杉
克一 今泉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP02178897A priority Critical patent/JP3791714B2/en
Publication of JPH10216080A publication Critical patent/JPH10216080A/en
Application granted granted Critical
Publication of JP3791714B2 publication Critical patent/JP3791714B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、内視鏡画像に対して視認性の向上などのために所定の画像処理を行う内視鏡用画像処理装置に関する。
【0002】
【従来の技術】
従来より、内視鏡装置においてモノクロ表示を行う場合は、G信号もしくは輝度信号によるモノクロ画像を表示するものが一般的であった。
【0004】
【発明が解決しようとする課題】
しかしながら、このような従来のモノクロ表示を行う構成では、生体内にどんな色素が有ろうともG信号などの決まった画像信号要素によるモノクロ表示を行うようになっているため、必ずしもコントラストが明りょうになった画像を観察できるとは限らない。例えば、メチレンブルーによる染色剤が生体粘膜に散布された場合、メチレンブルーの吸収が大きい波長領域はR領域であるため、G信号や輝度信号によりモノクロ表示を行うと染色剤の入り込んだ粘膜構造などの見え方は散布前と散布後との画像を比較してもあまり差が見られず、コントラストの良好なモノクロ画像が得られないという問題点があった。
また、特公平7−96005号公報には、観察者がR,G,Bの各色信号のうち一つを選択してモノクロ表示を行うものが開示されているが、この構成では、いずれの画像信号要素を選択すればコントラストの良好なモノクロ画像が得られるかを観察者が判断して指示する必要があり、操作に手間が掛かるという問題点があった。
【0005】
本発明は、これらの事情に鑑みてなされたもので、煩雑な操作の必要なくモノクロ画像のコントラストを常に良好に保つことが可能で、診断能を向上させることが可能な内視鏡用画像処理装置を提供することを目的としている。
【0006】
【課題を解決するための手段】
本発明による第1の内視鏡用画像処理装置は、内視鏡で得られた画像信号における所定の波長領域成分信号を入力し、被写体の遠近による画像の明るさの違いを示す明度信号を出力する、当該画像信号における各波長領域成分毎に対応して設けられた複数の低域空間フィルタと、前記低域空間フィルタによって得られた前記明度信号を当該波長領域成分信号から減算することにより当該波長領域成分信号における所定の細部信号を検出する、前記複数の低域空間フィルタ毎に対応して設けられた複数の減算手段と、前記減算手段によって得られた前記細部信号に基づいて当該細部信号の振幅を算出する、前記複数の低域空間フィルタ毎に対応して設けられた複数の細部信号振幅算出手段と、前記複数の細部信号振幅算出手段によってそれぞれ得られた前記細部信号の振幅を比較することにより、前記画像信号における各波長領域成分信号のうちコントラスト値が最も高い波長領域成分信号を検出するコントラスト値比較手段と、を具備したことを特徴とする。
本発明による第2の内視鏡用画像処理装置は、内視鏡で得られた画像信号における所定の波長領域成分信号を入力し、被写体の遠近による画像の明るさの違いを示す明度信号を出力する、当該画像信号における各波長領域成分毎に対応して設けられた複数の低域空間フィルタと、前記低域空間フィルタによって得られた前記明度信号を当該波長領域成分信号から減算することにより当該波長領域成分信号における所定の細部信号を検出する、前記複数の低域空間フィルタ毎に対応して設けられた複数の減算手段と、前記減算手段によって得られた前記細部信号に基づいて当該細部信号の振幅を算出する、前記複数の低域空間フィルタ毎に対応して設けられた複数の細部信号振幅算出手段と、前記複数の細部信号振幅算出手段によってそれぞれ得られた前記細部信号の振幅を比較することにより、前記画像信号における各波長領域成分信号のうちコントラスト値が最も高い波長領域成分信号を検出するコントラスト値比較手段と、前記コントラスト値比較手段の検出結果に基づいて、当該内視鏡で得られた画像信号における複数の波長領域成分信号のうち、コントラスト値が最も高い波長領域成分信号を当該全ての波長領域成分信号として出力するように切り換える画像切り換え手段と、を具備したことを特徴とする。
【0007】
【発明の実施の形態】
以下、図面を参照して本発明の実施の形態を説明する。
図1ないし図5は本発明の第1実施形態に係り、図1は内視鏡用画像処理装置の構成を示すブロック図、図2はコントラスト算出手段の構成を示すブロック図、図3はコントラスト値の時系列グラフを示す説明図、図4はグラフ作成手段及びグラフ合成手段の構成を示すブロック図、図5はICG濃度に関する時系列グラフを合成した内視鏡画像の表示例を示す説明図である。
【0008】
本実施形態の画像処理装置1は、赤外内視鏡に接続される内視鏡用画像処理装置であり、生体内に静脈注入されたICGに相関する濃度値を算出し、この濃度値をもとにしてICG消失曲線を作成し、内視鏡画像に合成する機能を有している。
【0009】
画像処理装置1は、入力された内視鏡画像のコントラスト値を算出するコントラスト算出手段2、前記コントラスト値の時間変化情報を得てグラフを作成するグラフ作成手段3、グラフ作成手段3で作成されたグラフを内視鏡画像に合成するグラフ合成手段4を備えて構成されている。この構成において、コントラスト算出手段2によって簡易的にICG濃度に相関する値を算出し、グラフ作成手段3によってICG濃度に相関する値の時系列グラフを作成した後、グラフ合成手段4によって、前記グラフ作成手段3によって作成された簡易的なICG消失曲線のグラフを内視鏡画像に合成させて出力するようになっている。
【0010】
コントラスト算出手段2は、入力される内視鏡画像より画像のコントラスト値を求める。赤外内視鏡によって得られた画像はモノクロ画像であり、生体内において赤外光を吸収する色素が少ないため、全体としてのっぺりとしたコントラストの低い画像となる。そこで、ICGを静脈注入することにより赤外光がICGによって吸収されるため、コントラストのついた画像が得られる。ICGは、肝臓によって分解、***されるため、静脈注入後、時間が経つにつれて次第に画像のコントラストが低くなっていく。本実施形態では、上記のような現象を利用し、入力される内視鏡画像のコントラスト値を算出してコントラスト値の時系列変化をグラフにすることにより、簡易的にICG消失曲線を得るようにしている。
【0011】
図2にコントラスト算出手段2の構成を示す。コントラスト算出手段2は、最大値検出回路5、最小値検出回路6、加算器7、減算器8、除算器9を有して構成されている。この構成によって、以下に示す算出式(1)の演算を行って入力画像のコントラスト値を算出する。
コントラスト値=(最大値−最小値)/(最大値+最小値) …(1)
【0012】
グラフ作成手段3では、コントラスト算出手段2で算出されたコントラスト値に基づいて時系列グラフを作成する。コントラスト値の時系列グラフの一例を図3に示す。図3において、縦軸がコントラスト値、横軸が時間となっており、入力画像より算出されたコントラスト値を順次時間軸方向にプロットしていくことでグラフを作成する。前述したように、ICGを静脈注入した生体内の赤外光内視鏡画像は、静脈注入後に次第にICGが消失していくため、コントラスト値が時間経過と共に低くなり、前記時系列グラフはICG消失曲線を示すグラフとなる。
【0013】
図4にグラフ作成手段3及びグラフ合成手段4の構成を示す。グラフ作成手段3は、I/Oポート10、CPU11、メモリ12、バス14を有して構成され、グラフ合成手段4は、前記バス14に接続されたVRAM13を有して構成されている。
【0014】
I/Oポート10にはコントラスト算出手段2が接続されており、コントラスト算出手段2よりI/Oポート10に前記算出されたコントラスト値が入力され、CPU11によってこのコントラスト値を読み出すことが可能になっている。I/Oポート10、メモリ12、VRAM13は、バス14によってCPU11と接続され、CPU11により動作が制御されるようになっている。
【0015】
VRAM13には、入力される内視鏡画像が書き込まれて一時記憶され、このVRAM13に書き込まれている画像は、CPU11により読み出されて出力され、モニタ等に表示される。このとき、VRAM13に対する画像の書き込み/読み出しはCPU11によって制御される。
【0016】
前記コントラスト算出手段2によって算出されたコントラスト値は、CPU11によってI/Oポート10を介して読み出され、メモリ12にその時系列グラフが作成される。作成されたコントラスト値の時系列グラフは、観察者によって図示しない指示手段によりグラフ表示指示が行われると、VRAM13に転送されて書き込まれ、内視鏡画像に合成される。
【0017】
前記時系列グラフの書き込み位置は、例えば、内視鏡画像内の子画面が表示される位置や患者IDなどの患者データが表示される位置に対応してVRAM13上に書き込まれる。図5はコントラスト値の時系列グラフが合成された後の内視鏡画像の一例を示したものであり、画面の右側には親画面として内視鏡画像81が配置され、この内視鏡画像81の左側部の子画面表示領域に時系列グラフ82が合成された状態で画像表示される。
【0018】
以上のように、本実施形態の構成によれば、簡易的にICG濃度に相関する値を算出することによって、その時系列グラフを作成し、内視鏡画像に合成することができ、ICG消失曲線を別体のICG濃度測定器を用いることなくモニタに表示させることが可能である。したがって、測定センサを患者に装着する必要がないため、患者の負担を軽減することが可能であり、また、一つのモニタに内視鏡画像とICG消失曲線を表示して観察できるようにしているので、従来のように複数のモニタを視線を変えて見たりする必要がなく、観察者の負担を軽減することが可能であり、診断能が向上する。
【0019】
なお、本実施形態においては、ICG濃度に相関する値としてコントラスト値を用いたが、画像の明るさの平均値を用いてICG濃度に相関する値としても良い。
【0020】
次に、第2実施形態として、観察者によって注目領域を設定し、設定された注目領域のICG消失曲線を内視鏡画像に合成して表示する画像処理装置の構成を示す。図6は第2実施形態に係る内視鏡用画像処理装置の構成を示すブロック図である。
【0021】
画像処理装置15は、VRAM16、注目領域指示手段17、CPU18、メモリ19、バス20を有して構成されている。VRAM16、注目領域指示手段17、メモリ19は、バス20によってCPU18と接続されており、CPU18により動作が制御されるようになっている。
【0022】
VRAM16には、入力される内視鏡画像が書き込まれて一時記憶されるようになっている。このVRAM16に書き込まれている画像は、CPU18により読み出されて出力され、モニタ等に表示される。このとき、VRAM16に対する画像の書き込み/読み出しはCPU18によって制御される。
【0023】
注目領域指示手段17は、キーボードまたはマウスなどを用いて、観察者が画像内の座標などを指定することにより、ICGの消失曲線を観察したい注目領域を指示する手段である。注目領域は、複数の領域を設定することが可能であり、例えば、病変部と正常粘膜の2つの領域設定を行うようにする。
【0024】
CPU18は、前記注目領域指示手段17によって指定された座標などを参考にして、注目領域に含まれる画像データをVRAM16より読み出し、その領域の画像データの輝度レベルの平均値、すなわち明るさの平均値を算出する。明るさの平均値は、時間と共に変化する各画像ごとに算出されてメモリ19に送られ、その時系列グラフがメモリ19に作成される。作成された明るさの平均値の時系列グラフは、図3に示した第1実施形態のものと同様の形式のグラフである。
【0025】
なお、本実施形態では、画像中の注目領域が動かないように、観察者が内視鏡をなるべく動かさないようにして観察を行う必要があるが、動き検出などを行って観察者が指定した領域を追尾するなどしても良い。また、複数の注目領域が設定された場合には、例えば病変部と正常粘膜の2つの領域が設定された場合は、2つの領域の時系列グラフをそれぞれ作成するか、病変部と正常粘膜の明るさの平均値の比を取ってグラフ化するかを観察者の設定によって変化させても良い。
【0026】
作成された時系列グラフは、観察者のグラフ表示指示などによってVRAM16に書き込まれている内視鏡画像に重ねて書き込まれ、モニタ等に出力されて表示される。前記時系列グラフが表示される位置は、図5に示した第1実施形態のものと同様に内視鏡画像に重ならない位置に設定される。
【0027】
以上のように、第2実施形態の構成によれば、第1実施形態と同様の効果が得られるだけでなく、観察者の注目している領域のICG消失曲線が得られるため、病変部などのうっ血状態の観察を効率よく行うことが可能となる。また、複数の注目領域を設定して病変部と正常粘膜におけるICG濃度に相関する値の比をとり、その時系列グラフを表示することで、病変部と正常粘膜との血行状態の違いの観察なども効率よく行うことが可能である。
【0028】
次に、第3実施形態として、生体粘膜の色調に大きな影響を与えているヘモグロビン(以下、IHbと記す)色素に相関する値を算出し、病変部と正常粘膜の時系列変化をモニタ等に表示する画像処理装置の構成を示す。図7は第3実施形態に係る内視鏡用画像処理装置の構成を示すブロック図、図8はIHb値の時間変化グラフを示す説明図である。
【0029】
画像処理装置21は、IHb算出部22、注目領域指示手段23、CPU24、メモリ25、VRAM26、バス27を有して構成されている。CPU24は、IHb算出部22、注目領域指示手段23、メモリ25、VRAM26とバス27によって接続され、これらを制御可能となっている。
【0030】
IHb算出部22は、入力される内視鏡画像より画素毎にIHb量の値(IHb値)を求める手段であり、以下に示す算出式(2)のようにR成分とG成分の画像間演算にてIHb値を算出する。
IHb=32×Log(R/G) …(2)
この演算は、ROM、RAMなどによって実現可能であり、各入力値に対応する(2)式の演算結果を記憶させておき、RとGの画像信号を入力してこの入力値に対応する演算結果の値を読み出すようにすればよい。
【0031】
注目領域指示手段23は、キーボードまたはマウスなどを用いて、観察者が画像内の座標などを指定することにより、病変部や正常粘膜などのIHb値を観察したい注目領域を指示する手段である。
【0032】
CPU24は、前記注目領域指示手段23によって指定された座標などを参考にして、観察者によって指示された注目領域におけるIHb値をIHb算出部22より読み出す。IHb値は所定時間毎に読み出されてメモリ25に送られ、この読み出されたIHb値データを基にして、その時間変化グラフがメモリ25に作成される。
【0033】
IHb値の時間変化を表したグラフの一例を図8に示す。図8において、縦軸がIHb値、横軸が時間となっており、入力画像ごとに読み出されたIHb値を順次時間軸方向にプロットしていくことでグラフを作成する。作成するグラフは、図8のように病変部と正常粘膜の各領域におけるIHb値の変化をそれぞれプロットしても良いが、病変部と正常粘膜との比をとりプロットしても良い。
【0034】
このようにして作成されたIHb値の時間変化グラフは、観察者のグラフ表示指示などによってメモリ25から読み出され、VRAM26に書き込まれている内視鏡画像との合成が行われる。このとき、VRAM26には入力される内視鏡画像が一時蓄えられており、合成されるIHb値の時間変化グラフは子画面や患者データなどが表示される位置に書き込まれ、観察用の内視鏡画像上にかからないように合成される。時間変化グラフが合成された内視鏡画像は、VRAM26より出力され、モニタ等に表示が行われる。
【0035】
以上のように、第3実施形態の構成によれば、病変部などの注目している領域のIHb色素に関する情報をグラフ化して内視鏡画像と合成し、血流の変化を示すグラフと内視鏡画像とを同一モニタ上に表示することにより、観察者は、一つのモニタ上で病変部と正常粘膜の血流状態と内視鏡画像とを観察することが可能となり、診断能が向上する。また、血流をモニタリングするための測定センサを患者に装着する必要がないため、患者の負担を軽減することが可能である。
【0036】
なお、本実施形態においては、ヘモグロビン量に関する時系列グラフを内視鏡画像に合成したが、ヘモグロビンの酸素飽和度を算出し、前記酸素飽和度の時系列グラフを内視鏡画像に合成するようにしても良い。
【0037】
次に、第4実施形態として、粘膜の酸素飽和度を測定するオキシメータのデータを内視鏡画像に合成して表示する画像処理装置の構成を示す。図9は第4実施形態に係る内視鏡用画像処理装置の構成を示すブロック図、図10は内視鏡の鉗子口よりオキシメータの測定プローブを生体粘膜に導いた様子を示す説明図、図11は酸素飽和度に関する情報を合成した内視鏡画像の表示例を示す説明図である。
【0038】
画像処理装置28は、データ入力手段30、CPU31、VRAM32、メモリ33、バス34を有して構成されている。CPU31は、データ入力手段30、メモリ33、VRAM32とバス34によって接続され、これらを制御可能となっている。また、画像処理装置28には、粘膜の酸素飽和度を測定するオキシメータ29と、被検部位の観察画像を得る内視鏡35とが接続されている。オキシメータ29は、図10に示すように、内視鏡100の鉗子口101から鉗子チャンネル102を介して測定プローブ103を生体内に挿入し、粘膜に測定プローブ103を密着させて粘膜の酸素飽和度を測定し、数値化を行って外部に出力する装置である。
【0039】
データ入力手段30は、オキシメータ29から出力される粘膜の酸素飽和度のデータを入力する。入力された酸素飽和度データは、CPU31によって読み取られ、メモリ33へ一時記憶される。
【0040】
一方、内視鏡装置35によって撮像された画像は、画像処理装置28に入力され、VRAM32に一時記憶される。このVRAM32に記憶されている画像は、CPU18により読み出されて画像処理装置28から出力され、モニタなどに表示が行われる。
【0041】
観察者などによって、粘膜の酸素飽和度を表示させる指示が図示しない指示手段を用いてなされると、CPU31によりメモリ33に記憶されている酸素飽和度のデータが読み出され、文字データとしてVRAM32に書き込まれている内視鏡画像データに合成が行われる。図11は酸素飽和度データが合成された内視鏡画像の一例を示したものであり、画面の右側には親画面として内視鏡画像81が配置され、この内視鏡画像81の左側部の子画面表示領域に粘膜の酸素飽和度データ83が合成された状態で同一の表示装置に画像表示される。
【0042】
以上のように、第4実施形態の構成によれば、別体に設けられたオキシメータによって得られる粘膜の酸素飽和度のデータを内視鏡画像に合成し、同一の表示装置に表示を行うことが可能となり、これによって検査中に内視鏡画像を観察しながら病変部などの酸素飽和度の情報を同時にモニタすることができるため、診断能が向上する。
【0043】
なお、本実施形態では、内視鏡を介して測定プローブを生体粘膜に導く場合について説明を行ったが、患者の指先などに測定用のセンサを装着し、血液中の酸素飽和度を測定するものを用いても良く、オキシメータの代わりにICG濃度測定器を接続すれば同様にして内視鏡画像とともにICG濃度の情報が観察可能となる。また、粘膜の酸素飽和度を数値データとして内視鏡画像に合成を行ったが、前述した第1ないし第3実施形態のように時系列グラフとして表示を行っても良い。
【0044】
次に、第5実施形態として、R,G,Bの各色信号の中から最良のコントラストを持つ信号を選択し、モノクロ画像を表示する画像処理装置の構成を示す。図12は第5実施形態に係る内視鏡用画像処理装置の構成を示すブロック図、図13は画像信号選択手段の構成を示すブロック図である。
【0045】
内視鏡装置においてモノクロ表示を行う場合は、従来はG信号もしくは輝度信号によるモノクロ画像を表示するものが一般的であった。このような従来のモノクロ表示を行う構成では、生体内にどんな色素があろうともG信号などの決まった画像信号要素によるモノクロ表示を行うようになっているため、必ずしもコントラストが明瞭になった画像を観察できるとは限らない。例えば、メチレンブルーによる染色剤が生体粘膜に散布された場合、メチレンブルーの吸収が大きい波長領域はR領域であるため、G信号や輝度信号によりモノクロ表示を行うと染色剤の入り込んだ粘膜構造などの見え方は散布前と散布後の画像を比較してもあまり差が見られず、コントラストの良好なモノクロ画像が得られないという問題点があった。
【0046】
また、特公平7−96005号公報には、観察者がR,G,Bの各色信号のうち一つを選択してモノクロ表示を行うものが開示されているが、この構成では、いずれの画像信号要素を選択すればコントラストの良好なモノクロ画像が得られるかを観察者が判断して指示する必要があり、操作に手間がかかるという問題点があった。
【0047】
そこで、本実施形態では、煩雑な操作の必要なくモノクロ画像のコントラストを常に良好に保つことが可能で、診断能を向上させることのできる内視鏡用画像処理装置の構成例を以下に説明する。
【0048】
画像処理装置36は、R,G,Bの各色信号の中から最良のコントラストを持つ画像信号要素を検出する画像信号選択手段37と、画像信号選択手段37からの画像選択信号を基にして最良のコントラストを持つ画像信号要素をR,G,B全ての信号ラインに出力する画像切換手段38とを有して構成されている。
【0049】
画像信号選択手段37は、図13に示すように、粘膜のピットパターン構造などを表す細部信号の振幅を検出する細部信号検出手段39,40,41と、細部信号検出手段39〜41の出力を基にコントラストが一番良好な画像信号要素を指定する画像選択信号を出力する比較回路42とを有して構成されている。吸収波長検出手段としての機能を有する細部信号検出手段39〜41は、低域空間フィルタ43、減算器44、振幅算出手段45により構成されている。
【0050】
モノクロ画像を表示する際には、画像信号選択手段37の細部信号検出手段39〜41において、入力されるR,G,Bの画像信号要素ごとに細部信号が検出される。細部信号検出手段39〜41では、まず、低域空間フィルタ43によって被写体の遠近による画像の明るさの違いが検出される。低域空間フィルタ43は、メディアンフィルタなどの平滑化フィルタを用いて周囲の画素を参照し、中心画素の明度信号を算出する。このようにして求められた明度信号を減算器44によって入力される画像信号より減算すれば、粘膜のピットパターン構造などを表す細部信号を検出することが可能である。
【0051】
そして、振幅算出手段45によって、前記得られた細部信号を基に、この細部信号の最大値より最小値を減算するなどして細部信号の振幅を算出する。さらに、前記振幅算出手段45は、1フィールドまたは1フレーム分の細部信号の振幅の平均値を計算し、1フィールドまたは1フレームごとに入力される画像信号要素の振幅として比較回路42に出力する。なお、比較回路42に出力する画像信号要素の振幅は、前述したものに限らず、細部信号の振幅の加算値やヒストグラムの最多頻度値でも良く、また、1フィールドや1フレームではなく複数フレームのデータを用いても良い。
【0052】
前述のように細部信号検出手段39〜41においてR,G,Bの各画像信号要素ごとに算出された振幅は、比較回路42においてR,G,B間で比較され、振幅が最大である画像信号要素、すなわち、入力画像の各画像信号要素のうちコントラストが一番良好な画像信号要素が検出される。そして、前記検出された画像信号要素を指定する画像選択信号が画像切換手段38に出力され、画像切換手段38において、入力画像の各画像信号要素の中で一番コントラストが良好な画像信号要素がR,G,B全ての信号ラインより出力される。
【0053】
以上の構成によって、例えば、入力画像においてヘモグロビン色素による吸収が一番支配的である場合、G信号のコントラストが一番良好であるため、この信号要素が画像信号選択手段37により検出され、G信号要素を指定する画像選択信号が出力される。そして、画像切換手段38によってG信号がR,G,B全ての信号ラインに出力され、G信号によるモノクロ画像が、内視鏡装置に付属している通常のカラー画像が表示されるモニタとは別体に設けたモニタなどに表示される。また、メチレンブルーが生体粘膜上に散布された場合は、入力画像の信号要素の中で一番コントラストの良好なR信号が検出されて画像処理装置36のR,G,B全ての信号ラインより出力され、R信号によるモノクロ画像がモニタ等に表示される。
【0054】
従って、通常の観察を行っている間にメチレンブルーなどの染色剤を散布してポリープや癌などの粘膜構造を観察したい場合などには、第5実施形態の構成による画像処理装置を用いることにより、常にコントラストの良好なモノクロ画像をモニタ上に表示させることが可能であるため、粘膜構造等の観察が容易になり、診断能が向上する。また、異なる極大吸収波長を持つ染色剤を複数用いたような場合でも、観察領域においてコントラストが良好に得られる画像信号要素を検知して表示するようになっているため、観察者がモノクロ表示を行う際に最適なコントラストを持つ画像信号要素を選択する必要がなく、検査中は内視鏡操作や診断に集中することができる。よって、観察者の手を煩わせることなく常に良好なコントラストのモノクロ画像を得ることが可能である。
【0055】
次に、第6実施形態として、第5実施形態と同様にR,G,Bの各色信号の中から最良のコントラストを持つ信号を選択してモノクロ画像を表示する画像処理装置の他の構成を示す。図14は第6実施形態に係る内視鏡用画像処理装置の構成を示すブロック図、図15は画像信号選択手段の構成を示すブロック図、図16は画像切換手段の構成を示すブロック図である。
【0056】
画像処理装置46は、R,G,Bの各色信号の中から最良のコントラストを持つ画像信号要素を検出する画像信号選択手段47と、画像信号選択手段47からの画像選択信号を基にして最良のコントラストを持つ画像信号要素をR,G,B全ての信号ラインに出力する画像切換手段48とを有して構成されている。
【0057】
画像信号選択手段47は、図15に示すように、入力される各画像信号要素のコントラストを算出するコントラスト算出手段49,50,51と、コントラスト算出手段49〜51の出力を基にコントラストが一番良好な画像信号要素を指定する画像選択信号を出力する比較回路52とを有して構成されている。吸収波長検出手段としての機能を有するコントラスト算出手段49〜51は、最大値検出回路53、最小値検出回路54、加算器55、減算器56、除算器57により構成されている。
【0058】
モノクロ画像を表示する際には、画像信号選択手段47のコントラスト算出手段49〜51において、入力されるR,G,Bの各画像信号要素に基づき、コントラスト値が1フィールドまたは1フレームごとに算出される。コントラスト算出手段49〜51では、まず、最大値検出回路53によって入力された画像信号要素における1フィールドまたは1フレームの最大値が検出される。また、同様に最小値検出回路54によって最小値が検出される。そして、加算器55によって前記最大値と最小値の加算を行う一方、減算器56によって前記最大値から最小値の減算を行う。さらに、除算器57によって前記減算値を前記加算値により除算する。
【0059】
上記構成によって第1実施形態と同様に算出式(1)の演算が行われ、1フィールドまたは1フレームのコントラスト値が算出される。
【0060】
なお、前記コントラスト値は、第5実施形態と同様に、1フィールドまたは1フレームごとに算出したものに限らず、複数フレームごとに算出したコントラスト値を用いても良い。
【0061】
以上の手順によって求められた各画像信号要素ごとのコントラスト値は、比較回路52によって比較され、一番コントラストが高い画像信号要素が決定され、その画像信号要素を指定する情報として画像選択信号が画像切換手段48に出力される。本実施形態においては、画像選択信号として、例えばコントラストの高い画像信号要素がRである場合には0、Gである場合には1、Bである場合には2を出力するが、もちろん、これに限られたものではない。
【0062】
画像切換手段48は、図16に示すように、モノクロ表示を行うか否かを指示する表示モード信号を出力する表示モード決定部58と、前記画像選択信号及び表示モード信号の値に応じて出力が変化するゲート回路59と、ゲート回路59の出力に基づきR,G,Bの画像信号要素のいずれかを選択するセレクタ60,61,62とを有して構成されている。
【0063】
表示モード決定部58は、観察者が予め画像処理装置46の図示しないフロントパネルやメニューなどの操作入力手段によってモノクロ表示を行うか否かを選択した情報から表示モード信号をゲート回路59の一方の入力端へ出力する。本実施形態においては、モノクロ表示を行う場合は1を出力し、通常のカラー画像を表示する場合は0を出力する場合について述べる。なお、これに限らず、前記とは逆の値を出力しても良い。その場合は、ゲート回路59には表示モード決定部58からの出力を反転させて入力すればよい。
【0064】
ゲート回路59の他方の入力端には、画像信号選択手段47の比較回路52より出力される画像選択信号が入力される。そして、ゲート回路59は、観察者がモノクロ表示を選択した場合にのみ、セレクタ60〜62へ前記画像選択信号を出力する。
【0065】
セレクタ60〜62は、ゲート回路59を介して入力される画像選択信号に基づいて、R,G,Bの各画像信号要素からコントラストが一番良好な画像信号要素を選択して出力する。すなわち、画像選択信号が0の場合にはRを選択して出力し、1の場合にはGを選択して出力し、2の場合にはBを選択して出力する。
【0066】
以上の第6実施形態の構成によれば、第5実施形態と同様に、入力画像においてコントラストの大きい画像信号要素を自動的に選択してモノクロ表示を行うことが可能であり、常に診断能の高い観察を行うことが可能となる。また、観察者が予めモノクロ表示を行うか否かを選択して表示を行うため、モノクロ表示を行いたくない場合には、常に通常観察しているカラー画像を表示することが可能である。さらに、表示モードの決定を検査中に行えるようにすることで、モノクロ画像表示とカラー画像表示の切り換えが可能であるため、第5実施形態のように別体のモニタを設けることなく、内視鏡装置に付属のモニタに画像処理装置46の出力画像を表示可能である。また、観察者はモノクロ画像とカラー画像との切り換えについてのみ操作を行えばよいため、余分な操作を行うことなくコントラストの良好なモノクロ画像を得ることができる。
【0067】
次に、第7実施形態として、モノクロ画像を表示する際の画像切り換えメッセージを内視鏡画像に合成して表示する画像処理装置の構成を示す。図17は第7実施形態に係る内視鏡用画像処理装置の構成を示すブロック図、図18は画像切り換えメッセージを合成した内視鏡画像の表示例を示す説明図である。
【0068】
画像処理装置63は、最大吸収画像要素検出手段64、I/Oポート65,66、CPU67、VRAM68、モノクロ画像表示選択スイッチ69、画像切換手段70、切り換えメッセージ合成手段71、バス72を有して構成されている。
【0069】
最大吸収画像要素検出手段64は、第5実施形態の画像信号選択手段37または第6実施形態の画像信号選択手段47を用いることが可能であり、動作も同様であるためここでは説明を省略する。
【0070】
モノクロ画像を表示する際に、最大吸収画像要素検出手段64によって入力画像において最良のコントラストを持つ画像信号要素が決定されると、I/Oポート65にその情報が出力される。I/Oポート65はバス72によってCPU67と接続されており、CPU67は、I/Oポート65を介して前記情報を読み出し、例えばメチレンブルーによる吸収が大きいRの画像信号要素が最良のコントラストを持つことが検出されると、CPU67とバス72を介して接続されているVRAM68において画像切り換えメッセージを作成して一時記憶させる。また、CPU67は、I/Oポート66とバス72を介して接続されており、前記画像切り換えメッセージを作成すると共に、R画像選択信号をI/Oポート66を介して画像切換手段70に出力する。
【0071】
一方、画像切換手段70は、モノクロ画像表示選択スイッチ69の指示に従ってモノクロ画像を出力する。本実施形態では、通常はカラー画像を出力し、観察者がモノクロ画像表示選択スイッチ69を操作してモノクロ表示を選択すると、CPU67よりR画像選択指示がない場合はG画像によるモノクロ画像を出力するようになっているが、モノクロ表示が選択された際にCPU67よりI/Oポート66を介してR画像選択信号が入力されると、R画像によるモノクロ画像を出力する。この画像切換手段70より出力されたカラー画像またはモノクロ画像は、切り換えメッセージ合成手段71に入力される。
【0072】
切り換えメッセージ合成手段71は、生体粘膜にメチレンブルーが散布された場合など、最大吸収画像要素検出手段64によってR画像信号要素が最良のコントラストを持つことが検出され、CPU67によって画像切り換えメッセージが作成されると、画像切換手段70より入力されるカラー画像とVRAM68より入力される画像切り換えメッセージとを合成して出力する。
【0073】
図18は画像切り換えメッセージが合成された内視鏡画像の一例を示したものであり、画面の右側には親画面として内視鏡画像81が配置され、この内視鏡画像81の左側部の子画面表示領域に画像切り換えメッセージ84が合成された状態で画像表示される。このように画像切り換えメッセージを合成した画像により、観察者がモノクロ画像表示選択スイッチ69によってモノクロ画像表示を行うかどうかの選択を促すメッセージ表示を行う。
【0074】
観察者がモノクロ画像表示選択スイッチ69を操作し、モノクロ表示が選択されると、画像切換手段70によって前述したようにR画像によるモノクロ画像が表示される。また、メチレンブルーが散布されていない場合に観察者がモノクロ表示を選択するとG画像によるモノクロ画像が出力される。前記画像切り換えメッセージは、観察者がモノクロ画像表示選択スイッチ69を操作すると切り換えメッセージ合成手段71への入力が停止され、画像処理装置63から出力される表示画像より消去される。
【0075】
なお、前記画像切り換えメッセージは一定時間が経つと自動的に消去されるようにしても良い。また、画像切り換えメッセージの形式は図18に示したものに限らず、メッセージ画面上で選択を行うメニュー形式であっても良い。さらに、メチレンブルーを散布する前に、既にモノクロ画像表示が行われている場合には、自動的にR画像によるモノクロ画像を表示させたり、R画像によるモノクロ画像に切り換えるかどうかを観察者に知らせるメッセージを表示させ、観察者がモノクロ画像表示選択スイッチ69を操作するとその指示に従ってモノクロ画像の切り換えを行うようにしても良い。
【0076】
以上のように、第7実施形態の構成によれば、第5実施形態や第6実施形態と同様の効果を得ることが可能であるとともに、観察者にコントラストの良好な画像に切り換えるタイミングを知らせることが可能であるため、さらに診断能が向上した画像処理装置を提供することが可能となる。
【0077】
[付記]
(1) 内視鏡で得られた画像信号を処理する内視鏡用画像処理装置において、
前記画像信号より入力された画像のコントラスト値を算出するコントラスト算出手段と、
前記コントラスト算出手段の出力に基づき前記コントラスト値の時間的変化情報を得るコントラスト値変化情報取得手段と、
を具備したことを特徴とする内視鏡用画像処理装置。
【0078】
(2) 前記コントラスト値変化情報取得手段により得られたコントラスト値の時間的変化情報を生体内に存在する色素または生体内に注入した色素に相関する色素情報として前記画像信号に合成する色素情報合成手段をさらに備えたことを特徴とする付記1に記載の内視鏡用画像処理装置。
【0079】
(3) 内視鏡で得られた画像信号を処理する内視鏡用画像処理装置において、
前記画像信号より生体内に存在する色素または生体内に注入した色素に関する情報を算出する色素情報算出手段と、
前記色素情報算出手段によって得られた色素情報の時系列変化をグラフにする色素変化グラフ作成手段と、
前記色素変化グラフ作成手段によって作成されたグラフを前記画像信号に合成する色素情報合成手段と、
を備えたことを特徴とする内視鏡用画像処理装置。
【0080】
(4) 前記色素情報算出手段は、肝機能検査薬(ICG)の濃度に関する情報を算出することを特徴とする付記3に記載の内視鏡用画像処理装置。
【0081】
(5) 前記色素情報算出手段は、ヘモグロビン色素に関する情報を算出することを特徴とする付記3に記載の内視鏡用画像処理装置。
【0082】
(6) 前記色素情報算出手段は、ヘモグロビン色素の酸素飽和度に関する情報を算出することを特徴とする付記3に記載の内視鏡用画像処理装置。
【0083】
(7) 内視鏡装置及び外部測定器と接続され、前記内視鏡装置で得られた画像信号を処理する内視鏡用画像処理装置において、
前記外部測定器によって測定された測定データを入力するデータ入力手段と、前記データ入力手段より入力された測定データを前記画像信号に合成する外部測定データ合成手段と、
を備えたことを特徴とする内視鏡用画像処理装置。
【0084】
(8) 前記外部測定器は、前記測定データとしてヘモグロビン色素の酸素飽和度を測定することを特徴とする付記7に記載の内視鏡用画像処理装置。
【0085】
(9) 前記外部測定器は、前記測定データとしてICG濃度を測定することを特徴とする付記7に記載の内視鏡用画像処理装置。
【0086】
(10) 前記外部測定データ合成手段は、前記測定データとして数値データを前記画像信号に合成することを特徴とする付記7に記載の内視鏡用画像処理装置。
【0087】
(11) 前記外部測定データ合成手段は、前記測定データとして時系列データを前記画像信号に合成することを特徴とする付記7に記載の内視鏡用画像処理装置。
【0088】
(12) 内視鏡で得られた画像信号を処理する内視鏡用画像処理装置において、
前記画像信号より生体内に存在する色素または生体内に注入した色素による吸収の大きい波長領域を検出する吸収波長検出手段と、
前記吸収波長検出手段の出力に基づき、表示を行う波長領域の画像信号を選択する表示画像選択手段と、
を備えたことを特徴とする内視鏡用画像処理装置。
【0089】
(13) 前記吸収波長検出手段は、前記画像信号におけるヘモグロビン色素による吸収の大きい波長領域を検出することを特徴とする付記12に記載の内視鏡用画像処理装置。
【0090】
(14) 前記吸収波長検出手段は、前記画像信号におけるメチレンブルーによる吸収の大きい波長領域を検出することを特徴とする付記12に記載の内視鏡用画像処理装置。
【0091】
(15) 前記表示画像選択手段は、観察者の指示によって表示画像の選択を行うことを特徴とする付記12に記載の内視鏡用画像処理装置。
【0092】
(16) 前記表示画像選択手段は、観察者に画像選択の指示を仰ぐメッセージを表示した後に表示画像の選択を行うことを特徴とする付記12に記載の内視鏡用画像処理装置。
【0093】
(17) 前記吸収波長検出手段は、前記画像信号より求められるコントラスト値によって前記色素による吸収の大きい波長領域を検出することを特徴とする付記12に記載の内視鏡用画像処理装置。
【0094】
(18) 前記吸収波長検出手段は、前記画像信号における細部信号の振幅に基づいて前記色素による吸収の大きい波長領域を検出することを特徴とする付記12に記載の内視鏡用画像処理装置。
【0095】
【発明の効果】
以上説明したように本発明によれば、煩雑な操作の必要なくモノクロ画像のコントラストを常に良好に保つことが可能で診断能を向上させることができる。
【図面の簡単な説明】
【図1】本発明の第1実施形態に係る内視鏡用画像処理装置の構成を示すブロック図
【図2】コントラスト算出手段の構成を示すブロック図
【図3】コントラスト値の時系列グラフを示す説明図
【図4】グラフ作成手段及びグラフ合成手段の構成を示すブロック図
【図5】ICG濃度に関する時系列グラフを合成した内視鏡画像の表示例を示す説明図
【図6】第2実施形態に係る内視鏡用画像処理装置の構成を示すブロック図
【図7】第3実施形態に係る内視鏡用画像処理装置の構成を示すブロック図
【図8】IHb値の時間変化グラフを示す説明図
【図9】第4実施形態に係る内視鏡用画像処理装置の構成を示すブロック図
【図10】内視鏡の鉗子口よりオキシメータの測定プローブを生体粘膜に導いた様子を示す説明図
【図11】酸素飽和度に関する情報を合成した内視鏡画像の表示例を示す説明図
【図12】第5実施形態に係る内視鏡用画像処理装置の構成を示すブロック図
【図13】第5実施形態の画像信号選択手段の構成を示すブロック図
【図14】第6実施形態に係る内視鏡用画像処理装置の構成を示すブロック図
【図15】第6実施形態の画像信号選択手段の構成を示すブロック図
【図16】第6実施形態の画像切換手段の構成を示すブロック図
【図17】第7実施形態に係る内視鏡用画像処理装置の構成を示すブロック図
【図18】画像切り換えメッセージを合成した内視鏡画像の表示例を示す説明図
【符号の説明】
1…画像処理装置
2…コントラスト算出手段
3…グラフ作成手段
4…グラフ合成手段
5…最大値検出回路
6…最小値検出回路
7…加算器
8…減算器
9…除算器
11…CPU
12…メモリ
13…VRAM
81…内視鏡画像
82…時系列グラフ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an endoscope image processing apparatus that performs predetermined image processing for improving visibility of an endoscope image.
[0002]
[Prior art]
  Traditionally,When performing monochrome display in an endoscope apparatus, it is common to display a monochrome image using a G signal or a luminance signal.
[0004]
[Problems to be solved by the invention]
However, in such a conventional monochrome display configuration, monochrome display is performed using a predetermined image signal element such as a G signal, regardless of the pigment in the living body, so that the contrast is always clear. It is not always possible to observe the resulting image. For example, when a stain with methylene blue is sprayed on the living mucous membrane, the wavelength region where the absorption of methylene blue is large is the R region. Therefore, when monochrome display is performed using a G signal or a luminance signal, the structure of the mucous membrane containing the stain is visible. On the other hand, there was a problem in that a monochrome image with good contrast could not be obtained because there was not much difference between images before and after the application.
Japanese Patent Publication No. 7-96005 discloses that an observer selects one of R, G, and B color signals and performs monochrome display. In this configuration, any image is displayed. When the signal element is selected, it is necessary for the observer to judge whether or not a monochrome image with good contrast can be obtained, and there is a problem in that the operation is troublesome.
[0005]
  The present invention has been made in view of these circumstances,It is possible to keep the contrast of monochrome images always good without the need for complicated operations.An object of the present invention is to provide an endoscope image processing apparatus capable of improving the diagnostic ability.
[0006]
[Means for Solving the Problems]
  According to the inventionFirstEndoscope image processing deviceInputs a predetermined wavelength region component signal in the image signal obtained by the endoscope, outputs a brightness signal indicating the difference in image brightness depending on the distance of the subject, and corresponds to each wavelength region component in the image signal. Detecting a predetermined detail signal in the wavelength domain component signal by subtracting the lightness signal obtained by the low frequency spatial filter from the wavelength domain component signal, For each of the plurality of low-pass spatial filters, a plurality of subtracting means provided corresponding to each of the plurality of low-pass spatial filters, and calculating the amplitude of the detail signal based on the detail signal obtained by the subtracting means. And a plurality of detail signal amplitude calculating means provided corresponding to the plurality of detail signal amplitude calculating means and comparing the amplitudes of the detail signals respectively obtained by the plurality of detail signal amplitude calculating means. Ri, and the contrast value comparison means for detecting the highest wavelength region component signal contrast value of each wavelength region component signal in the image signal,It is characterized by comprising.
A second endoscopic image processing apparatus according to the present invention inputs a predetermined wavelength region component signal in an image signal obtained by an endoscope, and outputs a brightness signal indicating a difference in image brightness depending on the distance of the subject. A plurality of low-pass spatial filters provided corresponding to each wavelength region component in the image signal to be output, and subtracting the brightness signal obtained by the low-pass spatial filter from the wavelength region component signal A plurality of subtracting means corresponding to each of the plurality of low-pass spatial filters for detecting a predetermined detail signal in the wavelength domain component signal, and the details based on the detail signal obtained by the subtracting means A plurality of detail signal amplitude calculating means provided corresponding to each of the plurality of low-pass spatial filters and a plurality of detail signal amplitude calculating means for calculating the amplitude of the signal, respectively. The contrast value comparing means for detecting the wavelength region component signal having the highest contrast value among the respective wavelength region component signals in the image signal by comparing the amplitudes of the detail signals obtained, and the detection result of the contrast value comparing means Switching means for switching so as to output the wavelength region component signal having the highest contrast value among all the wavelength region component signals in the image signal obtained by the endoscope as all the wavelength region component signals It was characterized by comprising.
[0007]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of the present invention will be described below with reference to the drawings.
1 to 5 relate to a first embodiment of the present invention, FIG. 1 is a block diagram showing the configuration of an endoscope image processing apparatus, FIG. 2 is a block diagram showing the configuration of contrast calculation means, and FIG. 3 is a contrast diagram. FIG. 4 is a block diagram showing the configuration of the graph creating means and the graph synthesizing means, and FIG. 5 is an explanatory diagram showing a display example of an endoscopic image obtained by synthesizing the time series graph relating to the ICG concentration. It is.
[0008]
The image processing apparatus 1 of the present embodiment is an endoscope image processing apparatus connected to an infrared endoscope, calculates a concentration value correlated with ICG intravenously injected into a living body, and calculates the concentration value. Based on this, it has a function of creating an ICG disappearance curve and combining it with an endoscopic image.
[0009]
The image processing apparatus 1 is created by a contrast calculation unit 2 that calculates a contrast value of an input endoscopic image, a graph creation unit 3 that creates a graph by obtaining time change information of the contrast value, and a graph creation unit 3. A graph synthesis means 4 for synthesizing the obtained graph with an endoscopic image is provided. In this configuration, the value that correlates to the ICG density is simply calculated by the contrast calculating means 2, and the time series graph of the value that correlates to the ICG density is created by the graph creating means 3, and then the graph synthesis means 4 A simple ICG disappearance curve graph created by the creation means 3 is combined with an endoscopic image and output.
[0010]
The contrast calculation means 2 obtains the contrast value of the image from the inputted endoscopic image. The image obtained by the infrared endoscope is a monochrome image, and since there are few pigments that absorb infrared light in the living body, the image as a whole has a low contrast. Therefore, since infrared light is absorbed by ICG by intravenous injection of ICG, a contrasted image is obtained. Since ICG is decomposed and excreted by the liver, the contrast of the image gradually decreases with time after intravenous injection. In the present embodiment, an ICG disappearance curve can be easily obtained by calculating the contrast value of the input endoscopic image by using the phenomenon as described above and graphing the time series change of the contrast value. I have to.
[0011]
FIG. 2 shows the configuration of the contrast calculation means 2. The contrast calculation means 2 includes a maximum value detection circuit 5, a minimum value detection circuit 6, an adder 7, a subtracter 8, and a divider 9. With this configuration, the following calculation formula (1) is calculated to calculate the contrast value of the input image.
Contrast value = (maximum value−minimum value) / (maximum value + minimum value) (1)
[0012]
The graph creation means 3 creates a time series graph based on the contrast value calculated by the contrast calculation means 2. An example of a time-series graph of contrast values is shown in FIG. In FIG. 3, the vertical axis represents the contrast value and the horizontal axis represents the time, and the graph is created by plotting the contrast value calculated from the input image sequentially in the time axis direction. As described above, in an infrared optical endoscopic image in which ICG is intravenously injected, since ICG gradually disappears after intravenous injection, the contrast value becomes lower with the lapse of time, and the time series graph shows ICG disappearance. The graph shows a curve.
[0013]
FIG. 4 shows the configuration of the graph creation means 3 and the graph synthesis means 4. The graph creation means 3 includes an I / O port 10, a CPU 11, a memory 12, and a bus 14, and the graph synthesis means 4 includes a VRAM 13 connected to the bus 14.
[0014]
Contrast calculation means 2 is connected to the I / O port 10, and the calculated contrast value is input to the I / O port 10 from the contrast calculation means 2, and this contrast value can be read out by the CPU 11. ing. The I / O port 10, the memory 12, and the VRAM 13 are connected to the CPU 11 via the bus 14, and the operation is controlled by the CPU 11.
[0015]
The input endoscopic image is written and temporarily stored in the VRAM 13, and the image written in the VRAM 13 is read and output by the CPU 11 and displayed on a monitor or the like. At this time, image writing / reading with respect to the VRAM 13 is controlled by the CPU 11.
[0016]
The contrast value calculated by the contrast calculating means 2 is read by the CPU 11 via the I / O port 10 and a time series graph is created in the memory 12. The created time-series graph of contrast values is transferred to the VRAM 13 and written to the endoscope image when the graph display instruction is given by an observer (not shown) by the observer.
[0017]
The writing position of the time series graph is written on the VRAM 13 corresponding to, for example, a position where a child screen in an endoscopic image is displayed or a position where patient data such as a patient ID is displayed. FIG. 5 shows an example of an endoscopic image after a time-series graph of contrast values is synthesized. An endoscopic image 81 is arranged as a parent screen on the right side of the screen, and this endoscopic image The image is displayed in a state where the time series graph 82 is synthesized in the sub-screen display area on the left side of 81.
[0018]
As described above, according to the configuration of the present embodiment, a time series graph can be created by simply calculating a value that correlates with the ICG concentration, and can be synthesized with an endoscopic image. Can be displayed on a monitor without using a separate ICG concentration measuring device. Therefore, since it is not necessary to attach the measurement sensor to the patient, the burden on the patient can be reduced, and the endoscope image and the ICG disappearance curve can be displayed and observed on one monitor. Therefore, it is not necessary to view a plurality of monitors by changing the line of sight as in the prior art, and it is possible to reduce the burden on the observer and improve the diagnostic ability.
[0019]
In this embodiment, the contrast value is used as a value that correlates with the ICG density, but it may be a value that correlates with the ICG density using the average value of the brightness of the image.
[0020]
Next, as a second embodiment, a configuration of an image processing apparatus that sets an attention area by an observer and synthesizes and displays an ICG disappearance curve of the set attention area on an endoscopic image will be described. FIG. 6 is a block diagram showing the configuration of the endoscope image processing apparatus according to the second embodiment.
[0021]
The image processing apparatus 15 includes a VRAM 16, an attention area instruction unit 17, a CPU 18, a memory 19, and a bus 20. The VRAM 16, the attention area instruction means 17, and the memory 19 are connected to the CPU 18 through the bus 20, and the operation is controlled by the CPU 18.
[0022]
In the VRAM 16, an inputted endoscopic image is written and temporarily stored. The image written in the VRAM 16 is read and output by the CPU 18 and displayed on a monitor or the like. At this time, writing / reading of an image to / from the VRAM 16 is controlled by the CPU 18.
[0023]
The attention area instructing means 17 is means for instructing an attention area in which the ICG disappearance curve is to be observed by designating coordinates in the image by the observer using a keyboard or a mouse. A plurality of regions can be set as the region of interest. For example, two regions are set such as a lesioned part and a normal mucous membrane.
[0024]
The CPU 18 reads the image data included in the attention area from the VRAM 16 with reference to the coordinates designated by the attention area instruction means 17 and the average value of the brightness levels of the image data in the area, that is, the average value of the brightness. Is calculated. The average brightness value is calculated for each image that changes with time and sent to the memory 19, and a time-series graph is created in the memory 19. The created time series graph of the average value of brightness is a graph of the same format as that of the first embodiment shown in FIG.
[0025]
In this embodiment, it is necessary for the observer to perform the observation while moving the endoscope as much as possible so that the attention area in the image does not move. The area may be tracked. In addition, when a plurality of attention areas are set, for example, when two areas of a lesioned part and a normal mucous membrane are set, a time series graph of the two areas is created respectively, Whether to take a ratio of the average values of brightness and graph it may be changed according to the setting of the observer.
[0026]
The created time-series graph is overwritten on the endoscope image written in the VRAM 16 by an observer's graph display instruction or the like, and is output and displayed on a monitor or the like. The position at which the time series graph is displayed is set to a position that does not overlap the endoscopic image as in the first embodiment shown in FIG.
[0027]
As described above, according to the configuration of the second embodiment, not only the same effects as those of the first embodiment can be obtained, but also an ICG disappearance curve of an area focused by the observer can be obtained. It is possible to efficiently observe the blood congestion state. In addition, by setting multiple areas of interest, taking the ratio of values correlating with ICG concentrations in the lesion and normal mucous membrane, and displaying the time series graph, observation of the difference in blood circulation between the lesion and normal mucosa, etc. Can also be performed efficiently.
[0028]
Next, as a third embodiment, a value correlated with a hemoglobin (hereinafter referred to as IHb) pigment that has a great influence on the color tone of the biological mucous membrane is calculated, and the time-series changes of the lesioned part and the normal mucous membrane are used as a monitor or the like. The structure of the image processing apparatus to display is shown. FIG. 7 is a block diagram illustrating a configuration of an endoscope image processing apparatus according to the third embodiment, and FIG. 8 is an explanatory diagram illustrating a time change graph of an IHb value.
[0029]
The image processing apparatus 21 includes an IHb calculation unit 22, an attention area instruction unit 23, a CPU 24, a memory 25, a VRAM 26, and a bus 27. The CPU 24 is connected to the IHb calculation unit 22, the attention area instruction unit 23, the memory 25, and the VRAM 26 by the bus 27, and can control these.
[0030]
The IHb calculation unit 22 is a means for obtaining the value of the IHb amount (IHb value) for each pixel from the input endoscopic image, and between the R component and G component images as shown in the following calculation formula (2). The IHb value is calculated by calculation.
IHb = 32 × Log (R / G) (2)
This calculation can be realized by a ROM, a RAM, etc., the calculation result of the expression (2) corresponding to each input value is stored, the R and G image signals are input, and the calculation corresponding to this input value is performed. What is necessary is just to read the value of a result.
[0031]
The attention area instructing means 23 is means for instructing an attention area in which an IHb value such as a lesioned part or normal mucous membrane is to be observed by an observer specifying coordinates in the image using a keyboard or a mouse.
[0032]
The CPU 24 reads the IHb value in the attention area designated by the observer from the IHb calculation unit 22 with reference to the coordinates designated by the attention area instruction means 23. The IHb value is read at every predetermined time and sent to the memory 25, and the time change graph is created in the memory 25 based on the read IHb value data.
[0033]
An example of the graph showing the time change of the IHb value is shown in FIG. In FIG. 8, the vertical axis represents the IHb value and the horizontal axis represents the time, and the graph is created by sequentially plotting the IHb value read for each input image in the time axis direction. The graph to be created may plot the change in IHb value in each region of the lesioned part and the normal mucous membrane as shown in FIG. 8, but may plot the ratio between the lesioned part and the normal mucous membrane.
[0034]
The time change graph of the IHb value created in this way is read from the memory 25 in accordance with an observer's graph display instruction or the like, and is combined with the endoscopic image written in the VRAM 26. At this time, the endoscopic image to be input is temporarily stored in the VRAM 26, and the temporal change graph of the IHb value to be synthesized is written at a position where the child screen, patient data, and the like are displayed. It is synthesized so that it does not cover the mirror image. The endoscopic image combined with the time change graph is output from the VRAM 26 and displayed on a monitor or the like.
[0035]
As described above, according to the configuration of the third embodiment, the information about the IHb dye in the region of interest such as a lesion is graphed and synthesized with the endoscopic image, and the graph showing the change in blood flow and the internal By displaying the endoscopic image on the same monitor, the observer can observe the blood flow state of the lesion and the normal mucous membrane and the endoscopic image on one monitor, improving the diagnostic ability. To do. Further, since it is not necessary to attach a measurement sensor for monitoring blood flow to the patient, the burden on the patient can be reduced.
[0036]
In this embodiment, the time series graph related to the amount of hemoglobin is synthesized with the endoscopic image. However, the oxygen saturation of the hemoglobin is calculated, and the time series graph of the oxygen saturation is synthesized with the endoscopic image. Anyway.
[0037]
Next, as a fourth embodiment, a configuration of an image processing apparatus that synthesizes and displays oximeter data for measuring the oxygen saturation of the mucous membrane with an endoscopic image will be described. FIG. 9 is a block diagram showing a configuration of an endoscope image processing apparatus according to the fourth embodiment, and FIG. 10 is an explanatory view showing a state in which a measurement probe of an oximeter is guided to a biological mucous membrane from a forceps port of the endoscope. FIG. 11 is an explanatory diagram showing a display example of an endoscopic image obtained by combining information on oxygen saturation.
[0038]
The image processing apparatus 28 includes a data input means 30, a CPU 31, a VRAM 32, a memory 33, and a bus 34. The CPU 31 is connected to the data input means 30, the memory 33, and the VRAM 32 by a bus 34, and these can be controlled. The image processing device 28 is connected to an oximeter 29 that measures the oxygen saturation level of the mucous membrane and an endoscope 35 that obtains an observation image of the region to be examined. As shown in FIG. 10, the oximeter 29 inserts the measurement probe 103 into the living body from the forceps port 101 of the endoscope 100 through the forceps channel 102 and brings the measurement probe 103 into close contact with the mucous membrane to saturate the mucous membrane with oxygen. It is a device that measures the degree, digitizes it, and outputs it to the outside.
[0039]
The data input unit 30 inputs data on the oxygen saturation level of the mucous membrane output from the oximeter 29. The input oxygen saturation data is read by the CPU 31 and temporarily stored in the memory 33.
[0040]
On the other hand, an image captured by the endoscope device 35 is input to the image processing device 28 and temporarily stored in the VRAM 32. The image stored in the VRAM 32 is read by the CPU 18 and output from the image processing device 28 and displayed on a monitor or the like.
[0041]
When an instruction to display the mucosal oxygen saturation is given by an observer or the like using an instruction means (not shown), the CPU 31 reads out the oxygen saturation data stored in the memory 33 and stores it in the VRAM 32 as character data. Synthesis is performed on the endoscope image data that has been written. FIG. 11 shows an example of an endoscopic image synthesized with oxygen saturation data. An endoscopic image 81 is arranged as a parent screen on the right side of the screen, and a left side portion of the endoscopic image 81 is displayed. An image is displayed on the same display device in a state where the mucous membrane oxygen saturation data 83 is synthesized in the sub-screen display area.
[0042]
As described above, according to the configuration of the fourth embodiment, the oxygen saturation data of the mucous membrane obtained by the oximeter provided separately is combined with the endoscopic image and displayed on the same display device. This makes it possible to simultaneously monitor the oxygen saturation information of the lesioned part while observing the endoscopic image during the examination, thereby improving the diagnostic ability.
[0043]
In this embodiment, the case where the measurement probe is guided to the living mucous membrane through the endoscope has been described. However, a sensor for measurement is attached to the patient's fingertip or the like, and the oxygen saturation in the blood is measured. If an ICG concentration measuring device is connected instead of an oximeter, the information on the ICG concentration can be observed together with the endoscopic image. Further, the oxygen saturation level of the mucous membrane is combined with the endoscopic image as numerical data, but it may be displayed as a time series graph as in the first to third embodiments described above.
[0044]
Next, as a fifth embodiment, a configuration of an image processing apparatus that displays a monochrome image by selecting a signal having the best contrast from the R, G, and B color signals will be described. FIG. 12 is a block diagram showing the configuration of the endoscope image processing apparatus according to the fifth embodiment, and FIG. 13 is a block diagram showing the configuration of the image signal selection means.
[0045]
Conventionally, when performing monochrome display in an endoscope apparatus, it is common to display a monochrome image using a G signal or a luminance signal. In such a conventional monochrome display configuration, monochrome display is performed using a predetermined image signal element such as a G signal, regardless of the pigment in the living body. Cannot always be observed. For example, when a methylene blue stain is sprayed on the living mucous membrane, the wavelength region where the absorption of methylene blue is large is the R region. However, there was a problem in that a monochrome image with good contrast could not be obtained because there was not much difference between images before and after the application.
[0046]
Japanese Patent Publication No. 7-96005 discloses that an observer selects one of R, G, and B color signals and performs monochrome display. In this configuration, any image is displayed. When the signal element is selected, it is necessary for an observer to judge whether or not a monochrome image with good contrast can be obtained, and there is a problem that it takes time and effort.
[0047]
Therefore, in the present embodiment, a configuration example of an endoscope image processing apparatus that can always maintain a good contrast of a monochrome image without requiring a complicated operation and can improve diagnostic performance will be described below. .
[0048]
The image processing device 36 is based on the image signal selection means 37 for detecting the image signal element having the best contrast from the R, G, B color signals, and the image selection signal from the image signal selection means 37. And an image switching means 38 for outputting image signal elements having the following contrast to all the R, G, and B signal lines.
[0049]
As shown in FIG. 13, the image signal selection means 37 outputs the output of the detail signal detection means 39, 40, 41 for detecting the amplitude of the detail signal representing the pit pattern structure of the mucous membrane and the detail signal detection means 39-41. And a comparison circuit 42 for outputting an image selection signal for designating an image signal element having the best contrast. The detail signal detection means 39 to 41 having a function as an absorption wavelength detection means are constituted by a low-pass spatial filter 43, a subtractor 44, and an amplitude calculation means 45.
[0050]
When displaying a monochrome image, the detail signal detection means 39 to 41 of the image signal selection means 37 detect the detail signal for each input R, G, B image signal element. In the detail signal detection means 39 to 41, first, the difference in the brightness of the image due to the distance of the subject is detected by the low-pass spatial filter 43. The low-pass spatial filter 43 refers to surrounding pixels using a smoothing filter such as a median filter and calculates a lightness signal of the center pixel. By subtracting the brightness signal thus determined from the image signal input by the subtractor 44, it is possible to detect a detailed signal representing the pit pattern structure of the mucous membrane.
[0051]
The amplitude calculation means 45 calculates the amplitude of the detail signal by subtracting the minimum value from the maximum value of the detail signal based on the obtained detail signal. Further, the amplitude calculating means 45 calculates the average value of the amplitudes of the detail signals for one field or one frame, and outputs it to the comparison circuit 42 as the amplitude of the image signal element input for each field or one frame. The amplitude of the image signal element output to the comparison circuit 42 is not limited to that described above, but may be an addition value of the amplitude of the detail signal or the most frequent value of the histogram, and may be a plurality of frames instead of one field or one frame. Data may be used.
[0052]
As described above, the amplitudes calculated for each of the R, G, and B image signal elements in the detail signal detecting means 39 to 41 are compared among the R, G, and B in the comparison circuit 42, and the image having the maximum amplitude. A signal element, that is, an image signal element having the best contrast among the image signal elements of the input image is detected. Then, an image selection signal designating the detected image signal element is output to the image switching means 38. In the image switching means 38, the image signal element having the best contrast among the image signal elements of the input image is selected. It is output from all signal lines of R, G, B.
[0053]
With the above configuration, for example, when the absorption by the hemoglobin dye is the most dominant in the input image, since the contrast of the G signal is the best, this signal element is detected by the image signal selection means 37 and the G signal An image selection signal designating an element is output. A monitor on which the G signal is output to all the R, G, and B signal lines by the image switching means 38 and the monochrome image by the G signal is displayed as a normal color image attached to the endoscope apparatus. Displayed on a separate monitor. In addition, when methylene blue is sprayed on the biological mucous membrane, the R signal with the best contrast is detected among the signal elements of the input image and output from all the R, G, B signal lines of the image processing device 36. Then, a monochrome image by the R signal is displayed on a monitor or the like.
[0054]
Therefore, when it is desired to observe a mucosal structure such as a polyp or cancer by spraying a stain such as methylene blue during normal observation, by using the image processing apparatus according to the configuration of the fifth embodiment, Since it is possible to always display a monochrome image with good contrast on the monitor, it is easy to observe the mucosal structure and the like, and the diagnostic ability is improved. Even when a plurality of stains having different maximum absorption wavelengths are used, an image signal element that provides a good contrast in the observation region is detected and displayed. It is not necessary to select an image signal element having an optimum contrast when performing, and it is possible to concentrate on endoscope operation and diagnosis during examination. Therefore, it is possible to always obtain a monochrome image with good contrast without bothering the observer.
[0055]
Next, as a sixth embodiment, another configuration of an image processing apparatus that displays a monochrome image by selecting a signal having the best contrast from the R, G, and B color signals as in the fifth embodiment. Show. FIG. 14 is a block diagram showing the configuration of the endoscope image processing apparatus according to the sixth embodiment, FIG. 15 is a block diagram showing the configuration of the image signal selection means, and FIG. 16 is a block diagram showing the configuration of the image switching means. is there.
[0056]
The image processing unit 46 detects the image signal element having the best contrast from the R, G, B color signals and the best based on the image selection signal from the image signal selection unit 47. And image switching means 48 for outputting image signal elements having a contrast of R, G, and B to all signal lines.
[0057]
As shown in FIG. 15, the image signal selection means 47 has a contrast that is based on the outputs of the contrast calculation means 49, 50, 51 for calculating the contrast of each input image signal element and the contrast calculation means 49-51. And a comparison circuit 52 for outputting an image selection signal for designating the best image signal element. Contrast calculation means 49 to 51 having a function as an absorption wavelength detection means includes a maximum value detection circuit 53, a minimum value detection circuit 54, an adder 55, a subtractor 56, and a divider 57.
[0058]
When displaying a monochrome image, the contrast calculation means 49 to 51 of the image signal selection means 47 calculate the contrast value for each field or frame based on the input R, G, B image signal elements. Is done. In the contrast calculation means 49 to 51, first, the maximum value of one field or one frame in the image signal element input by the maximum value detection circuit 53 is detected. Similarly, the minimum value is detected by the minimum value detection circuit 54. The adder 55 adds the maximum value and the minimum value, and the subtractor 56 subtracts the minimum value from the maximum value. Further, the subtractor 57 divides the subtracted value by the added value.
[0059]
With the above configuration, the calculation formula (1) is calculated as in the first embodiment, and the contrast value of one field or one frame is calculated.
[0060]
Note that, as in the fifth embodiment, the contrast value is not limited to one calculated for each field or frame, but a contrast value calculated for each of a plurality of frames may be used.
[0061]
The contrast value for each image signal element obtained by the above procedure is compared by the comparison circuit 52, the image signal element having the highest contrast is determined, and an image selection signal is used as information for specifying the image signal element. It is output to the switching means 48. In the present embodiment, as an image selection signal, for example, 0 is output when an image signal element with high contrast is R, 1 is output when G is 2, and 2 is output when B is an image selection signal. It is not limited to.
[0062]
As shown in FIG. 16, the image switching means 48 outputs a display mode determining unit 58 that outputs a display mode signal instructing whether or not to perform monochrome display, and outputs according to the values of the image selection signal and the display mode signal. And a selector 60, 61, 62 for selecting one of R, G, and B image signal elements based on the output of the gate circuit 59.
[0063]
The display mode determination unit 58 outputs a display mode signal from one of the gate circuits 59 based on information that the observer has previously selected whether or not to perform monochrome display using an operation input means such as a front panel or menu (not shown) of the image processing device 46. Output to the input terminal. In the present embodiment, a case will be described in which 1 is output when performing monochrome display and 0 is output when displaying a normal color image. However, the present invention is not limited to this, and a value opposite to the above may be output. In that case, the output from the display mode determining unit 58 may be inverted and input to the gate circuit 59.
[0064]
An image selection signal output from the comparison circuit 52 of the image signal selection means 47 is input to the other input terminal of the gate circuit 59. The gate circuit 59 outputs the image selection signal to the selectors 60 to 62 only when the observer selects monochrome display.
[0065]
The selectors 60 to 62 select and output the image signal element having the best contrast from the R, G, and B image signal elements based on the image selection signal input via the gate circuit 59. That is, when the image selection signal is 0, R is selected and output, when it is 1, G is selected and output, and when it is 2, B is selected and output.
[0066]
According to the configuration of the sixth embodiment described above, similarly to the fifth embodiment, it is possible to automatically select an image signal element having a high contrast in an input image and perform monochrome display, and always have a diagnostic ability. High observation is possible. Further, since the observer selects whether or not to perform monochrome display in advance, the color image that is normally observed can always be displayed when monochrome display is not desired. Furthermore, since the display mode can be determined during the inspection, it is possible to switch between monochrome image display and color image display. Therefore, the internal viewing can be performed without providing a separate monitor as in the fifth embodiment. The output image of the image processing device 46 can be displayed on a monitor attached to the mirror device. Further, since the observer only needs to perform an operation for switching between a monochrome image and a color image, a monochrome image with good contrast can be obtained without performing an extra operation.
[0067]
Next, as a seventh embodiment, a configuration of an image processing apparatus that combines and displays an image switching message when displaying a monochrome image with an endoscopic image will be described. FIG. 17 is a block diagram illustrating a configuration of an endoscope image processing apparatus according to the seventh embodiment, and FIG. 18 is an explanatory diagram illustrating a display example of an endoscopic image obtained by synthesizing an image switching message.
[0068]
The image processing apparatus 63 includes maximum absorption image element detection means 64, I / O ports 65 and 66, CPU 67, VRAM 68, monochrome image display selection switch 69, image switching means 70, switching message composition means 71, and bus 72. It is configured.
[0069]
The maximum absorption image element detection means 64 can use the image signal selection means 37 of the fifth embodiment or the image signal selection means 47 of the sixth embodiment, and the operation is the same, so the description thereof is omitted here. .
[0070]
When displaying a monochrome image, when the image signal element having the best contrast in the input image is determined by the maximum absorption image element detection means 64, the information is output to the I / O port 65. The I / O port 65 is connected to the CPU 67 via the bus 72. The CPU 67 reads out the information via the I / O port 65, and the R image signal element having a large absorption by, for example, methylene blue has the best contrast. Is detected, the image switching message is created and temporarily stored in the VRAM 68 connected to the CPU 67 via the bus 72. The CPU 67 is connected to the I / O port 66 via the bus 72, creates the image switching message, and outputs an R image selection signal to the image switching means 70 via the I / O port 66. .
[0071]
On the other hand, the image switching means 70 outputs a monochrome image in accordance with an instruction from the monochrome image display selection switch 69. In the present embodiment, a color image is normally output, and when the observer operates the monochrome image display selection switch 69 to select monochrome display, a monochrome image based on the G image is output if there is no R image selection instruction from the CPU 67. However, when an R image selection signal is input from the CPU 67 via the I / O port 66 when monochrome display is selected, a monochrome image based on the R image is output. The color image or monochrome image output from the image switching unit 70 is input to the switching message synthesis unit 71.
[0072]
The switching message synthesis means 71 detects that the R image signal element has the best contrast by the maximum absorption image element detection means 64, such as when methylene blue is sprayed on the biological mucous membrane, and the CPU 67 creates an image switching message. And the color image input from the image switching means 70 and the image switching message input from the VRAM 68 are combined and output.
[0073]
FIG. 18 shows an example of an endoscopic image in which an image switching message is combined. An endoscopic image 81 is arranged as a parent screen on the right side of the screen, and an endoscopic image 81 on the left side of the endoscopic image 81 is displayed. The image is displayed in a state where the image switching message 84 is synthesized in the sub-screen display area. In this way, a message display that prompts the observer to select whether or not to perform monochrome image display by the monochrome image display selection switch 69 is performed based on the image obtained by combining the image switching messages.
[0074]
When the observer operates the monochrome image display selection switch 69 to select monochrome display, the image switching means 70 displays a monochrome image as an R image as described above. Further, when the observer selects monochrome display when methylene blue is not sprayed, a monochrome image based on the G image is output. When the observer operates the monochrome image display selection switch 69, the image switching message is stopped from being input to the switching message combining means 71 and erased from the display image output from the image processing device 63.
[0075]
The image switching message may be automatically deleted after a predetermined time. Further, the format of the image switching message is not limited to that shown in FIG. 18, but may be a menu format for selection on the message screen. Further, if a monochrome image is already displayed before methylene blue is sprayed, a message notifying the observer whether to automatically display a monochrome image based on the R image or switch to the monochrome image based on the R image. When the observer operates the monochrome image display selection switch 69, the monochrome image may be switched according to the instruction.
[0076]
As described above, according to the configuration of the seventh embodiment, it is possible to obtain the same effects as those of the fifth embodiment and the sixth embodiment, and inform the observer of the timing for switching to an image with good contrast. Therefore, it is possible to provide an image processing apparatus with further improved diagnostic ability.
[0077]
[Appendix]
(1) In an endoscope image processing apparatus for processing an image signal obtained by an endoscope,
Contrast calculation means for calculating a contrast value of an image input from the image signal;
Contrast value change information acquisition means for obtaining temporal change information of the contrast value based on the output of the contrast calculation means;
An image processing apparatus for an endoscope, comprising:
[0078]
(2) Dye information synthesis for synthesizing the temporal change information of the contrast value obtained by the contrast value change information acquisition unit into the image signal as dye information correlated with the dye existing in the living body or the dye injected into the living body. The endoscope image processing apparatus according to appendix 1, further comprising means.
[0079]
(3) In an endoscope image processing apparatus for processing an image signal obtained by an endoscope,
Dye information calculating means for calculating information on the dye present in the living body or the dye injected into the living body from the image signal;
A dye change graph creating means for graphing a time series change of the dye information obtained by the dye information calculating means;
Dye information synthesizing means for synthesizing the graph created by the dye change graph creating means with the image signal;
An image processing apparatus for an endoscope, comprising:
[0080]
(4) The endoscope image processing apparatus according to appendix 3, wherein the pigment information calculation means calculates information related to a concentration of a liver function test drug (ICG).
[0081]
(5) The endoscope image processing apparatus according to appendix 3, wherein the pigment information calculation unit calculates information related to a hemoglobin pigment.
[0082]
(6) The endoscope image processing apparatus according to appendix 3, wherein the dye information calculation unit calculates information related to oxygen saturation of a hemoglobin dye.
[0083]
(7) In an endoscope image processing apparatus that is connected to an endoscope apparatus and an external measuring instrument and processes an image signal obtained by the endoscope apparatus,
Data input means for inputting measurement data measured by the external measuring device, external measurement data combining means for combining the measurement data input from the data input means with the image signal,
An image processing apparatus for an endoscope, comprising:
[0084]
(8) The endoscope image processing apparatus according to appendix 7, wherein the external measuring instrument measures oxygen saturation of a hemoglobin pigment as the measurement data.
[0085]
(9) The endoscope image processing apparatus according to appendix 7, wherein the external measuring instrument measures an ICG concentration as the measurement data.
[0086]
(10) The endoscope image processing apparatus according to appendix 7, wherein the external measurement data combining unit combines numerical data as the measurement data with the image signal.
[0087]
(11) The endoscope image processing apparatus according to appendix 7, wherein the external measurement data synthesis unit synthesizes time-series data as the measurement data with the image signal.
[0088]
(12) In an endoscope image processing apparatus for processing an image signal obtained by an endoscope,
An absorption wavelength detecting means for detecting a wavelength region having a large absorption by the dye existing in the living body or the dye injected into the living body from the image signal;
Display image selection means for selecting an image signal in a wavelength region to be displayed based on the output of the absorption wavelength detection means,
An image processing apparatus for an endoscope, comprising:
[0089]
(13) The endoscope image processing apparatus according to appendix 12, wherein the absorption wavelength detection unit detects a wavelength region in the image signal that is highly absorbed by a hemoglobin dye.
[0090]
(14) The endoscope image processing apparatus according to appendix 12, wherein the absorption wavelength detection unit detects a wavelength region in the image signal that is highly absorbed by methylene blue.
[0091]
(15) The endoscope image processing apparatus according to appendix 12, wherein the display image selection unit selects a display image according to an instruction from an observer.
[0092]
(16) The endoscope image processing apparatus according to appendix 12, wherein the display image selection unit selects a display image after displaying a message asking the observer to select an image.
[0093]
(17) The endoscope image processing apparatus according to appendix 12, wherein the absorption wavelength detection unit detects a wavelength region where absorption by the dye is large based on a contrast value obtained from the image signal.
[0094]
(18) The endoscope image processing apparatus according to appendix 12, wherein the absorption wavelength detection unit detects a wavelength region where absorption by the dye is large based on an amplitude of a detail signal in the image signal.
[0095]
【The invention's effect】
  As described above, according to the present invention,It is possible to always maintain a good contrast of a monochrome image without the need for complicated operations and improve the diagnostic ability.
[Brief description of the drawings]
FIG. 1 is a block diagram showing the configuration of an endoscope image processing apparatus according to a first embodiment of the present invention.
FIG. 2 is a block diagram showing the configuration of contrast calculation means
FIG. 3 is an explanatory diagram showing a time-series graph of contrast values.
FIG. 4 is a block diagram showing the configuration of graph creation means and graph synthesis means
FIG. 5 is an explanatory diagram showing a display example of an endoscopic image obtained by synthesizing a time series graph relating to ICG concentration
FIG. 6 is a block diagram showing a configuration of an endoscope image processing apparatus according to a second embodiment.
FIG. 7 is a block diagram showing a configuration of an endoscope image processing apparatus according to a third embodiment.
FIG. 8 is an explanatory diagram showing a time change graph of an IHb value.
FIG. 9 is a block diagram showing a configuration of an endoscope image processing apparatus according to a fourth embodiment.
FIG. 10 is an explanatory diagram showing a state in which a measurement probe of an oximeter is guided to a living mucous membrane from a forceps opening of an endoscope
FIG. 11 is an explanatory view showing a display example of an endoscopic image obtained by combining information on oxygen saturation.
FIG. 12 is a block diagram showing a configuration of an endoscope image processing apparatus according to a fifth embodiment.
FIG. 13 is a block diagram showing the configuration of image signal selection means of the fifth embodiment.
FIG. 14 is a block diagram showing a configuration of an endoscope image processing apparatus according to a sixth embodiment.
FIG. 15 is a block diagram showing the configuration of image signal selection means of the sixth embodiment.
FIG. 16 is a block diagram showing the configuration of image switching means of the sixth embodiment.
FIG. 17 is a block diagram showing a configuration of an endoscope image processing apparatus according to a seventh embodiment.
FIG. 18 is an explanatory diagram illustrating a display example of an endoscopic image obtained by combining image switching messages.
[Explanation of symbols]
1. Image processing apparatus
2. Contrast calculation means
3 ... Graph creation means
4 ... Graph synthesis means
5 ... Maximum value detection circuit
6 ... Minimum value detection circuit
7 ... Adder
8 ... Subtractor
9: Divider
11 ... CPU
12 ... Memory
13 ... VRAM
81 ... Endoscopic image
82 ... Time series graph

Claims (2)

内視鏡で得られた画像信号における所定の波長領域成分信号を入力し、被写体の遠近による画像の明るさの違いを示す明度信号を出力する、当該画像信号における各波長領域成分毎に対応して設けられた複数の低域空間フィルタと、
前記低域空間フィルタによって得られた前記明度信号を当該波長領域成分信号から減算することにより当該波長領域成分信号における所定の細部信号を検出する、前記複数の低域空間フィルタ毎に対応して設けられた複数の減算手段と、
前記減算手段によって得られた前記細部信号に基づいて当該細部信号の振幅を算出する、前記複数の低域空間フィルタ毎に対応して設けられた複数の細部信号振幅算出手段と、
前記複数の細部信号振幅算出手段によってそれぞれ得られた前記細部信号の振幅を比較することにより、前記画像信号における各波長領域成分信号のうちコントラスト値が最も高い波長領域成分信号を検出するコントラスト値比較手段と、
を具備したことを特徴とする内視鏡用画像処理装置。
Inputs a predetermined wavelength region component signal in the image signal obtained by the endoscope, outputs a brightness signal indicating the difference in image brightness depending on the distance of the subject, and corresponds to each wavelength region component in the image signal. A plurality of low-pass spatial filters provided,
Provided corresponding to each of the plurality of low-pass spatial filters, wherein a predetermined detail signal in the wavelength-domain component signal is detected by subtracting the lightness signal obtained by the low-pass spatial filter from the wavelength-domain component signal. A plurality of subtracting means,
A plurality of detail signal amplitude calculating means provided corresponding to each of the plurality of low-pass spatial filters for calculating the amplitude of the detail signal based on the detail signal obtained by the subtracting means;
Contrast value comparison for detecting the wavelength region component signal having the highest contrast value among the wavelength region component signals in the image signal by comparing the amplitudes of the detail signals respectively obtained by the plurality of detail signal amplitude calculating means Means,
An endoscope image processing apparatus comprising:
内視鏡で得られた画像信号における所定の波長領域成分信号を入力し、被写体の遠近による画像の明るさの違いを示す明度信号を出力する、当該画像信号における各波長領域成分毎に対応して設けられた複数の低域空間フィルタと、
前記低域空間フィルタによって得られた前記明度信号を当該波長領域成分信号から減算することにより当該波長領域成分信号における所定の細部信号を検出する、前記複数の低域空間フィルタ毎に対応して設けられた複数の減算手段と、
前記減算手段によって得られた前記細部信号に基づいて当該細部信号の振幅を算出する、前記複数の低域空間フィルタ毎に対応して設けられた複数の細部信号振幅算出手段と、
前記複数の細部信号振幅算出手段によってそれぞれ得られた前記細部信号の振幅を比較することにより、前記画像信号における各波長領域成分信号のうちコントラスト値が最も高い波長領域成分信号を検出するコントラスト値比較手段と、
前記コントラスト値比較手段の検出結果に基づいて、当該内視鏡で得られた画像信号における複数の波長領域成分信号のうち、コントラスト値が最も高い波長領域成分信号を当該全ての波長領域成分信号として出力するように切り換える画像切り換え手段と、
を具備したことを特徴とする内視鏡用画像処理装置。
Inputs a predetermined wavelength region component signal in the image signal obtained by the endoscope, outputs a brightness signal indicating the difference in image brightness depending on the distance of the subject, and corresponds to each wavelength region component in the image signal. A plurality of low-pass spatial filters provided,
Provided corresponding to each of the plurality of low-pass spatial filters, wherein a predetermined detail signal in the wavelength-domain component signal is detected by subtracting the lightness signal obtained by the low-pass spatial filter from the wavelength-domain component signal. A plurality of subtracting means,
A plurality of detail signal amplitude calculating means provided corresponding to each of the plurality of low-pass spatial filters for calculating the amplitude of the detail signal based on the detail signal obtained by the subtracting means;
Contrast value comparison for detecting the wavelength region component signal having the highest contrast value among the wavelength region component signals in the image signal by comparing the amplitudes of the detail signals respectively obtained by the plurality of detail signal amplitude calculating means Means,
Based on the detection result of the contrast value comparison means, among the plurality of wavelength region component signals in the image signal obtained by the endoscope, the wavelength region component signal having the highest contrast value is used as all the wavelength region component signals. Image switching means for switching to output,
An endoscope image processing apparatus comprising:
JP02178897A 1997-02-04 1997-02-04 Endoscope image processing device Expired - Fee Related JP3791714B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP02178897A JP3791714B2 (en) 1997-02-04 1997-02-04 Endoscope image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP02178897A JP3791714B2 (en) 1997-02-04 1997-02-04 Endoscope image processing device

Publications (2)

Publication Number Publication Date
JPH10216080A JPH10216080A (en) 1998-08-18
JP3791714B2 true JP3791714B2 (en) 2006-06-28

Family

ID=12064814

Family Applications (1)

Application Number Title Priority Date Filing Date
JP02178897A Expired - Fee Related JP3791714B2 (en) 1997-02-04 1997-02-04 Endoscope image processing device

Country Status (1)

Country Link
JP (1) JP3791714B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1994874A4 (en) 2006-03-13 2011-11-30 Olympus Medical Systems Corp Scattering medium inside observing device, imaging system, imaging method, and endoscope
JP2007244590A (en) * 2006-03-15 2007-09-27 Olympus Medical Systems Corp Imaging system
JP5068036B2 (en) * 2006-05-19 2012-11-07 富士フイルム株式会社 Spectral image processing device
JP5634755B2 (en) * 2010-06-08 2014-12-03 富士フイルム株式会社 Electronic endoscope system, processor device for electronic endoscope, and method for operating electronic endoscope system
JP5642619B2 (en) * 2011-05-12 2014-12-17 富士フイルム株式会社 Medical device system and method of operating medical device system
JP5764472B2 (en) * 2011-11-11 2015-08-19 富士フイルム株式会社 Endoscopic diagnosis device
JP5948191B2 (en) * 2012-09-05 2016-07-06 富士フイルム株式会社 Endoscope probe device and endoscope system
JP5844447B2 (en) * 2014-10-07 2016-01-20 富士フイルム株式会社 Electronic endoscope system, processor device for electronic endoscope, and method for operating electronic endoscope system
JP6746310B2 (en) 2015-05-22 2020-08-26 キヤノン株式会社 Image processing device, imaging system, and image processing method

Also Published As

Publication number Publication date
JPH10216080A (en) 1998-08-18

Similar Documents

Publication Publication Date Title
JP6840846B2 (en) Medical image processing equipment, endoscopy system, diagnostic support equipment, and medical business support equipment
US11766167B2 (en) Image processing apparatus, image processing method, and program
US10653295B2 (en) Image processing apparatus, endoscope system, and image processing method
EP2550910B1 (en) Endoscope system
US10426318B2 (en) Image processing apparatus, endoscope system, and image processing method
US10672123B2 (en) Image processing apparatus, endoscope system, and image processing method
US20110295062A1 (en) Equipment for infrared vision of anatomical structures and signal processing methods thereof
JP3791714B2 (en) Endoscope image processing device
JP7264195B2 (en) Image processing method, image processing program, image processing device, image display device, and image display method
JP2001037718A (en) Image diagnostic device and endoscope device
JP5506443B2 (en) Fluorescence observation equipment
CN110087528B (en) Endoscope system and image display device
JPWO2020090729A1 (en) Medical image processing equipment, medical image processing methods and programs, diagnostic support equipment
JP5649947B2 (en) Optical measurement system and method of operating optical measurement system
US20220076400A1 (en) Endoscope system, method for activating endoscope system, and image processing apparatus
KR101574834B1 (en) Ultrasonic diagnostic apparatus
JP3683886B2 (en) Blood volume analysis and display method using Myo Cardial Blood volume map
JPWO2020235503A5 (en)
CN113038868A (en) Medical image processing system
JP2003220019A (en) Image diagnostic equipment and endoscopic equipment
WO2018181953A1 (en) Hemoglobin quantification device, hemoglobin quantification method, hemoglobin quantification program, and surgical assistance device
JP2001145599A (en) Image processing method for endoscope, and image processing device for endoscope
JPH066104B2 (en) Endoscope device

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20051118

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20051122

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060123

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060330

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090414

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100414

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110414

Year of fee payment: 5

LAPS Cancellation because of no payment of annual fees