JP4520014B2 - Electronic endoscope device - Google Patents
Electronic endoscope device Download PDFInfo
- Publication number
- JP4520014B2 JP4520014B2 JP2000343590A JP2000343590A JP4520014B2 JP 4520014 B2 JP4520014 B2 JP 4520014B2 JP 2000343590 A JP2000343590 A JP 2000343590A JP 2000343590 A JP2000343590 A JP 2000343590A JP 4520014 B2 JP4520014 B2 JP 4520014B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- image signal
- light
- optical system
- signal
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Landscapes
- Endoscopes (AREA)
- Closed-Circuit Television Systems (AREA)
- Studio Devices (AREA)
Description
【0001】
【発明の属する技術分野】
本発明は、生体から発せられる自家蛍光による蛍光観察が可能な電子内視鏡装置に、関する。
【0002】
【従来の技術】
従来、被検体としての生体に紫外光等の励起光を照射した場合にこの生体から発せられる蛍光(自家蛍光)を撮像することにより、生体の観察に供する電子内視鏡装置が、利用されている。なお、病変の生じた生体組織から発せられる自家蛍光の強度は、健康な生体組織から発せられる自家蛍光の強度よりも小さいことが知られている。従って、術者は、この自家蛍光による被検体の蛍光画像を観察することにより、その蛍光強度の小さい領域に、病変が生じている可能性が高いと、認識することができる。
【0003】
この電子内視鏡装置は、白色光と励起光とを交互に切り換えて射出する光源ユニット,射出された白色光及び励起光を導く照明光学系,及び,照明光により照明された被検体を撮像するCCDを、備えている。
【0004】
そして、照明光学系から射出された白色光が被検体を照明している間に、CCDは、その被検体の像を取得し、参照画像信号として出力する。一方、照明光学系から射出された励起光が被検体を照射すると、この被検体は、自家蛍光を発する。すると、CCDは、この自家蛍光による被検体像を撮像して、蛍光画像信号として出力する。
【0005】
これら参照画像信号及び蛍光画像信号に基づいて、被検体の診断用画像信号が生成される。即ち、参照画像信号における特定の色成分に対応した部分から、蛍光画像信号が減算されることにより、診断用画像信号が生成される。この診断用画像信号は、モニタに診断用画像として表示される。
【0006】
この診断用画像は、被検体における自家蛍光の発せられていない部分については、モノクロ画像と同様に表示される。しかし、この診断用画像は、被検体における自家蛍光が発せられている部分については、その自家蛍光の強度に応じて着色された状態で、表示される。従って、術者は、この診断用画像を観察することにより、被検体の形状を把握するとともに、当該被検体における自家蛍光の強度を認識して、診断を行うことができる。
【0007】
【発明が解決しようとする課題】
なお、被検体から発せられる自家蛍光は極めて微弱であるため、健康な組織から発せられる自家蛍光と、病変の生じた組織から発せられる自家蛍光との差は、僅かでしかない。このため、診断用画像における健康な組織と病変の生じた組織との差は、必ずしも明瞭ではない。
【0008】
そこで、被検体における自家蛍光の弱い部分が明瞭に識別可能な診断用画像信号を生成する電子内視鏡装置を提供することを、本発明の課題とする。
【0009】
【課題を解決するための手段】
本発明による電子内視鏡装置は、上記課題を解決するために、以下のような構成を採用した。
【0010】
即ち、被検体を照明する照明光学系と、白色光,及び,生体組織自体からの蛍光を励起する励起光を発し、これら白色光と励起光とを交互に切り換えて繰り返し前記照明光学系へ導く光源ユニットと、前記被検体表面からの光のうちの励起光以外の成分を収束させて、この被検体表面の像を形成する対物光学系と、前記対物光学系によって形成された被検体表面の像を撮像して画像信号に変換する撮像素子と、前記撮像素子により取得された画像信号のうち、前記照明光学系に白色光が導かれている期間に対応する部分に基づいて参照画像信号を取得し、前記照明光学系に励起光が導かれている期間に対応する部分に基づいて蛍光画像信号を取得し、取得した参照画像信号から蛍光画像信号を減算することにより差分信号を生成し、生成した差分信号を増幅し、増幅した差分信号を、カラー画像の青色成分,緑色成分,及び赤色成分から選択される特定の色成分として含むとともに、取得した参照画像信号を、カラー画像の青色成分,緑色成分,及び赤色成分のうちの前記特定の色成分以外の色成分として含む診断用画像信号を出力するプロセッサとを、備えたことを特徴とする。
【0011】
このように構成されると、生成された差分信号が増幅されることにより、参照画像信号と蛍光画像信号との差は、強調される。従って、この増幅された差分信号を含む診断用画像信号が診断用画像としてモニタに表示された場合に、この診断用画像では、被検体の自家蛍光の強度の差は、強調された状態になっている。
【0012】
また、プロセッサは、取得した参照用画像信号から蛍光画像信号を減算することにより生成した差分信号に対して、画像の輪郭を強調する画像処理を施すことにより、輪郭強調信号を生成し、生成した輪郭強調信号を、カラー画像の青色成分,緑色成分,及び赤色成分から選択される特定の色成分として含むとともに、取得した参照画像信号を、カラー画像の青色成分,緑色成分,及び赤色成分のうちの前記特定の色成分以外の色成分として含む診断用画像信号を出力してもよい。
【0013】
この場合に、生成された輪郭強調信号を含む診断用画像信号が診断用画像としてモニタに表示されると、当該診断用画像では、被検体における自家蛍光の弱い部分に対応する領域の輪郭が強調された状態になっている。
【0014】
さらに、プロセッサは、生成した差分信号を、増幅した後に、画像の輪郭を強調する画像処理を施すことにより、輪郭強調信号を生成してもよい。この場合に、生成された輪郭強調信号を含む診断用画像信号が診断用画像としてモニタに表示されると、当該診断用画像では、被検体における自家蛍光の弱い部分に対応する領域は、その輪郭が強調されるとともにその周辺と異なる色及び明るさになっている。
【0015】
なお、処理される画像信号は、デジタル信号であってもよく、アナログ信号であってもよい。
【0016】
【発明の実施の形態】
以下、図面に基づいて本発明の実施形態による電子内視鏡装置について、説明する。
【0017】
【第1実施形態】
<電子内視鏡装置の全体構成>
図1は、この電子内視鏡装置の構成図である。この図1に示されるように、電子内視鏡装置は、電子内視鏡1,及び,外部装置(光源・プロセッサ装置)2を、備えている。
【0018】
まず、電子内視鏡(以下、内視鏡と略記)1について説明する。この内視鏡1は、図1にはその形状が示されていないが、生体内に挿入される可撓管状の挿入部,この挿入部の基端側に対して一体に連結された操作部,及び,この操作部と外部装置2とを連結するライトガイド可撓管を、備えている。
【0019】
内視鏡1の挿入部の先端は、硬質部材製の図示せぬ先端部により封止されている。また、この挿入部の先端近傍の所定領域には、図示せぬ湾曲機構が組み込まれており、当該領域を湾曲させることができる。操作部には、湾曲機構を湾曲操作するためのダイヤル,及び各種操作スイッチが、設けられている。
【0020】
この内視鏡1の先端部には、少なくとも3つの開口が開けられており、これら3つの開口のうちの2つは、配光レンズ11,及び,対物レンズ12により、夫々封止されている。なお、他の開口の1つは、鉗子孔として利用される。
【0021】
さらに、内視鏡1は、ライトガイド13を有している。このライトガイド13は、光ファイバが多数束ねられてなるファイババンドルから構成されている。そして、このライトガイド13は、その先端面(出射面)を配光レンズ11に対向させるとともに、挿入部,操作部及びライトガイド可撓管内を引き通され、その基端側が外部装置2内に引き込まれている。なお、これらライトガイド13及び配光レンズ11は、照明光学系に相当する。
【0022】
また、内視鏡1は、撮像素子としてのCCD(charge-coupled device)エリアセンサ14を備えている。このCCDエリアセンサ(以下CCDと略記)14の撮像面は、内視鏡1の先端部が被検体に対向配置された状態において、対物レンズ12が当該被検体の像を結ぶ位置に、配置されている。なお、これら対物レンズ12及びCCD14間の光路中には、図示せぬ励起光カットフィルタが、挿入配置されている。この励起光カットフィルタは、生体の自家蛍光を励起する励起光を遮断するとともに、白色光を透過させる。これら対物レンズ12及び励起光カットフィルタは、対物光学系に相当する。
【0023】
なお、図1における符号15は、内視鏡1の操作部に設けられた複数の操作スイッチのうちの1つを、模式的に示したものである。この操作スイッチ15は、後述する通常観察状態と蛍光観察状態とを切り換えるために、用いられる。
【0024】
次に、外部装置2について説明する。この外部装置2は、光源ユニット20,並びに,タイミングコントローラT1,画像信号処理回路T2及びシステムコントローラT3を有するプロセッサTを、備えている。
【0025】
この外部装置2における光源ユニット20は、白色光源21及び励起光源22を、備えている。一方の白色光源21は、図示せぬキセノンランプ及びリフレクタを、有している。そして、この白色光源21は、そのキセノンランプが発した白色光を、リフレクタで反射させることにより、平行光として射出する。他方の励起光源22は、図示せぬUVランプ及びリフレクタを、有している。なお、この励起光源22のUVランプは、生体の自家蛍光を励起する紫外帯域の励起光を、発する。そして、この励起光源22は、そのUVランプが発した励起光を、リフレクタで反射させることにより、平行光として射出する。
【0026】
白色光源21から発せられた白色光の光路上には、集光レンズ23が、配置されている。この集光レンズ23は、入射した平行光を、ライトガイド13の基端面(入射面)に収束させる。
【0027】
この集光レンズ23から射出された収束光の光路上におけるライトガイド13以前の所定位置には、RGBホイール24が挿入される。このRGBホイール24は、図2の(A)に示されるように、円板状に形成され、その外周に沿ったリング状の部分に、互いに同形状の3つの開口が等間隔で開けられている。これら各開口には、青色光(B光)のみを透過させるBフィルタ241,緑色光(G光)のみを透過させるGフィルタ242,及び,赤色光(R光)のみを透過させるRフィルタ243が、夫々填め込まれている。
【0028】
なお、図2の(A)に示された例では、これら各フィルタ241〜243は、同形状であるが、当該ホイール24の周方向に沿った長さが互いに異なっていてもよい。即ち、ホイール24の周方向に沿った長さが長いものから順に、Bフィルタ241,Gフィルタ242,Rフィルタ243となっていてもよい。
【0029】
図1に示されるように、このRGBホイール24は、モータ24Mに連結されている。そして、RGBホイール24は、モータ24Mに駆動されて回転し、そのBフィルタ241,Gフィルタ242,及びRフィルタ243を、順次繰り返して光路中に挿入する。なお、このモータ24Mは、移動機構24Sに取り付けられている。そして、この移動機構24Sは、モータ24M及びRGBホイール24を、図1の上下方向へ移動させる。即ち、この移動機構24Sは、RGBホイール24を、その各フィルタ241〜243を光路中に挿入可能となる挿入位置,又は,光路から退避した退避位置へ、移動させる。
【0030】
なお、図1のRGBホイール24は、退避位置にある。そして、このRGBホイール24は、図1の状態から図1の上下方向における上向きへ移動することにより、挿入位置をとる。このRGBホイール24に連結されたモータ24M,及び移動機構24Sは、ホイール駆動機構に相当する。
【0031】
また、白色光源21から発せられた白色光の光路上における当該白色光源21の直後には、第1のロータリーシャッタ25が、挿入される。このロータリーシャッタ25は、図2の(B)に示されるように、円板状に形成され、その外周に沿ったリング状の部分に、1つの開口が開けられている。この開口には、透明な平行平板状の光学部材が填め込まれている。この光学部材が、白色光を透過させる透過部251になっている。
【0032】
図1に示されるように、このロータリーシャッタ25は、モータ25Mに連結されている。そして、このロータリーシャッタ25は、モータ25Mに駆動されて回転し、その透過部251を、間欠的に光路中に挿入する。なお、このモータ25Mは、移動機構25Sに取り付けられている。そして、この移動機構25Sは、モータ25M及びロータリーシャッタ25を、図1の上下方向へ移動させる。即ち、この移動機構25Sは、ロータリーシャッタ25を、その開口部251を光路中に挿入可能となる挿入位置,又は,光路から退避した退避位置へ、移動させる。なお、図1のロータリーシャッタ25は、挿入位置にある。そして、このロータリーシャッタ25は、図1の状態から図1の上下方向における上向きへ移動することにより、退避位置をとる。
【0033】
なお、このロータリーシャッタ25及び集光レンズ23間の所定位置において、白色光の光路と励起光の光路とは、直交している。即ち、励起光源22は、発した励起光が、白色光源21から発せられた白色光の光路上における上記所定位置で、当該白色光の光路と直交するように、配置されている。これら白色光及び励起光の光路同士が直交する位置には、ハーフミラー26が、挿入される。このハーフミラー26は、該ハーフミラー26を透過した白色光の光路と同じ光路上を励起光が進むように、この励起光を反射させる。
【0034】
また、励起光源22から発せられた励起光の光路上におけるハーフミラー26以前の位置には、第2のロータリーシャッタ27が、挿入される。このロータリーシャッタ27は、図2の(C)に示されるように、円板状に形成され、その外周に沿ったリング状の部分に、1つの開口が開けられている。この開口には、透明な平行平板状の光学部材が填め込まれている。この光学部材が、励起光を透過させる透過部271になっている。
【0035】
図1に示されるように、このロータリーシャッタ27は、モータ27Mに連結されている。そして、このロータリーシャッタ27は、モータ27Mに駆動されて回転し、その透過部271を、間欠的に光路中に挿入する。
【0036】
これらハーフミラー26及びモータ27Mは、ステージ28に対して固定されている。このステージ28は、ステージ移動機構29に連結されている。このステージ移動機構29は、ステージ28を移動させることにより、ハーフミラー26,並びに,モータ27M及びロータリーシャッタ27を、図1の上下方向へ移動させる。即ち、ステージ移動機構29は、ステージ28を、ハーフミラー26が白色光の光路中に挿入された挿入位置,又は,ハーフミラー26が白色光の光路から退避した退避位置へ、移動させる。なお、図1のステージ28は、挿入位置にある。そして、このステージ28は、図1に示された状態から図1の上下方向における下向きへ移動することにより、退避位置をとる。
【0037】
また、プロセッサTにおけるタイミングコントローラT1,画像信号処理回路T2,及びシステムコントローラT3は、相互に接続されている。このプロセッサTのタイミングコントローラT1は、各モータ24M,25M,27Mに夫々接続されている。そして、このタイミングコントローラT1は、これら各モータ24M,25M,27Mを夫々同期させて、等速回転させる。
【0038】
このプロセッサTのシステムコントローラT3は、各移動機構24S,25S,及びステージ移動機構29と、夫々接続されている。そして、このシステムコントローラT3は、移動機構24Sを制御することにより、RGBホイール24を挿入位置へ移動させるとともに、移動機構25S及びステージ移動機構29を夫々制御することにより、第1のロータリーシャッタ25及びステージ28を退避位置へ移動させることができる。この状態において、光源ユニット20が、通常観察状態にあると称される。
【0039】
一方、図1に示されるように、システムコントローラT3が、移動機構24Sを制御することにより、RGBホイール24を退避位置へ移動させるとともに、移動機構25S及びステージ移動機構29を夫々制御することにより、第1のロータリーシャッタ25及びステージ28を挿入位置へ移動させることができる。この状態において、光源ユニット20が、蛍光観察状態にあると称される。
【0040】
なお、システムコントローラT3は、操作スイッチ15の状態に応じて、光源ユニット20を通常観察状態又は蛍光観察状態に切り換える。即ち、術者は、操作スイッチ15を切り換えることにより、光源ユニット20を通常観察状態又は蛍光観察状態に切り換える。
【0041】
この光源ユニット20が通常観察状態にある場合に、白色光源21から発せられた白色光は、集光レンズ23へ入射する。一方、ステージ28は、退避位置にあるので、励起光源22から発せられた励起光は、集光レンズ23へは入射しない。また、第1のロータリーシャッタ25も、退避位置にある。従って、光源ユニット20が通常観察状態にある場合には、集光レンズ23には、常時、白色光のみが入射する。
【0042】
この集光レンズ23を透過した白色光は、RGBホイール24の各フィルタ241〜243により、B光,G光,及びR光に順次変換される。これらB光,G光,及びR光は、ライトガイド13の基端面(入射面)に収束する。そして、これらB光,G光,及びR光は、このライトガイド13により導かれて、配光レンズ11へ向かう。すると、配光レンズ11からは、これらB光,G光,及びR光が、順次、繰り返し射出される。
【0043】
この配光レンズ11から射出されたB光,G光,及びR光が、順次、被検体を照射している際に、内視鏡1の対物レンズ12は、CCD14の撮像面近傍に被検体像を形成する。この被検体像は、CCD14により画像信号に変換される。なお、CCD14は、プロセッサTのタイミングコントローラT1に接続されており、このタイミングコントローラT1から送信された駆動信号に従って、画像信号を出力する。また、プロセッサTの画像信号処理回路T2は、CCD14に接続されており、このCCD14から出力された画像信号を取得する。
【0044】
図3は、本実施形態の照明及び画像取得のタイミングチャートである。なお、この図3の(A)は、光源ユニット20が通常観察状態にある場合に、タイミングコントローラT1から出力されたCCD14への駆動信号を示している。また、この図3の(B)は、光源ユニット20が通常観察状態にある場合に、配光レンズ11から被検体へ向けて射出されたB光,G光,及びR光の照射期間を示している。
【0045】
この図3の(A)及び(B)に示されるように、配光レンズ11からB光が射出される「B照射」期間が、CCD14の「B蓄積」期間に相当する。即ち、被検体にB光が照射された状態において、CCD14の各画素には、B光による被検体像に対応した電荷が蓄積される。このように蓄積された電荷は、直後の「B転送」期間中に、B画像信号として画像信号処理回路T2へ送信される。
【0046】
この「B転送」期間の直後の「G蓄積」期間は、配光レンズ11からG光が射出される「G照射」期間に対応している。この「G蓄積」期間において、CCD14の各画素には、G光による被検体像に対応した電荷が蓄積される。このように蓄積された電荷は、直後の「G転送」期間中に、G画像信号として画像信号処理回路T2へ送信される。
【0047】
この「G転送」期間の直後の「R蓄積」期間は、配光レンズ11からR光が射出される「R照射」期間に対応している。この「R蓄積」期間において、CCD14の各画素には、R光による被検体像に対応した電荷が蓄積される。このように蓄積された電荷は、直後の「R転送」期間中に、R画像信号として画像信号処理回路T2へ送信される。
【0048】
そして、画像信号処理回路T2は、後述の如く、これらB画像信号,G画像信号,及びR画像信号に基づき、被検体のカラー画像を示すカラー画像信号を生成する。なお、画像信号処理回路T2は、モニタ3に接続されている。そして、この画像信号処理回路T2は、生成したカラー画像信号に基づいて、被検体のカラー画像をモニタ3に表示させる。
【0049】
次に、光源ユニット20が蛍光観察状態にある場合について、説明する。この場合に、白色光源21から発せられた白色光は、第1のロータリーシャッタ25の透過部251が光路中に挿入されている期間中にのみ、ハーフミラー26へ向けて射出される。一方、励起光源22から射出された励起光は、第2のロータリーシャッタ27の透過部271が光路中に挿入されている期間中にのみ、ハーフミラー26へ向けて射出される。
【0050】
なお、タイミングコントローラT1は、第1のロータリーシャッタ25の透過部251が光路中に挿入されていない期間中に、第2のロータリーシャッタ27の透過部271が光路中に挿入されるように、かつ、第2のロータリーシャッタ27の透過部271が光路中に挿入されていない期間中に、第1のロータリーシャッタ25の透過部251が光路中に挿入されるように、各モータ25M,27Mを夫々等速回転させている。
【0051】
このため、ハーフミラー26へは、白色光と励起光とが、交互に繰り返し入射する。このハーフミラー26を透過した白色光は、集光レンズ23によりライトガイド13の入射面に収束される。一方、このハーフミラー26により反射された励起光は、集光レンズ23によりライトガイド13の入射面に収束される。そして、これら白色光及び励起光は、交互に、ライトガイド13により導かれて、配光レンズ11へ向かう。すると、配光レンズ11からは、これら白色光及び励起光が、交互に繰り返し射出される。
【0052】
そして、被検体が白色光に照明されている期間中には、この被検体表面において反射された光は、対物レンズ12により収束されて、CCD14の撮像面近傍に被検体像を形成する。この被検体像は、CCD14により画像信号に変換される。
【0053】
一方、この被検体に対して励起光が照射されている期間中には、この被検体は、自家蛍光を発する。このため、対物レンズ12へは、この被検体から発せられた自家蛍光,及び,この被検体表面において反射された励起光が、入射する。但し、励起光は、図示せぬ励起光カットフィルタにより遮断されるので、CCD14の撮像面近傍には、被検体の自家蛍光のみによる被検体像が形成される。この被検体像は、CCD14により画像信号に変換される。
【0054】
なお、CCD14は、タイミングコントローラT1から送信された駆動信号に従って、画像信号を出力する。また、プロセッサTの画像信号処理回路T2は、CCD14から出力された画像信号を取得する。図3の(C)は、光源ユニット20が蛍光観察状態にある場合に、タイミングコントローラT1から出力されたCCD14の駆動信号を示している。また、この図3の(D)は、光源ユニット20が蛍光観察状態にある場合に、配光レンズ11から被検体へ向けて射出された励起光(UV光),及び白色光(W光)の照射期間を示している。
【0055】
この図3の(C)及び(D)に示されるように、配光レンズ11からW光が射出される「W照射」期間が、CCD14の「W蓄積」期間に相当する。即ち、被検体にW光が照射された状態において、CCD14の各画素には、W光による被検体像に対応した電荷が蓄積される。このように蓄積された電荷は、直後の「W転送」期間中に、W画像信号(参照画像信号)として画像信号処理回路T2へ送信される。
【0056】
一方、配光レンズ11からUV光が射出される「UV照射」期間が、CCD14の「F蓄積」期間に相当する。即ち、被検体にUV光が照射された状態において、CCD14の各画素には、自家蛍光(F光)による被検体像に対応した電荷が蓄積される。このように蓄積された電荷は、直後の「F転送」期間中に、F画像信号(蛍光画像信号)として画像信号処理回路T2へ送信される。
【0057】
<画像信号処理回路の構成>
この画像信号処理回路T2は、CCD14から出力された画像信号を取得して処理し、モニタ3に画像表示させる回路である。図4は、画像信号処理回路T2を示すブロック図である。この図4に示されるように、画像信号処理回路T2は、タイミングコントローラT1に夫々接続されたCCDプロセス回路T21,A/DコンバータT22,フレームメモリT23,3つのメモリT24〜T26,演算回路T27,及び,ビデオプロセス回路T28を、備えている。
【0058】
CCDプロセス回路T21は、CCD14に接続されている。そして、このCCDプロセス回路T21は、CCD14から出力された画像信号を取得して、ホワイトバランスの調整,及びγ補正等の処理を施した後に、出力する。A/DコンバータT22は、CCDプロセス回路T21から出力された画像信号をA/D変換して、デジタルの画像信号(画像データ)として出力する。
【0059】
フレームメモリT23は、CCD14の画素毎に所定の複数ビットのデータを記憶可能な記憶領域を有する。そして、A/DコンバータT22から出力された画像データは、一旦、このフレームメモリT23内に格納される。そして、このフレームメモリT23内に格納された信号は、入力のときとは異なる所定のタイミングで、出力される。
【0060】
3つのメモリT24〜T26は、いずれも、CCD14の画素毎に所定の複数ビットのデータを記憶可能な記憶領域を、有する。これら各メモリT24〜T26は、フレームメモリT23に夫々接続されている。そして、これら各メモリT24〜T26には、タイミングコントローラT1により夫々指定された期間中にフレームメモリT23から出力された画像データが、格納される。
【0061】
図5は、演算回路T27のブロック図である。この演算回路T27は、減算器,係数器M,及び,一対のスイッチSW1,SW2を、有している。係数器Mは、減算器を介して各メモリT24,T25と接続されている。そして、この係数器Mは、メモリT25から読み出されたデータとメモリT24から読み出されたデータとの差分データ(差分信号)を取得するとともに、その各画素の輝度値に所定の係数値を乗ずることにより、増幅する。
【0062】
第1のスイッチSW1,及び第2のスイッチSW2は、夫々、図示せぬ信号線によりシステムコントローラT3と接続されている。そして、システムコントローラT3は、これら両スイッチSW1,SW2を、夫々切り換えて、各メモリT24,T25,T26から読み出された画像データを、3つの出力端子P1〜P3へ出力させる。
【0063】
なお、図4に示されるように、演算回路T27は、ビデオプロセス回路T28に接続されている。さらに、このビデオプロセス回路T28は、モニタ3に接続されている。そして、図5に示された演算回路T27の各出力端子P1,P2,P3から出力されたデータは、夫々、カラー画像のB成分,G成分,R成分として、ビデオプロセス回路T28に入力する。
【0064】
このビデオプロセス回路T28は、B成分,G成分,及びR成分に夫々対応したデータを、D/A変換することにより、アナログのB画像信号,G画像信号,及びR画像信号を、取得する。さらに、このビデオプロセス回路T28は、これらB画像信号,G画像信号,及びR画像信号とともに動画表示用の所定の仕様に基づく同期信号を、モニタ3へ出力する。そして、モニタ3は、これらB画像信号,G画像信号,及びR画像信号,並びに,同期信号に基づいて、カラー画像をその画面に動画表示する。
【0065】
図5に示された演算回路T27における第1のスイッチSW1は、第1の出力端子P1への出力を選択するためのものである。即ち、第1のスイッチSW1は、第1の出力端子P1へ、第1のメモリT24から読み出された画像データを出力する通常観察状態,又は,係数器Mから出力されたデータを出力する蛍光観察状態に、切り換えられる。但し、図5における第1のスイッチSW1は、通常観察状態になっている。
【0066】
この演算回路T27における第2のスイッチSW2は、第3の出力端子P3への出力を選択するためのものである。即ち、第2のスイッチSW2は、第3の出力端子P3へ、第3のメモリT26から読み出された画像データを出力する通常観察状態,又は,第2のメモリT25から読み出された画像データを出力する蛍光観察状態に、切り換えられる。但し、図5における第2のスイッチSW2は、通常観察状態になっている。
【0067】
なお、第1の出力端子P1,及び第3の出力端子P3へ夫々出力される画像データは、各スイッチSW1,SW2によって切り換えられるのに対し、第2の出力端子P2へは、常に、第2のメモリT25から読み出された画像データが、出力される。
【0068】
そして、システムコントローラT3は、光源ユニット20,及び,演算回路T27の各スイッチSW1,SW2を夫々通常観察状態に設定することにより、この演算回路T27に対して、被検体のカラー画像を示すデータをビデオプロセス回路T28へ送信させることができる。図6は、通常観察状態における処理の説明図である。
【0069】
一方、システムコントローラT3は、光源ユニット20,及び,演算回路T27の各スイッチSW1,SW2を夫々蛍光観察状態に切り換えることにより、この演算回路T27に、係数器Mから出力されたデータ,及び,メモリT25から読み出されたデータを、ビデオプロセス回路T28へ送信させることができる。図7は、蛍光観察状態における処理の説明図である。
【0070】
なお、システムコントローラT3は、操作スイッチ15の状態に応じて、光源ユニット20とともに各スイッチSW1,SW2を通常観察状態又は蛍光観察状態に切り換える。即ち、術者は、操作スイッチ15を切り換えることにより、光源ユニット20及び各スイッチSW1,SW2を、通常観察状態又は蛍光観察状態に切り換える。
【0071】
まず、図4乃至図6を参照して、光源ユニット20及び各スイッチSW1,SW2が、通常観察状態に設定された場合の処理について説明する。この場合には、CCD14からB画像信号,G画像信号,及びR画像信号が、順次繰り返して出力される。これらB画像信号,G画像信号,及びR画像信号は、夫々、CCDプロセス回路T21及びA/DコンバータT22により処理されることにより、B画像データ,G画像データ,及びR画像データに変換される。これらB画像データ,G画像データ,及びR画像データは、一旦、フレームメモリT23内に格納された後に、このフレームメモリT23から読み出される。
【0072】
そして、フレームメモリT23から読み出されたB画像データは、第1のメモリT24内に格納される。次に、フレームメモリT23から読み出されたG画像データは、第2のメモリT25内に格納される。次に、フレームメモリT23から読み出されたR画像データは、第3のメモリT26内に格納される。
【0073】
これらB画像データ,G画像データ,及びR画像データは、夫々、各メモリT24〜T26から所定のタイミングで読み出され、演算回路T27へ出力される。そして、各スイッチSW1,SW2が通常観察状態にあるので、各出力端子P1〜P3へは、夫々、B画像データ,G画像データ,及びR画像データが、出力される。即ち、図6に示されるように、各メモリT24〜T26から夫々読み出されたB画像データ,G画像データ,及びR画像データは、各出力端子P1,P2,P3へ出力される。
【0074】
ビデオプロセス回路T28は、これらB画像データ,G画像データ,及びR画像データを、D/A変換することにより、アナログのB画像信号,G画像信号,及びR画像信号を取得し、同期信号とともに、通常画像信号としてモニタ3へ送信する。すると、モニタ3には、被検体のカラー画像が動画表示される。
【0075】
次に、図4,図5及び図7を参照して、光源ユニット20及び各スイッチSW1,SW2が、蛍光観察状態に設定された場合の処理について説明する。この場合には、CCD14からF画像信号,及びW画像信号が、交互に繰り返して出力される。これらF画像信号,及びW画像信号は、夫々、CCDプロセス回路T21及びA/DコンバータT22により処理されることにより、F画像データ,及びW画像データに変換される。即ち、A/DコンバータT22からは、これらF画像データ,及びW画像データが、交互に出力される。これらF画像データ,及びW画像データは、一旦、フレームメモリT23内に格納された後に、このフレームメモリT23から読み出される。
【0076】
そして、フレームメモリT23からF画像データが読み出されている期間中に、このF画像データは、第1のメモリT24内に格納される。次に、フレームメモリT23からW画像データが読み出されている期間中に、このW画像データは、第2のメモリT25内に格納される。
【0077】
これらF画像データ,及びW画像データは、夫々、各メモリT24,T25から所定のタイミングで読み出される。そして、各スイッチSW1,SW2が蛍光観察状態にあるので、図7に示されるように、第2の出力端子P2,及び第3の出力端子P3へは、W画像データが出力される。但し、第1の出力端子P1へは、係数器Mから出力されたデータが、出力される。即ち、W画像データとF画像データとの差分データが、係数器Mにより増幅された後に、第1の出力端子P1へ出力される。
【0078】
ビデオプロセス回路T28は、これら各出力端子P1〜P3から出力された画像データを、D/A変換し、同期信号とともに診断用画像信号としてモニタ3へ送信する。すると、モニタ3には、被検体の画像(診断用画像)が動画表示される。
【0079】
仮に、各出力端子P1〜P3へW画像データのみが出力されるならば、モニタ3には、白色光が照射された状態における被検体のモノクロ画像が、表示されることになる。しかし、実際には、上記のように第1の出力端子P1へは、W画像データからF画像データが減算された差分データが増幅されて出力される。
【0080】
このため、モニタ3に表示された診断用画像において、被検体の自家蛍光が全く発せられていない部分に対応する領域は、当該部分のモノクロ画像と同等もしくは青色になっているが、被検体の自家蛍光が発せられている部分に対応する領域は、その自家蛍光の強度に応じて着色された状態になっている。
【0081】
<第1実施形態の作用>
上記のように、光源ユニット20,及び演算回路T27の各スイッチSW1,SW2が夫々蛍光観察状態に設定された場合に、演算回路T27は、メモリT25から読み出されたW画像データとメモリT24から読み出されたF画像データとの差分データを、係数器Mにより増幅して出力している。このため、モニタ3に表示された診断用画像では、被検体における自家蛍光の強度の差は、強調されている。従って、術者は、自家蛍光の強度の僅かな差を識別可能となる故に、被検体における健康な組織の部分と病変の生じた部分とを明瞭に見分けることができる。
【0082】
【第2実施形態】
本実施形態の電子内視鏡装置は、上記の第1実施形態の電子内視鏡装置の構成において、上記の演算回路T27を本実施形態の演算回路T27’で置き換えた点を、特徴としている。
【0083】
図8は、この演算回路T27’のブロック図である。この図8に示されるように、演算回路T27’は、減算器,輪郭強調回路L,及び,一対のスイッチSW1,SW2を、有している。輪郭強調回路Lは、減算器を介して各メモリT24,T25に接続されている。そして、この輪郭強調回路Lは、メモリT25から読み出されたデータとメモリT24から読み出されたデータとの差分データを取得するとともに、取得した差分データに画像処理を施して出力する。
【0084】
なお、両スイッチSW1,SW2は、第1実施形態の場合と同様に構成されている。そして、第1のスイッチSW1は、第1の出力端子P1へ、第1のメモリT24から読み出された画像データを出力する通常観察状態,又は,輪郭強調回路Lから出力されたデータを出力する蛍光観察状態に、切り換えられる。但し、図8における第1のスイッチSW1は、蛍光観察状態になっている。
【0085】
第2のスイッチSW2は、第3の出力端子P3へ、第3のメモリT26から読み出された画像データを出力する通常観察状態,又は,第2のメモリT25から読み出された画像データを出力する蛍光観察状態に、切り換えられる。但し、図8における第2のスイッチSW2は、蛍光観察状態になっている。
【0086】
そして、光源ユニット20,及び,演算回路T27’の各スイッチSW1,SW2が夫々通常観察状態に設定されると、各メモリT24〜T26には、B画像データ,G画像データ,及びR画像データが、夫々格納され、演算回路T27’の各出力端子P1〜P3からは、被検体のカラー画像を示すデータが出力される。
【0087】
一方、光源ユニット20,及び,演算回路T27’の各スイッチSW1,SW2が夫々蛍光観察状態に設定されると、各メモリT24,T25には、F画像データ,及びW画像データが、夫々格納され、演算回路T27’の出力端子P1からは輪郭強調回路Lからのデータが出力されるとともに、各出力端子P2,P3からは、W画像データが出力される。
【0088】
図9は、輪郭強調回路Lのブロック図である。この図9に示されるように、輪郭強調回路Lは、一対の1ライン遅延器L1,L2,4つの1画素遅延器L3〜L6,5つの係数器Lb,Ld,Le,Lf,Lh,及び,1つの加算器L7を、備えている。
【0089】
なお、光源ユニット20が蛍光観察状態に設定された場合に、輪郭強調回路Lへは、W画像データとF画像データとの差分データが、入力する。この差分データは、フレーム単位で処理されている。このフレームは、複数のラインを含んでおり、当該ラインは、複数の画素を含んでいる。そして、輪郭強調回路Lには、差分データが、その1フレーム中の先頭のラインにおける先頭の画素から順に入力する。この先頭のラインにおける全ての画素が順に入力した後、次のラインの各画素が先頭から順に入力する。以降、同様に、残りの各ラインに関する入力がなされることにより、当該フレームに関する入力が完了し、次のフレームに関する入力が開始する。
【0090】
図9に示された各1ライン遅延器L1,L2は、入力したデータを略1ライン分遅れたタイミングで出力する。また、各1画素遅延器L3〜L6は、入力したデータを1画素分遅れたタイミングで出力する。また、各係数器Lb,Ld,Le,Lf,Lhは、入力したデータ(各画素の輝度値)に対して、予め夫々設定された所定の係数値を乗じて出力する。なお、図10の(A)に示されるように、係数器Leの係数値は、“5”に設定されている。一方、他の各係数器Lb,Ld,Lf,Lhの係数値は、いずれも、“−1”に設定されている。
【0091】
加算器L7は、これら各係数器Lb,Ld,Le,Lf,Lhから出力されたデータを取得するとともに、取得した各データの和を算出して出力する。なお、この加算器L7からの出力が、輪郭強調回路Lの出力になっている。
【0092】
上記構成の輪郭強調回路Lに入力したW画像データとF画像データとの差分データは、1画素遅延器L3及び1ライン遅延器L1に、夫々入力する。即ち、これら1画素遅延器L3及び1ライン遅延器L1には、差分データが1画素ずつ順に入力する。
【0093】
そして、1画素遅延器L3に入力したデータは、1画素分遅れたタイミングで出力されて、係数器Lhへ入力する。一方、1ライン遅延器L1に入力したデータは、略1ライン分遅れたタイミングで出力される。この1ライン遅延器L1から出力されたデータは、1画素遅延器L4,1ライン遅延器L2,及び係数器Ldに、夫々入力する。
【0094】
1画素遅延器L4に入力したデータは、1画素分遅れたタイミングで出力されて、1画素遅延器L5,及び係数器Leに入力する。なお、1画素遅延器L5に入力したデータは、さらに1画素分遅れたタイミングで出力されて、係数器Lfに入力する。一方、1ライン遅延器L2に入力されたデータは、さらに1ライン分遅れたタイミングで出力される。この1ライン遅延器L2から出力されたデータは、1画素遅延器L6に入力する。この1画素遅延器L6に入力したデータは、1画素分遅れたタイミングで出力されて、係数器Lbに入力する。
【0095】
図10の(B)は、輪郭強調回路Lに入力した差分データを仮想的に画面表示させた場合の模式図である。この図において、差分データの各画素は、格子状に配置されている。仮に、図10の(B)における右下隅の画素を基準画素とすると、輪郭強調回路Lにこの基準画素が入力する時、即ち、その1画素遅延器L3にこの基準画素が入力する時には、当該1画素遅延器L3からは、この基準画素の直前に既に入力していた「h」の画素が出力されて係数器Lhに入力する。
【0096】
同時に、1ライン遅延器L1からは、図10の(B)における「d」,「e」,「f」の各画素を含むライン中の「d」の画素が、出力される。この「d」の画素は、係数器Ldに入力する。同時に、1画素遅延器L4からは、「e」の画素が出力される。この「e」の画素は、係数器Leに入力する。同時に、1画素遅延器L5からは、「f」の画素が出力される。この「f」の画素は、係数器Lfに入力する。
【0097】
同時に、1ライン遅延器L2からは、図10の(B)における右上隅の画素が、出力される。この右上隅の画素は、1画素遅延器L6に入力する。同時に、この1画素遅延器L6からは、図10の(B)における「b」の画素が出力される。この「b」画素は、係数器Lbに入力する。
【0098】
従って、図10の(B)における「e」の画素と、この画素に隣接する4つの画素(「b」,「d」,「f」,「h」)とが、各係数器Le,Lb,Ld,Lf,Lhに夫々入力する。そして、係数器Leは、入力した画素の輝度値に“5”を乗じて出力する。一方、その他の各係数器Lb,Ld,Lf,Lhは、夫々、入力した画素の輝度値に“−1”を乗じて出力する。さらに、加算器L7は、これら各係数器Le,Lb,Ld,Lf,Lhから出力された値を加算して出力する。
【0099】
即ち、輪郭強調回路Lは、「e」の画素の輝度値を5倍した値から、隣接する4つの画素(「b」,「d」,「f」,「h」)の輝度値を夫々減算する処理を行っている。図10に示されるように、この輪郭強調回路Lは、鮮鋭化(sharpening)を行う鮮鋭化フィルタと等価である。このため、輪郭強調回路Lから出力されたデータは、その各画素のうちの輝度値が略等しいものによりなる領域の輪郭が強調されたデータ(輪郭強調信号)になっている。
【0100】
そして、光源ユニット20,及び演算回路T27’の各スイッチSW1,SW2が夫々蛍光観察状態に設定された場合には、この演算回路T27’の各出力端子P1〜P3から出力された画像データは、第1実施形態と同様に、ビデオプロセス回路T28によりD/A変換されて、同期信号とともに診断用画像信号としてモニタ3へ送信される。すると、モニタ3には、被検体の画像(診断用画像)が動画表示される。この診断用画像において、被検体の自家蛍光の弱い部分と強い部分との境界は、強調されている。従って、術者は、被検体における健康な部分と病変の疑いのある部分とを、明瞭に見分けることができる。
【0101】
【第3実施形態】
本実施形態の電子内視鏡装置は、上記の第1実施形態の電子内視鏡装置の構成において、上記の演算回路T27を本実施形態の演算回路T27’’で置き換えた点を、特徴としている。
【0102】
図11は、この演算回路T27’’のブロック図である。この図11に示されるように、演算回路T27’’は、第1実施形態の演算回路T27(図5)の構成において、その係数器MとスイッチSW1との間に、第2実施形態の輪郭強調回路L(図8,図9)が挿入された点を、特徴としている。
【0103】
そして、光源ユニット20,及び演算回路T27’’の各スイッチSW1,SW2が夫々蛍光観察状態に設定された場合に、係数器Mには、メモリT25からのW画像データとメモリT24からのF画像データとの差分信号が入力する。すると、係数器Mは、この差分信号を増幅して出力する。増幅された差分信号は、輪郭強調回路Lにおいて処理され、鮮鋭化される。
【0104】
この輪郭強調回路Lから出力されたデータは、出力端子P1に出力される。なお、各出力端子P2,P3へは、夫々、メモリT25からのW画像信号が出力される。これら各出力端子P1〜P3から出力された画像データは、第1及び第2実施形態と同様に、ビデオプロセス回路T28によりD/A変換されて、同期信号とともに診断用画像信号としてモニタ3へ送信される。すると、モニタ3には、被検体の画像(診断用画像)が動画表示される。
【0105】
図12は、モニタ3に表示された診断用画像を示す模式図である。被検体の自家蛍光の弱い部分Hは、自家蛍光の強い部分とは異なる色で表示される。なお、演算回路T27’’の係数器Mは、差分データを増幅しているので、診断用画像における自家蛍光の強度の差は、強調されている。さらに、演算回路T27’’の輪郭強調回路Lは、係数器Mから出力されたデータに対して鮮鋭化の処理を施しているので、診断用画像における被検体の自家蛍光の弱い部分Hの輪郭は、強調されている。
【0106】
従って、術者は、被検体の自家蛍光の弱い部分、即ち、病変の疑いのある部分を、その他の部分から明瞭に区別することができるので、診断の精度を向上させることができる。
【0107】
【発明の効果】
以上のように構成された本発明の電子内視鏡装置によると、被検体における自家蛍光の弱い部分を自家蛍光の強い部分から明瞭に区別した診断用画像信号が、取得される。さらに、この診断用画像信号が診断用画像として表示されると、術者は、この診断用画像を観察することにより、被検体の自家蛍光の弱い部分の位置及び形状を、正確に知ることができる。
【図面の簡単な説明】
【図1】 本発明の実施形態の電子内視鏡装置を示す構成図
【図2】 本発明の実施形態のホイール及びロータリーシャッタを示す図
【図3】 本発明の実施形態の照明及び画像取得のタイミングチャート
【図4】 本発明の実施形態の画像信号処理回路を示すブロック図
【図5】 本発明の第1実施形態の演算回路を示すブロック図
【図6】 通常観察状態における処理の説明図
【図7】 蛍光観察状態における処理の説明図
【図8】 本発明の第2実施形態の演算回路を示すブロック図
【図9】 輪郭強調回路を示すブロック図
【図10】 輪郭強調回路による処理を示す説明図
【図11】 本発明の第3実施形態の演算回路を示すブロック図
【図12】 診断用画像を示す模式図
【符号の説明】
1 電子内視鏡
11 配光レンズ
12 対物レンズ
13 ライトガイド
14 CCDエリアセンサ
2 外部装置(光源・プロセッサ装置)
20 光源ユニット
24 ホイール
24S 移動機構
24M モータ
T プロセッサ
T1 タイミングコントローラ
T2 画像信号処理回路
T27 演算回路
M 係数器
L 輪郭強調回路
T3 システムコントローラ[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an electronic endoscope apparatus capable of observing fluorescence by autofluorescence emitted from a living body.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, an electronic endoscope apparatus for observation of a living body has been used by imaging fluorescence (autofluorescence) emitted from the living body when the living body as an object is irradiated with excitation light such as ultraviolet light. Yes. It is known that the intensity of autofluorescence emitted from a biological tissue in which a lesion has occurred is smaller than the intensity of autofluorescence emitted from a healthy biological tissue. Therefore, the surgeon can recognize that there is a high possibility that a lesion has occurred in a region having a low fluorescence intensity by observing the fluorescence image of the subject by the autofluorescence.
[0003]
This electronic endoscope apparatus images a subject illuminated by illumination light, a light source unit that alternately emits white light and excitation light, and an illumination optical system that guides the emitted white light and excitation light. A CCD is provided.
[0004]
Then, while the white light emitted from the illumination optical system illuminates the subject, the CCD acquires an image of the subject and outputs it as a reference image signal. On the other hand, when the excitation light emitted from the illumination optical system irradiates the subject, the subject emits autofluorescence. Then, the CCD captures the subject image by the autofluorescence and outputs it as a fluorescence image signal.
[0005]
A diagnostic image signal of the subject is generated based on the reference image signal and the fluorescence image signal. That is, the diagnostic image signal is generated by subtracting the fluorescence image signal from the portion corresponding to the specific color component in the reference image signal. This diagnostic image signal is displayed on the monitor as a diagnostic image.
[0006]
This diagnostic image is displayed in the same manner as a monochrome image for a portion of the subject where no autofluorescence is emitted. However, this diagnostic image is displayed in a state in which the portion of the subject where the autofluorescence is emitted is colored according to the intensity of the autofluorescence. Therefore, the operator can make a diagnosis by observing the diagnostic image, grasping the shape of the subject, and recognizing the intensity of autofluorescence in the subject.
[0007]
[Problems to be solved by the invention]
Since the autofluorescence emitted from the subject is extremely weak, the difference between the autofluorescence emitted from a healthy tissue and the autofluorescence emitted from a lesioned tissue is only slight. For this reason, the difference between a healthy tissue and a lesioned tissue in a diagnostic image is not always clear.
[0008]
Accordingly, it is an object of the present invention to provide an electronic endoscope apparatus that generates a diagnostic image signal in which a portion having weak autofluorescence in a subject can be clearly identified.
[0009]
[Means for Solving the Problems]
The electronic endoscope apparatus according to the present invention employs the following configuration in order to solve the above problems.
[0010]
That is, an illumination optical system that illuminates the subject, White light , And emits excitation light that excites fluorescence from the living tissue itself. White light A light source unit that alternately switches between excitation light and excitation light, and an object that forms an image of the subject surface by converging components other than the excitation light in the light from the subject surface. An optical system, an image sensor that captures an image of the surface of the subject formed by the objective optical system and converts the image into an image signal, and among the image signals acquired by the image sensor, the illumination optical system White light The reference image signal is acquired based on the portion corresponding to the period in which the excitation light is guided, the fluorescence image signal is acquired based on the portion corresponding to the period in which the excitation light is guided to the illumination optical system, and the acquired reference A difference signal is generated by subtracting the fluorescence image signal from the image signal, the generated difference signal is amplified, and the amplified difference signal is selected from a blue component, a green component, and a red component of the color image. A processor that outputs a diagnostic image signal that includes the acquired reference image signal as a color component other than the specific color component of the blue component, the green component, and the red component of the color image. It is characterized by that.
[0011]
With this configuration, the difference between the reference image signal and the fluorescence image signal is enhanced by amplifying the generated difference signal. Therefore, when the diagnostic image signal including the amplified difference signal is displayed on the monitor as a diagnostic image, the difference in the intensity of the autofluorescence of the subject is emphasized in the diagnostic image. ing.
[0012]
Further, the processor generates and generates a contour enhancement signal by performing image processing for enhancing the contour of the image on the difference signal generated by subtracting the fluorescence image signal from the acquired reference image signal. The edge enhancement signal is included as a specific color component selected from the blue component, the green component, and the red component of the color image, and the acquired reference image signal is included among the blue component, the green component, and the red component of the color image. A diagnostic image signal including a color component other than the specific color component may be output.
[0013]
In this case, when the diagnostic image signal including the generated contour enhancement signal is displayed on the monitor as a diagnostic image, the contour of the region corresponding to the weak part of the autofluorescence in the subject is emphasized in the diagnostic image. It is in the state that was done.
[0014]
Further, the processor may generate the contour emphasis signal by performing image processing for enhancing the contour of the image after amplifying the generated difference signal. In this case, when the diagnostic image signal including the generated contour enhancement signal is displayed as a diagnostic image on the monitor, the region corresponding to the weakly self-fluorescent portion of the subject is the contour of the diagnostic image. Is emphasized and the color and brightness are different from the surrounding area.
[0015]
The image signal to be processed may be a digital signal or an analog signal.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an electronic endoscope apparatus according to an embodiment of the present invention will be described with reference to the drawings.
[0017]
[First Embodiment]
<Overall configuration of electronic endoscope apparatus>
FIG. 1 is a configuration diagram of the electronic endoscope apparatus. As shown in FIG. 1, the electronic endoscope apparatus includes an
[0018]
First, an electronic endoscope (hereinafter abbreviated as an endoscope) 1 will be described. Although the shape of the
[0019]
The distal end of the insertion portion of the
[0020]
At least three openings are opened at the distal end portion of the
[0021]
Furthermore, the
[0022]
The
[0023]
In addition, the code |
[0024]
Next, the
[0025]
The
[0026]
A
[0027]
An
[0028]
In the example shown in FIG. 2A, these
[0029]
As shown in FIG. 1, the
[0030]
Note that the
[0031]
Further, the
[0032]
As shown in FIG. 1, the
[0033]
Note that, at a predetermined position between the
[0034]
A
[0035]
As shown in FIG. 1, the
[0036]
The
[0037]
In addition, the timing controller T1, the image signal processing circuit T2, and the system controller T3 in the processor T are connected to each other. The timing controller T1 of the processor T is connected to each of the
[0038]
The system controller T3 of the processor T is connected to the moving
[0039]
On the other hand, as shown in FIG. 1, the system controller T3 moves the
[0040]
The system controller T3 switches the
[0041]
When the
[0042]
The white light transmitted through the
[0043]
When the B light, G light, and R light emitted from the
[0044]
FIG. 3 is a timing chart of illumination and image acquisition according to this embodiment. 3A shows a drive signal to the
[0045]
As shown in FIGS. 3A and 3B, the “B irradiation” period in which the B light is emitted from the
[0046]
The “G accumulation” period immediately after the “B transfer” period corresponds to the “G irradiation” period in which the G light is emitted from the
[0047]
The “R accumulation” period immediately after the “G transfer” period corresponds to the “R irradiation” period in which the R light is emitted from the
[0048]
The image signal processing circuit T2 generates a color image signal indicating a color image of the subject based on the B image signal, the G image signal, and the R image signal, as will be described later. The image signal processing circuit T2 is connected to the monitor 3. Then, the image signal processing circuit T2 displays a color image of the subject on the monitor 3 based on the generated color image signal.
[0049]
Next, the case where the
[0050]
Note that the timing controller T1 is configured so that the
[0051]
For this reason, white light and excitation light are alternately and repeatedly incident on the
[0052]
During the period in which the subject is illuminated with white light, the light reflected on the subject surface is converged by the
[0053]
On the other hand, during the period in which the subject is irradiated with excitation light, the subject emits autofluorescence. For this reason, the autofluorescence emitted from the subject and the excitation light reflected on the subject surface are incident on the
[0054]
The
[0055]
As shown in FIGS. 3C and 3D, the “W irradiation” period in which W light is emitted from the
[0056]
On the other hand, the “UV irradiation” period in which the UV light is emitted from the
[0057]
<Configuration of image signal processing circuit>
The image signal processing circuit T2 is a circuit that acquires and processes the image signal output from the
[0058]
The CCD process circuit T21 is connected to the
[0059]
The frame memory T23 has a storage area capable of storing predetermined plural bits of data for each pixel of the
[0060]
Each of the three memories T24 to T26 has a storage area capable of storing a predetermined plurality of bits of data for each pixel of the
[0061]
FIG. 5 is a block diagram of the arithmetic circuit T27. The arithmetic circuit T27 includes a subtracter, a coefficient unit M, and a pair of switches SW1 and SW2. The coefficient unit M is connected to the memories T24 and T25 through a subtracter. The coefficient unit M obtains difference data (difference signal) between the data read from the memory T25 and the data read from the memory T24, and sets a predetermined coefficient value to the luminance value of each pixel. Amplification by multiplication.
[0062]
The first switch SW1 and the second switch SW2 are each connected to the system controller T3 by a signal line (not shown). Then, the system controller T3 switches both the switches SW1 and SW2 to output the image data read from the memories T24, T25 and T26 to the three output terminals P1 to P3.
[0063]
As shown in FIG. 4, the arithmetic circuit T27 is connected to the video process circuit T28. Further, the video process circuit T28 is connected to the monitor 3. The data output from the output terminals P1, P2, and P3 of the arithmetic circuit T27 shown in FIG. 5 is input to the video process circuit T28 as the B component, G component, and R component of the color image, respectively.
[0064]
The video process circuit T28 obtains analog B image signals, G image signals, and R image signals by performing D / A conversion on data corresponding to the B component, G component, and R component, respectively. Further, the video process circuit T28 outputs a synchronization signal based on a predetermined specification for moving image display to the monitor 3 together with the B image signal, the G image signal, and the R image signal. The monitor 3 displays a color image as a moving image on the screen based on the B image signal, the G image signal, the R image signal, and the synchronization signal.
[0065]
The first switch SW1 in the arithmetic circuit T27 shown in FIG. 5 is for selecting an output to the first output terminal P1. That is, the first switch SW1 is in the normal observation state in which the image data read from the first memory T24 is output to the first output terminal P1, or the fluorescence in which the data output from the coefficient unit M is output. Switch to the observation state. However, the first switch SW1 in FIG. 5 is in a normal observation state.
[0066]
The second switch SW2 in the arithmetic circuit T27 is for selecting an output to the third output terminal P3. That is, the second switch SW2 outputs the image data read from the third memory T26 to the third output terminal P3, or the image data read from the second memory T25. Is switched to the fluorescence observation state. However, the second switch SW2 in FIG. 5 is in a normal observation state.
[0067]
The image data output to the first output terminal P1 and the third output terminal P3 are switched by the switches SW1 and SW2, respectively, whereas the second output terminal P2 is always the second data. The image data read from the memory T25 is output.
[0068]
Then, the system controller T3 sets the switches SW1 and SW2 of the
[0069]
On the other hand, the system controller T3 switches the switches SW1 and SW2 of the
[0070]
The system controller T3 switches the switches SW1 and SW2 together with the
[0071]
First, the processing when the
[0072]
The B image data read from the frame memory T23 is stored in the first memory T24. Next, the G image data read from the frame memory T23 is stored in the second memory T25. Next, the R image data read from the frame memory T23 is stored in the third memory T26.
[0073]
These B image data, G image data, and R image data are respectively read from the memories T24 to T26 at a predetermined timing and output to the arithmetic circuit T27. Since the switches SW1 and SW2 are in the normal observation state, B image data, G image data, and R image data are output to the output terminals P1 to P3, respectively. That is, as shown in FIG. 6, the B image data, G image data, and R image data read from the memories T24 to T26 are output to the output terminals P1, P2, and P3.
[0074]
The video process circuit T28 performs D / A conversion on the B image data, the G image data, and the R image data, thereby obtaining an analog B image signal, a G image signal, and an R image signal, together with a synchronization signal. Then, it is transmitted to the monitor 3 as a normal image signal. Then, a moving image of the color image of the subject is displayed on the monitor 3.
[0075]
Next, processing when the
[0076]
The F image data is stored in the first memory T24 while the F image data is being read from the frame memory T23. Next, during the period when the W image data is read from the frame memory T23, the W image data is stored in the second memory T25.
[0077]
These F image data and W image data are read out from the memories T24 and T25, respectively, at a predetermined timing. Since the switches SW1 and SW2 are in the fluorescence observation state, as shown in FIG. 7, W image data is output to the second output terminal P2 and the third output terminal P3. However, the data output from the coefficient multiplier M is output to the first output terminal P1. That is, the difference data between the W image data and the F image data is amplified by the coefficient unit M and then output to the first output terminal P1.
[0078]
The video process circuit T28 D / A converts the image data output from each of these output terminals P1 to P3, and transmits it to the monitor 3 as a diagnostic image signal together with a synchronization signal. Then, an image of the subject (diagnosis image) is displayed on the monitor 3 as a moving image.
[0079]
If only the W image data is output to the output terminals P1 to P3, the monitor 3 displays a monochrome image of the subject in a state where white light is irradiated. However, actually, as described above, the difference data obtained by subtracting the F image data from the W image data is amplified and output to the first output terminal P1.
[0080]
For this reason, in the diagnostic image displayed on the monitor 3, the area corresponding to the part where the subject's autofluorescence is not emitted at all is equal to or blue in the monochrome image of the part. The region corresponding to the portion where the autofluorescence is emitted is colored according to the intensity of the autofluorescence.
[0081]
<Operation of First Embodiment>
As described above, when the switches SW1 and SW2 of the
[0082]
Second Embodiment
The electronic endoscope apparatus of the present embodiment is characterized in that, in the configuration of the electronic endoscope apparatus of the first embodiment, the arithmetic circuit T27 is replaced with the arithmetic circuit T27 ′ of the present embodiment. .
[0083]
FIG. 8 is a block diagram of the arithmetic circuit T27 ′. As shown in FIG. 8, the arithmetic circuit T27 ′ has a subtracter, an outline emphasizing circuit L, and a pair of switches SW1 and SW2. The contour emphasis circuit L is connected to each of the memories T24 and T25 via a subtracter. The contour enhancement circuit L acquires difference data between the data read from the memory T25 and the data read from the memory T24, and performs image processing on the acquired difference data and outputs the difference data.
[0084]
Both switches SW1 and SW2 are configured in the same manner as in the first embodiment. Then, the first switch SW1 outputs to the first output terminal P1 the normal observation state in which the image data read from the first memory T24 is output, or the data output from the contour enhancement circuit L. Switch to the fluorescence observation state. However, the first switch SW1 in FIG. 8 is in a fluorescence observation state.
[0085]
The second switch SW2 outputs the image data read from the third memory T26 or the image data read from the second memory T25 to the third output terminal P3. To the fluorescence observation state. However, the second switch SW2 in FIG. 8 is in a fluorescence observation state.
[0086]
When the
[0087]
On the other hand, when the switches SW1 and SW2 of the
[0088]
FIG. 9 is a block diagram of the contour enhancement circuit L. As shown in FIG. 9, the edge enhancement circuit L includes a pair of one-line delay devices L1, L2, four one-pixel delay devices L3 to L6, five coefficient devices Lb, Ld, Le, Lf, Lh, and , One adder L7.
[0089]
When the
[0090]
Each one-line delay unit L1, L2 shown in FIG. 9 outputs the input data at a timing delayed by approximately one line. Each one-pixel delay unit L3 to L6 outputs the input data at a timing delayed by one pixel. Each coefficient unit Lb, Ld, Le, Lf, Lh multiplies the input data (luminance value of each pixel) by a predetermined coefficient value set in advance and outputs the result. As shown in FIG. 10A, the coefficient value of the coefficient multiplier Le is set to “5”. On the other hand, the coefficient values of the other coefficient units Lb, Ld, Lf, and Lh are all set to “−1”.
[0091]
The adder L7 acquires the data output from these coefficient units Lb, Ld, Le, Lf, and Lh, and calculates and outputs the sum of the acquired data. The output from the adder L7 is the output of the contour enhancement circuit L.
[0092]
The difference data between the W image data and the F image data input to the contour enhancement circuit L having the above configuration is input to the 1-pixel delay device L3 and the 1-line delay device L1, respectively. That is, the difference data is sequentially input to the 1-pixel delay device L3 and the 1-line delay device L1 pixel by pixel.
[0093]
The data input to the one-pixel delay unit L3 is output at a timing delayed by one pixel and is input to the coefficient unit Lh. On the other hand, the data input to the one-line delay device L1 is output at a timing delayed by approximately one line. The data output from the one-line delay device L1 is input to the one-pixel delay device L4, the one-line delay device L2, and the coefficient device Ld, respectively.
[0094]
The data input to the one-pixel delay device L4 is output at a timing delayed by one pixel and is input to the one-pixel delay device L5 and the coefficient device Le. Note that the data input to the one-pixel delay unit L5 is further output at a timing delayed by one pixel and is input to the coefficient unit Lf. On the other hand, the data input to the one-line delay device L2 is output at a timing further delayed by one line. The data output from the 1-line delay device L2 is input to the 1-pixel delay device L6. The data input to the one-pixel delay unit L6 is output at a timing delayed by one pixel and is input to the coefficient unit Lb.
[0095]
FIG. 10B is a schematic diagram when the difference data input to the contour enhancement circuit L is virtually displayed on the screen. In this figure, the pixels of the difference data are arranged in a grid pattern. If the pixel in the lower right corner in FIG. 10B is a reference pixel, when this reference pixel is input to the contour enhancement circuit L, that is, when this reference pixel is input to the one-pixel delay device L3, From the one-pixel delay unit L3, the pixel “h” that has already been input immediately before the reference pixel is output and input to the coefficient unit Lh.
[0096]
At the same time, the “d” pixel in the line including the “d”, “e”, and “f” pixels in FIG. 10B is output from the one-line delay device L1. The pixel “d” is input to the coefficient multiplier Ld. At the same time, the pixel “e” is output from the one-pixel delay device L4. The pixel “e” is input to the coefficient unit Le. At the same time, the pixel “f” is output from the one-pixel delay device L5. The pixel “f” is input to the coefficient multiplier Lf.
[0097]
At the same time, the pixel in the upper right corner in FIG. 10B is output from the one-line delay device L2. The pixel in the upper right corner is input to the one-pixel delay device L6. At the same time, the pixel “b” in FIG. 10B is output from the one-pixel delay device L6. This “b” pixel is input to the coefficient multiplier Lb.
[0098]
Therefore, the pixel “e” in FIG. 10B and the four pixels (“b”, “d”, “f”, “h”) adjacent to this pixel are the coefficient multipliers Le, Lb. , Ld, Lf, and Lh, respectively. The coefficient unit Le multiplies the luminance value of the input pixel by “5” and outputs the result. On the other hand, each of other coefficient units Lb, Ld, Lf, and Lh multiplies the luminance value of the input pixel by “−1” and outputs the result. Furthermore, the adder L7 adds and outputs the values output from these coefficient units Le, Lb, Ld, Lf, and Lh.
[0099]
That is, the contour emphasizing circuit L calculates the luminance values of four adjacent pixels (“b”, “d”, “f”, “h”) from the value obtained by multiplying the luminance value of the pixel “e” by five. Processing to subtract. As shown in FIG. 10, the edge enhancement circuit L is equivalent to a sharpening filter that performs sharpening. For this reason, the data output from the contour emphasizing circuit L is data (contour emphasizing signal) in which the contour of an area made up of pixels having substantially the same luminance value is emphasized.
[0100]
When the switches SW1 and SW2 of the
[0101]
[Third Embodiment]
The electronic endoscope apparatus of the present embodiment is characterized in that, in the configuration of the electronic endoscope apparatus of the first embodiment, the arithmetic circuit T27 is replaced with the arithmetic circuit T27 ″ of the present embodiment. Yes.
[0102]
FIG. 11 is a block diagram of the arithmetic circuit T27 ″. As shown in FIG. 11, in the configuration of the arithmetic circuit T27 (FIG. 5) of the first embodiment, the arithmetic circuit T27 ″ has a contour of the second embodiment between the coefficient multiplier M and the switch SW1. A feature is that the emphasis circuit L (FIGS. 8 and 9) is inserted.
[0103]
When the switches SW1 and SW2 of the
[0104]
The data output from the contour emphasizing circuit L is output to the output terminal P1. A W image signal from the memory T25 is output to each of the output terminals P2 and P3. The image data output from each of the output terminals P1 to P3 is D / A converted by the video process circuit T28 and transmitted to the monitor 3 as a diagnostic image signal together with the synchronization signal, as in the first and second embodiments. Is done. Then, an image of the subject (diagnosis image) is displayed on the monitor 3 as a moving image.
[0105]
FIG. 12 is a schematic diagram showing a diagnostic image displayed on the monitor 3. A portion H of the subject having weak autofluorescence is displayed in a color different from that of the portion having strong autofluorescence. Note that since the coefficient unit M of the arithmetic circuit T27 ″ amplifies the difference data, the difference in the intensity of the autofluorescence in the diagnostic image is emphasized. Furthermore, since the contour emphasizing circuit L of the arithmetic circuit T27 ″ performs sharpening processing on the data output from the coefficient unit M, the contour of the portion H where the subject's autofluorescence is weak in the diagnostic image. Is emphasized.
[0106]
Accordingly, the surgeon can clearly distinguish a portion of the subject having weak autofluorescence, that is, a portion suspected of having a lesion from other portions, so that the accuracy of diagnosis can be improved.
[0107]
【The invention's effect】
According to the electronic endoscope apparatus of the present invention configured as described above, a diagnostic image signal is obtained in which a portion with weak autofluorescence in a subject is clearly distinguished from a portion with strong autofluorescence. Furthermore, when this diagnostic image signal is displayed as a diagnostic image, the surgeon can accurately know the position and shape of the weakly autofluorescent portion of the subject by observing the diagnostic image. it can.
[Brief description of the drawings]
FIG. 1 is a configuration diagram showing an electronic endoscope apparatus according to an embodiment of the present invention.
FIG. 2 is a view showing a wheel and a rotary shutter according to the embodiment of the present invention.
FIG. 3 is a timing chart of illumination and image acquisition according to the embodiment of the present invention.
FIG. 4 is a block diagram showing an image signal processing circuit according to the embodiment of the present invention.
FIG. 5 is a block diagram showing an arithmetic circuit according to the first embodiment of the present invention.
FIG. 6 is an explanatory diagram of processing in a normal observation state
FIG. 7 is an explanatory diagram of processing in a fluorescence observation state.
FIG. 8 is a block diagram showing an arithmetic circuit according to a second embodiment of the present invention.
FIG. 9 is a block diagram showing an edge enhancement circuit
FIG. 10 is an explanatory diagram showing processing by an edge enhancement circuit
FIG. 11 is a block diagram showing an arithmetic circuit according to a third embodiment of the present invention.
FIG. 12 is a schematic diagram showing a diagnostic image.
[Explanation of symbols]
1 Electronic endoscope
11 Light distribution lens
12 Objective lens
13 Light guide
14 CCD area sensor
2 External device (light source / processor device)
20 Light source unit
24 wheel
24S moving mechanism
24M motor
T processor
T1 timing controller
T2 Image signal processing circuit
T27 arithmetic circuit
M coefficient unit
L Outline enhancement circuit
T3 system controller
Claims (7)
白色光,及び,生体組織自体からの蛍光を励起する励起光を発し、これら白色光と励起光とを交互に切り換えて繰り返し前記照明光学系へ導く光源ユニットと、
前記被検体表面からの光のうちの励起光以外の成分を収束させて、この被検体表面の像を形成する対物光学系と、
前記対物光学系によって形成された被検体表面の像を撮像して画像信号に変換する撮像素子と、
前記撮像素子により取得された画像信号のうち、前記照明光学系に白色光が導かれている期間に対応する部分に基づいて参照画像信号を取得し、前記照明光学系に励起光が導かれている期間に対応する部分に基づいて蛍光画像信号を取得し、取得した参照画像信号から蛍光画像信号を減算することにより差分信号を生成し、生成した差分信号を増幅し、増幅した差分信号を、カラー画像の青色成分,緑色成分,及び赤色成分から選択される特定の色成分として含むとともに、取得した参照画像信号を、カラー画像の青色成分,緑色成分,及び赤色成分のうちの前記特定の色成分以外の色成分として含む診断用画像信号を出力するプロセッサと
を備えたことを特徴とする電子内視鏡装置。An illumination optical system for illuminating the subject;
A light source unit that emits white light and excitation light that excites fluorescence from the living tissue itself, and alternately switches the white light and the excitation light to the illumination optical system;
An objective optical system that converges components other than excitation light in the light from the subject surface to form an image of the subject surface;
An image sensor that captures an image of the surface of the subject formed by the objective optical system and converts the image into an image signal;
A reference image signal is acquired based on a portion corresponding to a period in which white light is guided to the illumination optical system among image signals acquired by the imaging device, and excitation light is guided to the illumination optical system. A fluorescence image signal is acquired based on a portion corresponding to a period of time, a difference signal is generated by subtracting the fluorescence image signal from the acquired reference image signal, the generated difference signal is amplified, and the amplified difference signal is A specific color component selected from a blue component, a green component, and a red component of the color image, and the acquired reference image signal is the specific color of the blue component, the green component, and the red component of the color image. An electronic endoscope apparatus comprising: a processor that outputs a diagnostic image signal including color components other than the components.
白色光,及び,生体組織自体からの蛍光を励起する励起光を発し、これら白色光と励起光とを交互に切り換えて繰り返し前記照明光学系へ導く光源ユニットと、
前記被検体表面からの光のうちの励起光以外の成分を収束させて、この被検体表面の像を形成する対物光学系と、
前記対物光学系によって形成された被検体表面の像を撮像して画像信号に変換する撮像素子と、
前記撮像素子により取得された画像信号のうち、前記照明光学系に白色光が導かれている期間に対応する部分に基づいて参照画像信号を取得し、前記照明光学系に励起光が導かれている期間に対応する部分に基づいて蛍光画像信号を取得し、取得した参照画像信号から蛍光画像信号を減算することにより差分信号を生成し、生成した差分信号に対して画像の輪郭を強調する画像処理を施すことにより、輪郭強調信号を生成し、生成した輪郭強調信号を、カラー画像の青色成分,緑色成分,及び赤色成分から選択される特定の色成分として含むとともに、取得した参照画像信号を、カラー画像の青色成分,緑色成分,及び赤色成分のうちの前記特定の色成分以外の色成分として含む診断用画像信号を出力するプロセッサと
を備えたことを特徴とする電子内視鏡装置。An illumination optical system for illuminating the subject;
A light source unit that emits white light and excitation light that excites fluorescence from the living tissue itself, and alternately switches the white light and the excitation light to the illumination optical system;
An objective optical system that converges components other than excitation light in the light from the subject surface to form an image of the subject surface;
An image sensor that captures an image of the surface of the subject formed by the objective optical system and converts the image into an image signal;
A reference image signal is acquired based on a portion corresponding to a period in which white light is guided to the illumination optical system among image signals acquired by the imaging device, and excitation light is guided to the illumination optical system. An image that acquires a fluorescence image signal based on a portion corresponding to a certain period, generates a difference signal by subtracting the fluorescence image signal from the acquired reference image signal, and emphasizes the contour of the image with respect to the generated difference signal By performing processing, an edge enhancement signal is generated, and the generated edge enhancement signal is included as a specific color component selected from a blue component, a green component, and a red component of the color image, and the acquired reference image signal is included. And a processor that outputs a diagnostic image signal including a color component other than the specific color component of the blue component, the green component, and the red component of the color image. That electronic endoscope apparatus.
白色光,及び,生体組織自体からの蛍光を励起する励起光を発し、これら白色光と励起光とを交互に切り換えて繰り返し前記照明光学系へ導く光源ユニットと、
前記被検体表面からの光のうちの励起光以外の成分を収束させて、この被検体表面の像を形成する対物光学系と、
前記対物光学系によって形成された被検体表面の像を撮像して画像信号に変換する撮像素子と、
前記撮像素子により取得された画像信号のうち、前記照明光学系に白色光が導かれている期間に対応する部分に基づいて参照画像信号を取得し、前記照明光学系に励起光が導かれている期間に対応する部分に基づいて蛍光画像信号を取得し、取得した参照画像信号から蛍光画像信号を減算することにより差分信号を生成し、生成した差分信号を増幅し、増幅した差分信号に対して画像の輪郭を強調する画像処理を施すことにより、輪郭強調信号を生成し、生成した輪郭強調信号を、カラー画像の青色成分,緑色成分,及び赤色成分から選択される特定の色成分として含むとともに、取得した参照画像信号を、カラー画像の青色成分,緑色成分,及び赤色成分のうちの前記特定の色成分以外の色成分として含む診断用画像信号を出力するプロセッサとを備えたことを特徴とする電子内視鏡装置。An illumination optical system for illuminating the subject;
A light source unit that emits white light and excitation light that excites fluorescence from the living tissue itself, and alternately switches the white light and the excitation light to the illumination optical system;
An objective optical system that converges components other than excitation light in the light from the subject surface to form an image of the subject surface;
An image sensor that captures an image of the surface of the subject formed by the objective optical system and converts the image into an image signal;
A reference image signal is acquired based on a portion corresponding to a period in which white light is guided to the illumination optical system among image signals acquired by the imaging device, and excitation light is guided to the illumination optical system. A fluorescence image signal is acquired based on a portion corresponding to a period of time, a difference signal is generated by subtracting the fluorescence image signal from the acquired reference image signal, the generated difference signal is amplified, and the amplified difference signal is By performing image processing that emphasizes the contour of the image, a contour enhancement signal is generated, and the generated contour enhancement signal is included as a specific color component selected from the blue component, the green component, and the red component of the color image And a process for outputting a diagnostic image signal including the acquired reference image signal as a color component other than the specific color component of the blue component, the green component, and the red component of the color image. Electronic endoscope apparatus characterized by comprising a support.
このホイールを回転させるとともにその各フィルタを、順次繰り返して白色光の光路中に挿入させるか,又は,このホイールを白色光の光路から退避させるホイール駆動機構とを、有し、
前記プロセッサは、前記光源ユニットを、白色光と励起光とを交互に切り換えて繰り返し前記照明光学系へ導く蛍光観察状態,又は,白色光のみを前記照明光学系へ導く通常観察状態に設定可能であり、前記光源ユニットを蛍光観察状態に設定した場合には、前記ホイール駆動機構を制御して前記ホイールを白色光の光路から退避させるとともに、参照画像信号及び蛍光画像信号に基づいて診断用画像信号を生成して出力し、前記光源ユニットを通常観察状態に設定した場合には、前記ホイール駆動機構を制御して前記ホイールの各フィルタを白色光の光路中に順次挿入させるとともに、前記撮像素子により取得された画像信号のうち、前記Bフィルタが白色光の光路中に挿入されている期間に対応する部分に基づいてB画像信号を生成し、前記Gフィルタが白色光の光路中に挿入されている期間に対応する部分に基づいてG画像信号を生成し、前記Rフィルタが白色光の光路中に挿入されている期間に対応する部分に基づいてR画像信号を生成し、これらB画像信号,G画像信号,及びR画像信号に基づいて、被検体のカラー画像に対応した通常画像信号を生成して出力することを特徴とする請求項1〜5のいずれか1項に記載の電子内視鏡装置。The light source unit is formed in a disc shape, and a B filter that transmits only blue light, a G filter that transmits only green light, and an R filter that transmits only red light are arranged along the circumferential direction. Wheel,
A wheel drive mechanism that rotates the wheel and repeatedly inserts each filter into the white light path, or retracts the wheel from the white light path,
The processor can set the light source unit in a fluorescence observation state in which white light and excitation light are alternately switched and repeatedly led to the illumination optical system, or in a normal observation state in which only white light is led to the illumination optical system. There, when said light source unit is set to the fluorescent observation state, the said wheel by controlling the wheel drive mechanism retracts from the optical path of the white light, the reference image signal and the fluorescent image signal diagnostic image signal based on the When the light source unit is set to a normal observation state, the wheel driving mechanism is controlled to sequentially insert the filters of the wheel into the optical path of white light , and the imaging device of the acquired image signal to generate a B image signal based on the portion corresponding to the period in which the B filter is inserted in the optical path of the white light, Serial G filter produces a G image signal based on the portion corresponding to a period which is inserted in the optical path of the white light, based on the portion where R filter corresponds to a period that is inserted in the optical path of the white light 2. An R image signal is generated, and a normal image signal corresponding to a color image of a subject is generated and output based on the B image signal, the G image signal, and the R image signal. 5 electronic endoscope according to any one of.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000343590A JP4520014B2 (en) | 2000-11-10 | 2000-11-10 | Electronic endoscope device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2000343590A JP4520014B2 (en) | 2000-11-10 | 2000-11-10 | Electronic endoscope device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2002143079A JP2002143079A (en) | 2002-05-21 |
JP4520014B2 true JP4520014B2 (en) | 2010-08-04 |
Family
ID=18817936
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000343590A Expired - Fee Related JP4520014B2 (en) | 2000-11-10 | 2000-11-10 | Electronic endoscope device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4520014B2 (en) |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4554944B2 (en) * | 2004-01-15 | 2010-09-29 | Hoya株式会社 | Endoscope device |
JP4589670B2 (en) * | 2004-07-16 | 2010-12-01 | Hoya株式会社 | Endoscope light source device |
JP2006204341A (en) * | 2005-01-25 | 2006-08-10 | Pentax Corp | Light source device |
JP4694306B2 (en) | 2005-08-17 | 2011-06-08 | Hoya株式会社 | Outline enhancement processing unit |
JP5244455B2 (en) * | 2008-05-21 | 2013-07-24 | Hoya株式会社 | Endoscope processor and endoscope system |
US20090289200A1 (en) | 2008-05-22 | 2009-11-26 | Fujifilm Corporation | Fluorescent image obtainment method and apparatus, fluorescence endoscope, and excitation-light unit |
JP5110702B2 (en) * | 2008-05-22 | 2012-12-26 | 富士フイルム株式会社 | Fluorescence image acquisition device |
JP5191327B2 (en) * | 2008-09-17 | 2013-05-08 | 富士フイルム株式会社 | Image acquisition device and method of operating image acquisition device |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10500588A (en) * | 1994-03-28 | 1998-01-20 | ジリックス・テクノロジイズ・コーポレーション | Apparatus and method for imaging diseased tissue using integrated internal fluorescence |
JP2000270265A (en) * | 1999-03-17 | 2000-09-29 | Ekapot Bhunachet | Methods for merging fluorescence video and video of background by charge coupled device(ccd) and for watching them on the same screen |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3525235B2 (en) * | 1995-12-06 | 2004-05-10 | 松下電器産業株式会社 | Optical diagnostic equipment |
-
2000
- 2000-11-10 JP JP2000343590A patent/JP4520014B2/en not_active Expired - Fee Related
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH10500588A (en) * | 1994-03-28 | 1998-01-20 | ジリックス・テクノロジイズ・コーポレーション | Apparatus and method for imaging diseased tissue using integrated internal fluorescence |
JP2000270265A (en) * | 1999-03-17 | 2000-09-29 | Ekapot Bhunachet | Methods for merging fluorescence video and video of background by charge coupled device(ccd) and for watching them on the same screen |
Also Published As
Publication number | Publication date |
---|---|
JP2002143079A (en) | 2002-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8643710B2 (en) | Image pickup apparatus | |
JP5438571B2 (en) | Electronic endoscope system | |
EP2926718B1 (en) | Endoscope system | |
JP5572326B2 (en) | Image processing apparatus, imaging apparatus, image processing program, and image processing method | |
JP5485215B2 (en) | Endoscope device | |
JP5769892B2 (en) | Endoscope | |
JP2004321244A (en) | Electronic endoscope system | |
JP4520014B2 (en) | Electronic endoscope device | |
EP2465410B1 (en) | Image processing device | |
JP2003164414A (en) | Method and device for displaying fluoroscopic image | |
JP3965174B2 (en) | Endoscope device | |
JP3809058B2 (en) | Electronic endoscope device | |
JP6137892B2 (en) | Imaging system | |
JP4648535B2 (en) | Electronic endoscope device | |
JP3771790B2 (en) | Electronic endoscope device | |
JP4526322B2 (en) | Endoscope device | |
JP6396717B2 (en) | Sensitivity adjustment method and imaging apparatus | |
JP4531347B2 (en) | Electronic endoscope device | |
JP5815162B2 (en) | Imaging device | |
JP4520016B2 (en) | Electronic endoscope device | |
JP2002045328A (en) | Device displaying fluorescent diagnostic image | |
JP4224054B2 (en) | Electronic endoscope device | |
JP7089943B2 (en) | Endoscope system | |
JPH02299633A (en) | Endoscopic image observation apparatus | |
JP2005040181A (en) | Self-fluorescence observation device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20071005 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20080428 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20100223 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100409 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20100409 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20100511 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20100520 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130528 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
LAPS | Cancellation because of no payment of annual fees |