JP4520014B2 - Electronic endoscope device - Google Patents

Electronic endoscope device Download PDF

Info

Publication number
JP4520014B2
JP4520014B2 JP2000343590A JP2000343590A JP4520014B2 JP 4520014 B2 JP4520014 B2 JP 4520014B2 JP 2000343590 A JP2000343590 A JP 2000343590A JP 2000343590 A JP2000343590 A JP 2000343590A JP 4520014 B2 JP4520014 B2 JP 4520014B2
Authority
JP
Japan
Prior art keywords
image
image signal
light
optical system
signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2000343590A
Other languages
Japanese (ja)
Other versions
JP2002143079A (en
Inventor
了 小澤
秀夫 杉本
貴之 榎本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hoya Corp
Original Assignee
Hoya Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hoya Corp filed Critical Hoya Corp
Priority to JP2000343590A priority Critical patent/JP4520014B2/en
Publication of JP2002143079A publication Critical patent/JP2002143079A/en
Application granted granted Critical
Publication of JP4520014B2 publication Critical patent/JP4520014B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Endoscopes (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、生体から発せられる自家蛍光による蛍光観察が可能な電子内視鏡装置に、関する。
【0002】
【従来の技術】
従来、被検体としての生体に紫外光等の励起光を照射した場合にこの生体から発せられる蛍光(自家蛍光)を撮像することにより、生体の観察に供する電子内視鏡装置が、利用されている。なお、病変の生じた生体組織から発せられる自家蛍光の強度は、健康な生体組織から発せられる自家蛍光の強度よりも小さいことが知られている。従って、術者は、この自家蛍光による被検体の蛍光画像を観察することにより、その蛍光強度の小さい領域に、病変が生じている可能性が高いと、認識することができる。
【0003】
この電子内視鏡装置は、白色光と励起光とを交互に切り換えて射出する光源ユニット,射出された白色光及び励起光を導く照明光学系,及び,照明光により照明された被検体を撮像するCCDを、備えている。
【0004】
そして、照明光学系から射出された白色光が被検体を照明している間に、CCDは、その被検体の像を取得し、参照画像信号として出力する。一方、照明光学系から射出された励起光が被検体を照射すると、この被検体は、自家蛍光を発する。すると、CCDは、この自家蛍光による被検体像を撮像して、蛍光画像信号として出力する。
【0005】
これら参照画像信号及び蛍光画像信号に基づいて、被検体の診断用画像信号が生成される。即ち、参照画像信号における特定の色成分に対応した部分から、蛍光画像信号が減算されることにより、診断用画像信号が生成される。この診断用画像信号は、モニタに診断用画像として表示される。
【0006】
この診断用画像は、被検体における自家蛍光の発せられていない部分については、モノクロ画像と同様に表示される。しかし、この診断用画像は、被検体における自家蛍光が発せられている部分については、その自家蛍光の強度に応じて着色された状態で、表示される。従って、術者は、この診断用画像を観察することにより、被検体の形状を把握するとともに、当該被検体における自家蛍光の強度を認識して、診断を行うことができる。
【0007】
【発明が解決しようとする課題】
なお、被検体から発せられる自家蛍光は極めて微弱であるため、健康な組織から発せられる自家蛍光と、病変の生じた組織から発せられる自家蛍光との差は、僅かでしかない。このため、診断用画像における健康な組織と病変の生じた組織との差は、必ずしも明瞭ではない。
【0008】
そこで、被検体における自家蛍光の弱い部分が明瞭に識別可能な診断用画像信号を生成する電子内視鏡装置を提供することを、本発明の課題とする。
【0009】
【課題を解決するための手段】
本発明による電子内視鏡装置は、上記課題を解決するために、以下のような構成を採用した。
【0010】
即ち、被検体を照明する照明光学系と、白色光,及び,生体組織自体からの蛍光を励起する励起光を発し、これら白色光と励起光とを交互に切り換えて繰り返し前記照明光学系へ導く光源ユニットと、前記被検体表面からの光のうちの励起光以外の成分を収束させて、この被検体表面の像を形成する対物光学系と、前記対物光学系によって形成された被検体表面の像を撮像して画像信号に変換する撮像素子と、前記撮像素子により取得された画像信号のうち、前記照明光学系に白色光が導かれている期間に対応する部分に基づいて参照画像信号を取得し、前記照明光学系に励起光が導かれている期間に対応する部分に基づいて蛍光画像信号を取得し、取得した参照画像信号から蛍光画像信号を減算することにより差分信号を生成し、生成した差分信号を増幅し、増幅した差分信号を、カラー画像の青色成分,緑色成分,及び赤色成分から選択される特定の色成分として含むとともに、取得した参照画像信号を、カラー画像の青色成分,緑色成分,及び赤色成分のうちの前記特定の色成分以外の色成分として含む診断用画像信号を出力するプロセッサとを、備えたことを特徴とする。
【0011】
このように構成されると、生成された差分信号が増幅されることにより、参照画像信号と蛍光画像信号との差は、強調される。従って、この増幅された差分信号を含む診断用画像信号が診断用画像としてモニタに表示された場合に、この診断用画像では、被検体の自家蛍光の強度の差は、強調された状態になっている。
【0012】
また、プロセッサは、取得した参照用画像信号から蛍光画像信号を減算することにより生成した差分信号に対して、画像の輪郭を強調する画像処理を施すことにより、輪郭強調信号を生成し、生成した輪郭強調信号を、カラー画像の青色成分,緑色成分,及び赤色成分から選択される特定の色成分として含むとともに、取得した参照画像信号を、カラー画像の青色成分,緑色成分,及び赤色成分のうちの前記特定の色成分以外の色成分として含む診断用画像信号を出力してもよい。
【0013】
この場合に、生成された輪郭強調信号を含む診断用画像信号が診断用画像としてモニタに表示されると、当該診断用画像では、被検体における自家蛍光の弱い部分に対応する領域の輪郭が強調された状態になっている。
【0014】
さらに、プロセッサは、生成した差分信号を、増幅した後に、画像の輪郭を強調する画像処理を施すことにより、輪郭強調信号を生成してもよい。この場合に、生成された輪郭強調信号を含む診断用画像信号が診断用画像としてモニタに表示されると、当該診断用画像では、被検体における自家蛍光の弱い部分に対応する領域は、その輪郭が強調されるとともにその周辺と異なる色及び明るさになっている。
【0015】
なお、処理される画像信号は、デジタル信号であってもよく、アナログ信号であってもよい。
【0016】
【発明の実施の形態】
以下、図面に基づいて本発明の実施形態による電子内視鏡装置について、説明する。
【0017】
【第1実施形態】
<電子内視鏡装置の全体構成>
図1は、この電子内視鏡装置の構成図である。この図1に示されるように、電子内視鏡装置は、電子内視鏡1,及び,外部装置(光源・プロセッサ装置)2を、備えている。
【0018】
まず、電子内視鏡(以下、内視鏡と略記)1について説明する。この内視鏡1は、図1にはその形状が示されていないが、生体内に挿入される可撓管状の挿入部,この挿入部の基端側に対して一体に連結された操作部,及び,この操作部と外部装置2とを連結するライトガイド可撓管を、備えている。
【0019】
内視鏡1の挿入部の先端は、硬質部材製の図示せぬ先端部により封止されている。また、この挿入部の先端近傍の所定領域には、図示せぬ湾曲機構が組み込まれており、当該領域を湾曲させることができる。操作部には、湾曲機構を湾曲操作するためのダイヤル,及び各種操作スイッチが、設けられている。
【0020】
この内視鏡1の先端部には、少なくとも3つの開口が開けられており、これら3つの開口のうちの2つは、配光レンズ11,及び,対物レンズ12により、夫々封止されている。なお、他の開口の1つは、鉗子孔として利用される。
【0021】
さらに、内視鏡1は、ライトガイド13を有している。このライトガイド13は、光ファイバが多数束ねられてなるファイババンドルから構成されている。そして、このライトガイド13は、その先端面(出射面)を配光レンズ11に対向させるとともに、挿入部,操作部及びライトガイド可撓管内を引き通され、その基端側が外部装置2内に引き込まれている。なお、これらライトガイド13及び配光レンズ11は、照明光学系に相当する。
【0022】
また、内視鏡1は、撮像素子としてのCCD(charge-coupled device)エリアセンサ14を備えている。このCCDエリアセンサ(以下CCDと略記)14の撮像面は、内視鏡1の先端部が被検体に対向配置された状態において、対物レンズ12が当該被検体の像を結ぶ位置に、配置されている。なお、これら対物レンズ12及びCCD14間の光路中には、図示せぬ励起光カットフィルタが、挿入配置されている。この励起光カットフィルタは、生体の自家蛍光を励起する励起光を遮断するとともに、白色光を透過させる。これら対物レンズ12及び励起光カットフィルタは、対物光学系に相当する。
【0023】
なお、図1における符号15は、内視鏡1の操作部に設けられた複数の操作スイッチのうちの1つを、模式的に示したものである。この操作スイッチ15は、後述する通常観察状態と蛍光観察状態とを切り換えるために、用いられる。
【0024】
次に、外部装置2について説明する。この外部装置2は、光源ユニット20,並びに,タイミングコントローラT1,画像信号処理回路T2及びシステムコントローラT3を有するプロセッサTを、備えている。
【0025】
この外部装置2における光源ユニット20は、白色光源21及び励起光源22を、備えている。一方の白色光源21は、図示せぬキセノンランプ及びリフレクタを、有している。そして、この白色光源21は、そのキセノンランプが発した白色光を、リフレクタで反射させることにより、平行光として射出する。他方の励起光源22は、図示せぬUVランプ及びリフレクタを、有している。なお、この励起光源22のUVランプは、生体の自家蛍光を励起する紫外帯域の励起光を、発する。そして、この励起光源22は、そのUVランプが発した励起光を、リフレクタで反射させることにより、平行光として射出する。
【0026】
白色光源21から発せられた白色光の光路上には、集光レンズ23が、配置されている。この集光レンズ23は、入射した平行光を、ライトガイド13の基端面(入射面)に収束させる。
【0027】
この集光レンズ23から射出された収束光の光路上におけるライトガイド13以前の所定位置には、RGBホイール24が挿入される。このRGBホイール24は、図2の(A)に示されるように、円板状に形成され、その外周に沿ったリング状の部分に、互いに同形状の3つの開口が等間隔で開けられている。これら各開口には、青色光(B光)のみを透過させるBフィルタ241,緑色光(G光)のみを透過させるGフィルタ242,及び,赤色光(R光)のみを透過させるRフィルタ243が、夫々填め込まれている。
【0028】
なお、図2の(A)に示された例では、これら各フィルタ241〜243は、同形状であるが、当該ホイール24の周方向に沿った長さが互いに異なっていてもよい。即ち、ホイール24の周方向に沿った長さが長いものから順に、Bフィルタ241,Gフィルタ242,Rフィルタ243となっていてもよい。
【0029】
図1に示されるように、このRGBホイール24は、モータ24Mに連結されている。そして、RGBホイール24は、モータ24Mに駆動されて回転し、そのBフィルタ241,Gフィルタ242,及びRフィルタ243を、順次繰り返して光路中に挿入する。なお、このモータ24Mは、移動機構24Sに取り付けられている。そして、この移動機構24Sは、モータ24M及びRGBホイール24を、図1の上下方向へ移動させる。即ち、この移動機構24Sは、RGBホイール24を、その各フィルタ241〜243を光路中に挿入可能となる挿入位置,又は,光路から退避した退避位置へ、移動させる。
【0030】
なお、図1のRGBホイール24は、退避位置にある。そして、このRGBホイール24は、図1の状態から図1の上下方向における上向きへ移動することにより、挿入位置をとる。このRGBホイール24に連結されたモータ24M,及び移動機構24Sは、ホイール駆動機構に相当する。
【0031】
また、白色光源21から発せられた白色光の光路上における当該白色光源21の直後には、第1のロータリーシャッタ25が、挿入される。このロータリーシャッタ25は、図2の(B)に示されるように、円板状に形成され、その外周に沿ったリング状の部分に、1つの開口が開けられている。この開口には、透明な平行平板状の光学部材が填め込まれている。この光学部材が、白色光を透過させる透過部251になっている。
【0032】
図1に示されるように、このロータリーシャッタ25は、モータ25Mに連結されている。そして、このロータリーシャッタ25は、モータ25Mに駆動されて回転し、その透過部251を、間欠的に光路中に挿入する。なお、このモータ25Mは、移動機構25Sに取り付けられている。そして、この移動機構25Sは、モータ25M及びロータリーシャッタ25を、図1の上下方向へ移動させる。即ち、この移動機構25Sは、ロータリーシャッタ25を、その開口部251を光路中に挿入可能となる挿入位置,又は,光路から退避した退避位置へ、移動させる。なお、図1のロータリーシャッタ25は、挿入位置にある。そして、このロータリーシャッタ25は、図1の状態から図1の上下方向における上向きへ移動することにより、退避位置をとる。
【0033】
なお、このロータリーシャッタ25及び集光レンズ23間の所定位置において、白色光の光路と励起光の光路とは、直交している。即ち、励起光源22は、発した励起光が、白色光源21から発せられた白色光の光路上における上記所定位置で、当該白色光の光路と直交するように、配置されている。これら白色光及び励起光の光路同士が直交する位置には、ハーフミラー26が、挿入される。このハーフミラー26は、該ハーフミラー26を透過した白色光の光路と同じ光路上を励起光が進むように、この励起光を反射させる。
【0034】
また、励起光源22から発せられた励起光の光路上におけるハーフミラー26以前の位置には、第2のロータリーシャッタ27が、挿入される。このロータリーシャッタ27は、図2の(C)に示されるように、円板状に形成され、その外周に沿ったリング状の部分に、1つの開口が開けられている。この開口には、透明な平行平板状の光学部材が填め込まれている。この光学部材が、励起光を透過させる透過部271になっている。
【0035】
図1に示されるように、このロータリーシャッタ27は、モータ27Mに連結されている。そして、このロータリーシャッタ27は、モータ27Mに駆動されて回転し、その透過部271を、間欠的に光路中に挿入する。
【0036】
これらハーフミラー26及びモータ27Mは、ステージ28に対して固定されている。このステージ28は、ステージ移動機構29に連結されている。このステージ移動機構29は、ステージ28を移動させることにより、ハーフミラー26,並びに,モータ27M及びロータリーシャッタ27を、図1の上下方向へ移動させる。即ち、ステージ移動機構29は、ステージ28を、ハーフミラー26が白色光の光路中に挿入された挿入位置,又は,ハーフミラー26が白色光の光路から退避した退避位置へ、移動させる。なお、図1のステージ28は、挿入位置にある。そして、このステージ28は、図1に示された状態から図1の上下方向における下向きへ移動することにより、退避位置をとる。
【0037】
また、プロセッサTにおけるタイミングコントローラT1,画像信号処理回路T2,及びシステムコントローラT3は、相互に接続されている。このプロセッサTのタイミングコントローラT1は、各モータ24M,25M,27Mに夫々接続されている。そして、このタイミングコントローラT1は、これら各モータ24M,25M,27Mを夫々同期させて、等速回転させる。
【0038】
このプロセッサTのシステムコントローラT3は、各移動機構24S,25S,及びステージ移動機構29と、夫々接続されている。そして、このシステムコントローラT3は、移動機構24Sを制御することにより、RGBホイール24を挿入位置へ移動させるとともに、移動機構25S及びステージ移動機構29を夫々制御することにより、第1のロータリーシャッタ25及びステージ28を退避位置へ移動させることができる。この状態において、光源ユニット20が、通常観察状態にあると称される。
【0039】
一方、図1に示されるように、システムコントローラT3が、移動機構24Sを制御することにより、RGBホイール24を退避位置へ移動させるとともに、移動機構25S及びステージ移動機構29を夫々制御することにより、第1のロータリーシャッタ25及びステージ28を挿入位置へ移動させることができる。この状態において、光源ユニット20が、蛍光観察状態にあると称される。
【0040】
なお、システムコントローラT3は、操作スイッチ15の状態に応じて、光源ユニット20を通常観察状態又は蛍光観察状態に切り換える。即ち、術者は、操作スイッチ15を切り換えることにより、光源ユニット20を通常観察状態又は蛍光観察状態に切り換える。
【0041】
この光源ユニット20が通常観察状態にある場合に、白色光源21から発せられた白色光は、集光レンズ23へ入射する。一方、ステージ28は、退避位置にあるので、励起光源22から発せられた励起光は、集光レンズ23へは入射しない。また、第1のロータリーシャッタ25も、退避位置にある。従って、光源ユニット20が通常観察状態にある場合には、集光レンズ23には、常時、白色光のみが入射する。
【0042】
この集光レンズ23を透過した白色光は、RGBホイール24の各フィルタ241〜243により、B光,G光,及びR光に順次変換される。これらB光,G光,及びR光は、ライトガイド13の基端面(入射面)に収束する。そして、これらB光,G光,及びR光は、このライトガイド13により導かれて、配光レンズ11へ向かう。すると、配光レンズ11からは、これらB光,G光,及びR光が、順次、繰り返し射出される。
【0043】
この配光レンズ11から射出されたB光,G光,及びR光が、順次、被検体を照射している際に、内視鏡1の対物レンズ12は、CCD14の撮像面近傍に被検体像を形成する。この被検体像は、CCD14により画像信号に変換される。なお、CCD14は、プロセッサTのタイミングコントローラT1に接続されており、このタイミングコントローラT1から送信された駆動信号に従って、画像信号を出力する。また、プロセッサTの画像信号処理回路T2は、CCD14に接続されており、このCCD14から出力された画像信号を取得する。
【0044】
図3は、本実施形態の照明及び画像取得のタイミングチャートである。なお、この図3の(A)は、光源ユニット20が通常観察状態にある場合に、タイミングコントローラT1から出力されたCCD14への駆動信号を示している。また、この図3の(B)は、光源ユニット20が通常観察状態にある場合に、配光レンズ11から被検体へ向けて射出されたB光,G光,及びR光の照射期間を示している。
【0045】
この図3の(A)及び(B)に示されるように、配光レンズ11からB光が射出される「B照射」期間が、CCD14の「B蓄積」期間に相当する。即ち、被検体にB光が照射された状態において、CCD14の各画素には、B光による被検体像に対応した電荷が蓄積される。このように蓄積された電荷は、直後の「B転送」期間中に、B画像信号として画像信号処理回路T2へ送信される。
【0046】
この「B転送」期間の直後の「G蓄積」期間は、配光レンズ11からG光が射出される「G照射」期間に対応している。この「G蓄積」期間において、CCD14の各画素には、G光による被検体像に対応した電荷が蓄積される。このように蓄積された電荷は、直後の「G転送」期間中に、G画像信号として画像信号処理回路T2へ送信される。
【0047】
この「G転送」期間の直後の「R蓄積」期間は、配光レンズ11からR光が射出される「R照射」期間に対応している。この「R蓄積」期間において、CCD14の各画素には、R光による被検体像に対応した電荷が蓄積される。このように蓄積された電荷は、直後の「R転送」期間中に、R画像信号として画像信号処理回路T2へ送信される。
【0048】
そして、画像信号処理回路T2は、後述の如く、これらB画像信号,G画像信号,及びR画像信号に基づき、被検体のカラー画像を示すカラー画像信号を生成する。なお、画像信号処理回路T2は、モニタ3に接続されている。そして、この画像信号処理回路T2は、生成したカラー画像信号に基づいて、被検体のカラー画像をモニタ3に表示させる。
【0049】
次に、光源ユニット20が蛍光観察状態にある場合について、説明する。この場合に、白色光源21から発せられた白色光は、第1のロータリーシャッタ25の透過部251が光路中に挿入されている期間中にのみ、ハーフミラー26へ向けて射出される。一方、励起光源22から射出された励起光は、第2のロータリーシャッタ27の透過部271が光路中に挿入されている期間中にのみ、ハーフミラー26へ向けて射出される。
【0050】
なお、タイミングコントローラT1は、第1のロータリーシャッタ25の透過部251が光路中に挿入されていない期間中に、第2のロータリーシャッタ27の透過部271が光路中に挿入されるように、かつ、第2のロータリーシャッタ27の透過部271が光路中に挿入されていない期間中に、第1のロータリーシャッタ25の透過部251が光路中に挿入されるように、各モータ25M,27Mを夫々等速回転させている。
【0051】
このため、ハーフミラー26へは、白色光と励起光とが、交互に繰り返し入射する。このハーフミラー26を透過した白色光は、集光レンズ23によりライトガイド13の入射面に収束される。一方、このハーフミラー26により反射された励起光は、集光レンズ23によりライトガイド13の入射面に収束される。そして、これら白色光及び励起光は、交互に、ライトガイド13により導かれて、配光レンズ11へ向かう。すると、配光レンズ11からは、これら白色光及び励起光が、交互に繰り返し射出される。
【0052】
そして、被検体が白色光に照明されている期間中には、この被検体表面において反射された光は、対物レンズ12により収束されて、CCD14の撮像面近傍に被検体像を形成する。この被検体像は、CCD14により画像信号に変換される。
【0053】
一方、この被検体に対して励起光が照射されている期間中には、この被検体は、自家蛍光を発する。このため、対物レンズ12へは、この被検体から発せられた自家蛍光,及び,この被検体表面において反射された励起光が、入射する。但し、励起光は、図示せぬ励起光カットフィルタにより遮断されるので、CCD14の撮像面近傍には、被検体の自家蛍光のみによる被検体像が形成される。この被検体像は、CCD14により画像信号に変換される。
【0054】
なお、CCD14は、タイミングコントローラT1から送信された駆動信号に従って、画像信号を出力する。また、プロセッサTの画像信号処理回路T2は、CCD14から出力された画像信号を取得する。図3の(C)は、光源ユニット20が蛍光観察状態にある場合に、タイミングコントローラT1から出力されたCCD14の駆動信号を示している。また、この図3の(D)は、光源ユニット20が蛍光観察状態にある場合に、配光レンズ11から被検体へ向けて射出された励起光(UV光),及び白色光(W光)の照射期間を示している。
【0055】
この図3の(C)及び(D)に示されるように、配光レンズ11からW光が射出される「W照射」期間が、CCD14の「W蓄積」期間に相当する。即ち、被検体にW光が照射された状態において、CCD14の各画素には、W光による被検体像に対応した電荷が蓄積される。このように蓄積された電荷は、直後の「W転送」期間中に、W画像信号(参照画像信号)として画像信号処理回路T2へ送信される。
【0056】
一方、配光レンズ11からUV光が射出される「UV照射」期間が、CCD14の「F蓄積」期間に相当する。即ち、被検体にUV光が照射された状態において、CCD14の各画素には、自家蛍光(F光)による被検体像に対応した電荷が蓄積される。このように蓄積された電荷は、直後の「F転送」期間中に、F画像信号(蛍光画像信号)として画像信号処理回路T2へ送信される。
【0057】
<画像信号処理回路の構成>
この画像信号処理回路T2は、CCD14から出力された画像信号を取得して処理し、モニタ3に画像表示させる回路である。図4は、画像信号処理回路T2を示すブロック図である。この図4に示されるように、画像信号処理回路T2は、タイミングコントローラT1に夫々接続されたCCDプロセス回路T21,A/DコンバータT22,フレームメモリT23,3つのメモリT24〜T26,演算回路T27,及び,ビデオプロセス回路T28を、備えている。
【0058】
CCDプロセス回路T21は、CCD14に接続されている。そして、このCCDプロセス回路T21は、CCD14から出力された画像信号を取得して、ホワイトバランスの調整,及びγ補正等の処理を施した後に、出力する。A/DコンバータT22は、CCDプロセス回路T21から出力された画像信号をA/D変換して、デジタルの画像信号(画像データ)として出力する。
【0059】
フレームメモリT23は、CCD14の画素毎に所定の複数ビットのデータを記憶可能な記憶領域を有する。そして、A/DコンバータT22から出力された画像データは、一旦、このフレームメモリT23内に格納される。そして、このフレームメモリT23内に格納された信号は、入力のときとは異なる所定のタイミングで、出力される。
【0060】
3つのメモリT24〜T26は、いずれも、CCD14の画素毎に所定の複数ビットのデータを記憶可能な記憶領域を、有する。これら各メモリT24〜T26は、フレームメモリT23に夫々接続されている。そして、これら各メモリT24〜T26には、タイミングコントローラT1により夫々指定された期間中にフレームメモリT23から出力された画像データが、格納される。
【0061】
図5は、演算回路T27のブロック図である。この演算回路T27は、減算器,係数器M,及び,一対のスイッチSW1,SW2を、有している。係数器Mは、減算器を介して各メモリT24,T25と接続されている。そして、この係数器Mは、メモリT25から読み出されたデータとメモリT24から読み出されたデータとの差分データ(差分信号)を取得するとともに、その各画素の輝度値に所定の係数値を乗ずることにより、増幅する。
【0062】
第1のスイッチSW1,及び第2のスイッチSW2は、夫々、図示せぬ信号線によりシステムコントローラT3と接続されている。そして、システムコントローラT3は、これら両スイッチSW1,SW2を、夫々切り換えて、各メモリT24,T25,T26から読み出された画像データを、3つの出力端子P1〜P3へ出力させる。
【0063】
なお、図4に示されるように、演算回路T27は、ビデオプロセス回路T28に接続されている。さらに、このビデオプロセス回路T28は、モニタ3に接続されている。そして、図5に示された演算回路T27の各出力端子P1,P2,P3から出力されたデータは、夫々、カラー画像のB成分,G成分,R成分として、ビデオプロセス回路T28に入力する。
【0064】
このビデオプロセス回路T28は、B成分,G成分,及びR成分に夫々対応したデータを、D/A変換することにより、アナログのB画像信号,G画像信号,及びR画像信号を、取得する。さらに、このビデオプロセス回路T28は、これらB画像信号,G画像信号,及びR画像信号とともに動画表示用の所定の仕様に基づく同期信号を、モニタ3へ出力する。そして、モニタ3は、これらB画像信号,G画像信号,及びR画像信号,並びに,同期信号に基づいて、カラー画像をその画面に動画表示する。
【0065】
図5に示された演算回路T27における第1のスイッチSW1は、第1の出力端子P1への出力を選択するためのものである。即ち、第1のスイッチSW1は、第1の出力端子P1へ、第1のメモリT24から読み出された画像データを出力する通常観察状態,又は,係数器Mから出力されたデータを出力する蛍光観察状態に、切り換えられる。但し、図5における第1のスイッチSW1は、通常観察状態になっている。
【0066】
この演算回路T27における第2のスイッチSW2は、第3の出力端子P3への出力を選択するためのものである。即ち、第2のスイッチSW2は、第3の出力端子P3へ、第3のメモリT26から読み出された画像データを出力する通常観察状態,又は,第2のメモリT25から読み出された画像データを出力する蛍光観察状態に、切り換えられる。但し、図5における第2のスイッチSW2は、通常観察状態になっている。
【0067】
なお、第1の出力端子P1,及び第3の出力端子P3へ夫々出力される画像データは、各スイッチSW1,SW2によって切り換えられるのに対し、第2の出力端子P2へは、常に、第2のメモリT25から読み出された画像データが、出力される。
【0068】
そして、システムコントローラT3は、光源ユニット20,及び,演算回路T27の各スイッチSW1,SW2を夫々通常観察状態に設定することにより、この演算回路T27に対して、被検体のカラー画像を示すデータをビデオプロセス回路T28へ送信させることができる。図6は、通常観察状態における処理の説明図である。
【0069】
一方、システムコントローラT3は、光源ユニット20,及び,演算回路T27の各スイッチSW1,SW2を夫々蛍光観察状態に切り換えることにより、この演算回路T27に、係数器Mから出力されたデータ,及び,メモリT25から読み出されたデータを、ビデオプロセス回路T28へ送信させることができる。図7は、蛍光観察状態における処理の説明図である。
【0070】
なお、システムコントローラT3は、操作スイッチ15の状態に応じて、光源ユニット20とともに各スイッチSW1,SW2を通常観察状態又は蛍光観察状態に切り換える。即ち、術者は、操作スイッチ15を切り換えることにより、光源ユニット20及び各スイッチSW1,SW2を、通常観察状態又は蛍光観察状態に切り換える。
【0071】
まず、図4乃至図6を参照して、光源ユニット20及び各スイッチSW1,SW2が、通常観察状態に設定された場合の処理について説明する。この場合には、CCD14からB画像信号,G画像信号,及びR画像信号が、順次繰り返して出力される。これらB画像信号,G画像信号,及びR画像信号は、夫々、CCDプロセス回路T21及びA/DコンバータT22により処理されることにより、B画像データ,G画像データ,及びR画像データに変換される。これらB画像データ,G画像データ,及びR画像データは、一旦、フレームメモリT23内に格納された後に、このフレームメモリT23から読み出される。
【0072】
そして、フレームメモリT23から読み出されたB画像データは、第1のメモリT24内に格納される。次に、フレームメモリT23から読み出されたG画像データは、第2のメモリT25内に格納される。次に、フレームメモリT23から読み出されたR画像データは、第3のメモリT26内に格納される。
【0073】
これらB画像データ,G画像データ,及びR画像データは、夫々、各メモリT24〜T26から所定のタイミングで読み出され、演算回路T27へ出力される。そして、各スイッチSW1,SW2が通常観察状態にあるので、各出力端子P1〜P3へは、夫々、B画像データ,G画像データ,及びR画像データが、出力される。即ち、図6に示されるように、各メモリT24〜T26から夫々読み出されたB画像データ,G画像データ,及びR画像データは、各出力端子P1,P2,P3へ出力される。
【0074】
ビデオプロセス回路T28は、これらB画像データ,G画像データ,及びR画像データを、D/A変換することにより、アナログのB画像信号,G画像信号,及びR画像信号を取得し、同期信号とともに、通常画像信号としてモニタ3へ送信する。すると、モニタ3には、被検体のカラー画像が動画表示される。
【0075】
次に、図4,図5及び図7を参照して、光源ユニット20及び各スイッチSW1,SW2が、蛍光観察状態に設定された場合の処理について説明する。この場合には、CCD14からF画像信号,及びW画像信号が、交互に繰り返して出力される。これらF画像信号,及びW画像信号は、夫々、CCDプロセス回路T21及びA/DコンバータT22により処理されることにより、F画像データ,及びW画像データに変換される。即ち、A/DコンバータT22からは、これらF画像データ,及びW画像データが、交互に出力される。これらF画像データ,及びW画像データは、一旦、フレームメモリT23内に格納された後に、このフレームメモリT23から読み出される。
【0076】
そして、フレームメモリT23からF画像データが読み出されている期間中に、このF画像データは、第1のメモリT24内に格納される。次に、フレームメモリT23からW画像データが読み出されている期間中に、このW画像データは、第2のメモリT25内に格納される。
【0077】
これらF画像データ,及びW画像データは、夫々、各メモリT24,T25から所定のタイミングで読み出される。そして、各スイッチSW1,SW2が蛍光観察状態にあるので、図7に示されるように、第2の出力端子P2,及び第3の出力端子P3へは、W画像データが出力される。但し、第1の出力端子P1へは、係数器Mから出力されたデータが、出力される。即ち、W画像データとF画像データとの差分データが、係数器Mにより増幅された後に、第1の出力端子P1へ出力される。
【0078】
ビデオプロセス回路T28は、これら各出力端子P1〜P3から出力された画像データを、D/A変換し、同期信号とともに診断用画像信号としてモニタ3へ送信する。すると、モニタ3には、被検体の画像(診断用画像)が動画表示される。
【0079】
仮に、各出力端子P1〜P3へW画像データのみが出力されるならば、モニタ3には、白色光が照射された状態における被検体のモノクロ画像が、表示されることになる。しかし、実際には、上記のように第1の出力端子P1へは、W画像データからF画像データが減算された差分データが増幅されて出力される。
【0080】
このため、モニタ3に表示された診断用画像において、被検体の自家蛍光が全く発せられていない部分に対応する領域は、当該部分のモノクロ画像と同等もしくは青色になっているが、被検体の自家蛍光が発せられている部分に対応する領域は、その自家蛍光の強度に応じて着色された状態になっている。
【0081】
<第1実施形態の作用>
上記のように、光源ユニット20,及び演算回路T27の各スイッチSW1,SW2が夫々蛍光観察状態に設定された場合に、演算回路T27は、メモリT25から読み出されたW画像データとメモリT24から読み出されたF画像データとの差分データを、係数器Mにより増幅して出力している。このため、モニタ3に表示された診断用画像では、被検体における自家蛍光の強度の差は、強調されている。従って、術者は、自家蛍光の強度の僅かな差を識別可能となる故に、被検体における健康な組織の部分と病変の生じた部分とを明瞭に見分けることができる。
【0082】
【第2実施形態】
本実施形態の電子内視鏡装置は、上記の第1実施形態の電子内視鏡装置の構成において、上記の演算回路T27を本実施形態の演算回路T27’で置き換えた点を、特徴としている。
【0083】
図8は、この演算回路T27’のブロック図である。この図8に示されるように、演算回路T27’は、減算器,輪郭強調回路L,及び,一対のスイッチSW1,SW2を、有している。輪郭強調回路Lは、減算器を介して各メモリT24,T25に接続されている。そして、この輪郭強調回路Lは、メモリT25から読み出されたデータとメモリT24から読み出されたデータとの差分データを取得するとともに、取得した差分データに画像処理を施して出力する。
【0084】
なお、両スイッチSW1,SW2は、第1実施形態の場合と同様に構成されている。そして、第1のスイッチSW1は、第1の出力端子P1へ、第1のメモリT24から読み出された画像データを出力する通常観察状態,又は,輪郭強調回路Lから出力されたデータを出力する蛍光観察状態に、切り換えられる。但し、図8における第1のスイッチSW1は、蛍光観察状態になっている。
【0085】
第2のスイッチSW2は、第3の出力端子P3へ、第3のメモリT26から読み出された画像データを出力する通常観察状態,又は,第2のメモリT25から読み出された画像データを出力する蛍光観察状態に、切り換えられる。但し、図8における第2のスイッチSW2は、蛍光観察状態になっている。
【0086】
そして、光源ユニット20,及び,演算回路T27’の各スイッチSW1,SW2が夫々通常観察状態に設定されると、各メモリT24〜T26には、B画像データ,G画像データ,及びR画像データが、夫々格納され、演算回路T27’の各出力端子P1〜P3からは、被検体のカラー画像を示すデータが出力される。
【0087】
一方、光源ユニット20,及び,演算回路T27’の各スイッチSW1,SW2が夫々蛍光観察状態に設定されると、各メモリT24,T25には、F画像データ,及びW画像データが、夫々格納され、演算回路T27’の出力端子P1からは輪郭強調回路Lからのデータが出力されるとともに、各出力端子P2,P3からは、W画像データが出力される。
【0088】
図9は、輪郭強調回路Lのブロック図である。この図9に示されるように、輪郭強調回路Lは、一対の1ライン遅延器L1,L2,4つの1画素遅延器L3〜L6,5つの係数器Lb,Ld,Le,Lf,Lh,及び,1つの加算器L7を、備えている。
【0089】
なお、光源ユニット20が蛍光観察状態に設定された場合に、輪郭強調回路Lへは、W画像データとF画像データとの差分データが、入力する。この差分データは、フレーム単位で処理されている。このフレームは、複数のラインを含んでおり、当該ラインは、複数の画素を含んでいる。そして、輪郭強調回路Lには、差分データが、その1フレーム中の先頭のラインにおける先頭の画素から順に入力する。この先頭のラインにおける全ての画素が順に入力した後、次のラインの各画素が先頭から順に入力する。以降、同様に、残りの各ラインに関する入力がなされることにより、当該フレームに関する入力が完了し、次のフレームに関する入力が開始する。
【0090】
図9に示された各1ライン遅延器L1,L2は、入力したデータを略1ライン分遅れたタイミングで出力する。また、各1画素遅延器L3〜L6は、入力したデータを1画素分遅れたタイミングで出力する。また、各係数器Lb,Ld,Le,Lf,Lhは、入力したデータ(各画素の輝度値)に対して、予め夫々設定された所定の係数値を乗じて出力する。なお、図10の(A)に示されるように、係数器Leの係数値は、“5”に設定されている。一方、他の各係数器Lb,Ld,Lf,Lhの係数値は、いずれも、“−1”に設定されている。
【0091】
加算器L7は、これら各係数器Lb,Ld,Le,Lf,Lhから出力されたデータを取得するとともに、取得した各データの和を算出して出力する。なお、この加算器L7からの出力が、輪郭強調回路Lの出力になっている。
【0092】
上記構成の輪郭強調回路Lに入力したW画像データとF画像データとの差分データは、1画素遅延器L3及び1ライン遅延器L1に、夫々入力する。即ち、これら1画素遅延器L3及び1ライン遅延器L1には、差分データが1画素ずつ順に入力する。
【0093】
そして、1画素遅延器L3に入力したデータは、1画素分遅れたタイミングで出力されて、係数器Lhへ入力する。一方、1ライン遅延器L1に入力したデータは、略1ライン分遅れたタイミングで出力される。この1ライン遅延器L1から出力されたデータは、1画素遅延器L4,1ライン遅延器L2,及び係数器Ldに、夫々入力する。
【0094】
1画素遅延器L4に入力したデータは、1画素分遅れたタイミングで出力されて、1画素遅延器L5,及び係数器Leに入力する。なお、1画素遅延器L5に入力したデータは、さらに1画素分遅れたタイミングで出力されて、係数器Lfに入力する。一方、1ライン遅延器L2に入力されたデータは、さらに1ライン分遅れたタイミングで出力される。この1ライン遅延器L2から出力されたデータは、1画素遅延器L6に入力する。この1画素遅延器L6に入力したデータは、1画素分遅れたタイミングで出力されて、係数器Lbに入力する。
【0095】
図10の(B)は、輪郭強調回路Lに入力した差分データを仮想的に画面表示させた場合の模式図である。この図において、差分データの各画素は、格子状に配置されている。仮に、図10の(B)における右下隅の画素を基準画素とすると、輪郭強調回路Lにこの基準画素が入力する時、即ち、その1画素遅延器L3にこの基準画素が入力する時には、当該1画素遅延器L3からは、この基準画素の直前に既に入力していた「h」の画素が出力されて係数器Lhに入力する。
【0096】
同時に、1ライン遅延器L1からは、図10の(B)における「d」,「e」,「f」の各画素を含むライン中の「d」の画素が、出力される。この「d」の画素は、係数器Ldに入力する。同時に、1画素遅延器L4からは、「e」の画素が出力される。この「e」の画素は、係数器Leに入力する。同時に、1画素遅延器L5からは、「f」の画素が出力される。この「f」の画素は、係数器Lfに入力する。
【0097】
同時に、1ライン遅延器L2からは、図10の(B)における右上隅の画素が、出力される。この右上隅の画素は、1画素遅延器L6に入力する。同時に、この1画素遅延器L6からは、図10の(B)における「b」の画素が出力される。この「b」画素は、係数器Lbに入力する。
【0098】
従って、図10の(B)における「e」の画素と、この画素に隣接する4つの画素(「b」,「d」,「f」,「h」)とが、各係数器Le,Lb,Ld,Lf,Lhに夫々入力する。そして、係数器Leは、入力した画素の輝度値に“5”を乗じて出力する。一方、その他の各係数器Lb,Ld,Lf,Lhは、夫々、入力した画素の輝度値に“−1”を乗じて出力する。さらに、加算器L7は、これら各係数器Le,Lb,Ld,Lf,Lhから出力された値を加算して出力する。
【0099】
即ち、輪郭強調回路Lは、「e」の画素の輝度値を5倍した値から、隣接する4つの画素(「b」,「d」,「f」,「h」)の輝度値を夫々減算する処理を行っている。図10に示されるように、この輪郭強調回路Lは、鮮鋭化(sharpening)を行う鮮鋭化フィルタと等価である。このため、輪郭強調回路Lから出力されたデータは、その各画素のうちの輝度値が略等しいものによりなる領域の輪郭が強調されたデータ(輪郭強調信号)になっている。
【0100】
そして、光源ユニット20,及び演算回路T27’の各スイッチSW1,SW2が夫々蛍光観察状態に設定された場合には、この演算回路T27’の各出力端子P1〜P3から出力された画像データは、第1実施形態と同様に、ビデオプロセス回路T28によりD/A変換されて、同期信号とともに診断用画像信号としてモニタ3へ送信される。すると、モニタ3には、被検体の画像(診断用画像)が動画表示される。この診断用画像において、被検体の自家蛍光の弱い部分と強い部分との境界は、強調されている。従って、術者は、被検体における健康な部分と病変の疑いのある部分とを、明瞭に見分けることができる。
【0101】
【第3実施形態】
本実施形態の電子内視鏡装置は、上記の第1実施形態の電子内視鏡装置の構成において、上記の演算回路T27を本実施形態の演算回路T27’’で置き換えた点を、特徴としている。
【0102】
図11は、この演算回路T27’’のブロック図である。この図11に示されるように、演算回路T27’’は、第1実施形態の演算回路T27(図5)の構成において、その係数器MとスイッチSW1との間に、第2実施形態の輪郭強調回路L(図8,図9)が挿入された点を、特徴としている。
【0103】
そして、光源ユニット20,及び演算回路T27’’の各スイッチSW1,SW2が夫々蛍光観察状態に設定された場合に、係数器Mには、メモリT25からのW画像データとメモリT24からのF画像データとの差分信号が入力する。すると、係数器Mは、この差分信号を増幅して出力する。増幅された差分信号は、輪郭強調回路Lにおいて処理され、鮮鋭化される。
【0104】
この輪郭強調回路Lから出力されたデータは、出力端子P1に出力される。なお、各出力端子P2,P3へは、夫々、メモリT25からのW画像信号が出力される。これら各出力端子P1〜P3から出力された画像データは、第1及び第2実施形態と同様に、ビデオプロセス回路T28によりD/A変換されて、同期信号とともに診断用画像信号としてモニタ3へ送信される。すると、モニタ3には、被検体の画像(診断用画像)が動画表示される。
【0105】
図12は、モニタ3に表示された診断用画像を示す模式図である。被検体の自家蛍光の弱い部分Hは、自家蛍光の強い部分とは異なる色で表示される。なお、演算回路T27’’の係数器Mは、差分データを増幅しているので、診断用画像における自家蛍光の強度の差は、強調されている。さらに、演算回路T27’’の輪郭強調回路Lは、係数器Mから出力されたデータに対して鮮鋭化の処理を施しているので、診断用画像における被検体の自家蛍光の弱い部分Hの輪郭は、強調されている。
【0106】
従って、術者は、被検体の自家蛍光の弱い部分、即ち、病変の疑いのある部分を、その他の部分から明瞭に区別することができるので、診断の精度を向上させることができる。
【0107】
【発明の効果】
以上のように構成された本発明の電子内視鏡装置によると、被検体における自家蛍光の弱い部分を自家蛍光の強い部分から明瞭に区別した診断用画像信号が、取得される。さらに、この診断用画像信号が診断用画像として表示されると、術者は、この診断用画像を観察することにより、被検体の自家蛍光の弱い部分の位置及び形状を、正確に知ることができる。
【図面の簡単な説明】
【図1】 本発明の実施形態の電子内視鏡装置を示す構成図
【図2】 本発明の実施形態のホイール及びロータリーシャッタを示す図
【図3】 本発明の実施形態の照明及び画像取得のタイミングチャート
【図4】 本発明の実施形態の画像信号処理回路を示すブロック図
【図5】 本発明の第1実施形態の演算回路を示すブロック図
【図6】 通常観察状態における処理の説明図
【図7】 蛍光観察状態における処理の説明図
【図8】 本発明の第2実施形態の演算回路を示すブロック図
【図9】 輪郭強調回路を示すブロック図
【図10】 輪郭強調回路による処理を示す説明図
【図11】 本発明の第3実施形態の演算回路を示すブロック図
【図12】 診断用画像を示す模式図
【符号の説明】
1 電子内視鏡
11 配光レンズ
12 対物レンズ
13 ライトガイド
14 CCDエリアセンサ
2 外部装置(光源・プロセッサ装置)
20 光源ユニット
24 ホイール
24S 移動機構
24M モータ
T プロセッサ
T1 タイミングコントローラ
T2 画像信号処理回路
T27 演算回路
M 係数器
L 輪郭強調回路
T3 システムコントローラ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an electronic endoscope apparatus capable of observing fluorescence by autofluorescence emitted from a living body.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, an electronic endoscope apparatus for observation of a living body has been used by imaging fluorescence (autofluorescence) emitted from the living body when the living body as an object is irradiated with excitation light such as ultraviolet light. Yes. It is known that the intensity of autofluorescence emitted from a biological tissue in which a lesion has occurred is smaller than the intensity of autofluorescence emitted from a healthy biological tissue. Therefore, the surgeon can recognize that there is a high possibility that a lesion has occurred in a region having a low fluorescence intensity by observing the fluorescence image of the subject by the autofluorescence.
[0003]
This electronic endoscope apparatus images a subject illuminated by illumination light, a light source unit that alternately emits white light and excitation light, and an illumination optical system that guides the emitted white light and excitation light. A CCD is provided.
[0004]
Then, while the white light emitted from the illumination optical system illuminates the subject, the CCD acquires an image of the subject and outputs it as a reference image signal. On the other hand, when the excitation light emitted from the illumination optical system irradiates the subject, the subject emits autofluorescence. Then, the CCD captures the subject image by the autofluorescence and outputs it as a fluorescence image signal.
[0005]
A diagnostic image signal of the subject is generated based on the reference image signal and the fluorescence image signal. That is, the diagnostic image signal is generated by subtracting the fluorescence image signal from the portion corresponding to the specific color component in the reference image signal. This diagnostic image signal is displayed on the monitor as a diagnostic image.
[0006]
This diagnostic image is displayed in the same manner as a monochrome image for a portion of the subject where no autofluorescence is emitted. However, this diagnostic image is displayed in a state in which the portion of the subject where the autofluorescence is emitted is colored according to the intensity of the autofluorescence. Therefore, the operator can make a diagnosis by observing the diagnostic image, grasping the shape of the subject, and recognizing the intensity of autofluorescence in the subject.
[0007]
[Problems to be solved by the invention]
Since the autofluorescence emitted from the subject is extremely weak, the difference between the autofluorescence emitted from a healthy tissue and the autofluorescence emitted from a lesioned tissue is only slight. For this reason, the difference between a healthy tissue and a lesioned tissue in a diagnostic image is not always clear.
[0008]
Accordingly, it is an object of the present invention to provide an electronic endoscope apparatus that generates a diagnostic image signal in which a portion having weak autofluorescence in a subject can be clearly identified.
[0009]
[Means for Solving the Problems]
The electronic endoscope apparatus according to the present invention employs the following configuration in order to solve the above problems.
[0010]
That is, an illumination optical system that illuminates the subject, White light , And emits excitation light that excites fluorescence from the living tissue itself. White light A light source unit that alternately switches between excitation light and excitation light, and an object that forms an image of the subject surface by converging components other than the excitation light in the light from the subject surface. An optical system, an image sensor that captures an image of the surface of the subject formed by the objective optical system and converts the image into an image signal, and among the image signals acquired by the image sensor, the illumination optical system White light The reference image signal is acquired based on the portion corresponding to the period in which the excitation light is guided, the fluorescence image signal is acquired based on the portion corresponding to the period in which the excitation light is guided to the illumination optical system, and the acquired reference A difference signal is generated by subtracting the fluorescence image signal from the image signal, the generated difference signal is amplified, and the amplified difference signal is selected from a blue component, a green component, and a red component of the color image. A processor that outputs a diagnostic image signal that includes the acquired reference image signal as a color component other than the specific color component of the blue component, the green component, and the red component of the color image. It is characterized by that.
[0011]
With this configuration, the difference between the reference image signal and the fluorescence image signal is enhanced by amplifying the generated difference signal. Therefore, when the diagnostic image signal including the amplified difference signal is displayed on the monitor as a diagnostic image, the difference in the intensity of the autofluorescence of the subject is emphasized in the diagnostic image. ing.
[0012]
Further, the processor generates and generates a contour enhancement signal by performing image processing for enhancing the contour of the image on the difference signal generated by subtracting the fluorescence image signal from the acquired reference image signal. The edge enhancement signal is included as a specific color component selected from the blue component, the green component, and the red component of the color image, and the acquired reference image signal is included among the blue component, the green component, and the red component of the color image. A diagnostic image signal including a color component other than the specific color component may be output.
[0013]
In this case, when the diagnostic image signal including the generated contour enhancement signal is displayed on the monitor as a diagnostic image, the contour of the region corresponding to the weak part of the autofluorescence in the subject is emphasized in the diagnostic image. It is in the state that was done.
[0014]
Further, the processor may generate the contour emphasis signal by performing image processing for enhancing the contour of the image after amplifying the generated difference signal. In this case, when the diagnostic image signal including the generated contour enhancement signal is displayed as a diagnostic image on the monitor, the region corresponding to the weakly self-fluorescent portion of the subject is the contour of the diagnostic image. Is emphasized and the color and brightness are different from the surrounding area.
[0015]
The image signal to be processed may be a digital signal or an analog signal.
[0016]
DETAILED DESCRIPTION OF THE INVENTION
Hereinafter, an electronic endoscope apparatus according to an embodiment of the present invention will be described with reference to the drawings.
[0017]
[First Embodiment]
<Overall configuration of electronic endoscope apparatus>
FIG. 1 is a configuration diagram of the electronic endoscope apparatus. As shown in FIG. 1, the electronic endoscope apparatus includes an electronic endoscope 1 and an external device (light source / processor device) 2.
[0018]
First, an electronic endoscope (hereinafter abbreviated as an endoscope) 1 will be described. Although the shape of the endoscope 1 is not shown in FIG. 1, a flexible tubular insertion portion to be inserted into a living body, and an operation portion integrally connected to the proximal end side of the insertion portion , And a light guide flexible tube for connecting the operation unit and the external device 2.
[0019]
The distal end of the insertion portion of the endoscope 1 is sealed by a distal end portion (not shown) made of a hard member. Further, a bending mechanism (not shown) is incorporated in a predetermined region near the distal end of the insertion portion, and the region can be bent. The operation unit is provided with a dial for bending the bending mechanism and various operation switches.
[0020]
At least three openings are opened at the distal end portion of the endoscope 1, and two of the three openings are sealed by the light distribution lens 11 and the objective lens 12, respectively. . One of the other openings is used as a forceps hole.
[0021]
Furthermore, the endoscope 1 has a light guide 13. The light guide 13 is composed of a fiber bundle in which a large number of optical fibers are bundled. The light guide 13 has its distal end surface (outgoing surface) opposed to the light distribution lens 11 and is passed through the insertion portion, the operation portion, and the light guide flexible tube. Has been drawn. The light guide 13 and the light distribution lens 11 correspond to an illumination optical system.
[0022]
The endoscope 1 includes a CCD (charge-coupled device) area sensor 14 as an image sensor. The imaging surface of the CCD area sensor (hereinafter abbreviated as CCD) 14 is disposed at a position where the objective lens 12 connects the image of the subject in a state where the distal end portion of the endoscope 1 is disposed opposite to the subject. ing. An excitation light cut filter (not shown) is inserted in the optical path between the objective lens 12 and the CCD 14. This excitation light cut filter blocks the excitation light that excites the autofluorescence of the living body, White light Permeate. The objective lens 12 and the excitation light cut filter correspond to an objective optical system.
[0023]
In addition, the code | symbol 15 in FIG. 1 shows typically one of the some operation switches provided in the operation part of the endoscope 1. FIG. The operation switch 15 is used to switch between a normal observation state and a fluorescence observation state, which will be described later.
[0024]
Next, the external device 2 will be described. The external device 2 includes a light source unit 20 and a processor T having a timing controller T1, an image signal processing circuit T2, and a system controller T3.
[0025]
The light source unit 20 in the external device 2 includes a white light source 21 and an excitation light source 22. One white light source 21 has a xenon lamp and a reflector (not shown). The white light source 21 is a white light emitted by the xenon lamp. the light The light is emitted as parallel light by being reflected by a reflector. The other excitation light source 22 has a UV lamp and a reflector (not shown). The UV lamp of the excitation light source 22 emits excitation light in the ultraviolet band that excites the autofluorescence of the living body. And this excitation light source 22 is inject | emitted as parallel light by reflecting the excitation light which the UV lamp emitted with the reflector.
[0026]
A condenser lens 23 is disposed on the optical path of white light emitted from the white light source 21. The condensing lens 23 converges the incident parallel light on the base end surface (incident surface) of the light guide 13.
[0027]
An RGB wheel 24 is inserted at a predetermined position before the light guide 13 on the optical path of the convergent light emitted from the condenser lens 23. As shown in FIG. 2A, the RGB wheel 24 is formed in a disk shape, and three openings having the same shape are opened at equal intervals in a ring-shaped portion along the outer periphery thereof. Yes. In each of these openings, there are a B filter 241 that transmits only blue light (B light), a G filter 242 that transmits only green light (G light), and an R filter 243 that transmits only red light (R light). , Respectively.
[0028]
In the example shown in FIG. 2A, these filters 241 to 243 have the same shape, but the lengths of the wheel 24 along the circumferential direction may be different from each other. That is, the B filter 241, the G filter 242, and the R filter 243 may be formed in order from the longest length along the circumferential direction of the wheel 24.
[0029]
As shown in FIG. 1, the RGB wheel 24 is connected to a motor 24M. The RGB wheel 24 is rotated by being driven by the motor 24M, and the B filter 241, the G filter 242, and the R filter 243 are sequentially inserted into the optical path. The motor 24M is attached to the moving mechanism 24S. The moving mechanism 24S moves the motor 24M and the RGB wheel 24 in the vertical direction in FIG. That is, the moving mechanism 24S moves the RGB wheel 24 to an insertion position where the filters 241 to 243 can be inserted into the optical path or a retracted position retracted from the optical path.
[0030]
Note that the RGB wheel 24 in FIG. 1 is in the retracted position. And this RGB wheel 24 takes an insertion position by moving upwards in the up-down direction of FIG. 1 from the state of FIG. The motor 24M and the moving mechanism 24S connected to the RGB wheel 24 correspond to a wheel driving mechanism.
[0031]
Further, the first rotary shutter 25 is inserted immediately after the white light source 21 on the optical path of the white light emitted from the white light source 21. As shown in FIG. 2B, the rotary shutter 25 is formed in a disc shape, and one opening is opened in a ring-shaped portion along the outer periphery thereof. This opening is filled with a transparent parallel plate-shaped optical member. This optical member is a transmission part 251 that transmits white light.
[0032]
As shown in FIG. 1, the rotary shutter 25 is connected to a motor 25M. The rotary shutter 25 is rotated by being driven by the motor 25M, and the transmission part 251 is intermittently inserted into the optical path. The motor 25M is attached to the moving mechanism 25S. The moving mechanism 25S moves the motor 25M and the rotary shutter 25 in the vertical direction in FIG. That is, the moving mechanism 25S moves the rotary shutter 25 to an insertion position where the opening 251 can be inserted into the optical path or a retracted position retracted from the optical path. Note that the rotary shutter 25 in FIG. 1 is in the insertion position. The rotary shutter 25 takes the retracted position by moving upward in the vertical direction of FIG. 1 from the state of FIG.
[0033]
Note that, at a predetermined position between the rotary shutter 25 and the condenser lens 23, the optical path of the white light and the optical path of the excitation light are orthogonal to each other. That is, the excitation light source 22 is disposed so that the excitation light emitted is orthogonal to the optical path of the white light at the predetermined position on the optical path of the white light emitted from the white light source 21. A half mirror 26 is inserted at a position where the optical paths of the white light and the excitation light are orthogonal to each other. The half mirror 26 reflects the excitation light so that the excitation light travels on the same optical path as the white light optical path transmitted through the half mirror 26.
[0034]
A second rotary shutter 27 is inserted at a position before the half mirror 26 on the optical path of the excitation light emitted from the excitation light source 22. As shown in FIG. 2C, the rotary shutter 27 is formed in a disk shape, and one opening is opened in a ring-shaped portion along the outer periphery thereof. This opening is filled with a transparent parallel plate-shaped optical member. This optical member is a transmission part 271 that transmits excitation light.
[0035]
As shown in FIG. 1, the rotary shutter 27 is connected to a motor 27M. The rotary shutter 27 is rotated by being driven by the motor 27M, and the transmission part 271 is intermittently inserted into the optical path.
[0036]
The half mirror 26 and the motor 27M are fixed with respect to the stage 28. The stage 28 is connected to a stage moving mechanism 29. The stage moving mechanism 29 moves the half mirror 26, the motor 27M, and the rotary shutter 27 in the vertical direction in FIG. That is, the stage moving mechanism 29 moves the stage 28 to an insertion position where the half mirror 26 is inserted into the white light optical path or a retreat position where the half mirror 26 is retracted from the white light optical path. Note that the stage 28 in FIG. 1 is in the insertion position. Then, the stage 28 takes the retracted position by moving downward from the state shown in FIG. 1 in the vertical direction of FIG.
[0037]
In addition, the timing controller T1, the image signal processing circuit T2, and the system controller T3 in the processor T are connected to each other. The timing controller T1 of the processor T is connected to each of the motors 24M, 25M, and 27M. The timing controller T1 rotates these motors 24M, 25M, and 27M at a constant speed in synchronization with each other.
[0038]
The system controller T3 of the processor T is connected to the moving mechanisms 24S and 25S and the stage moving mechanism 29, respectively. The system controller T3 moves the RGB wheel 24 to the insertion position by controlling the moving mechanism 24S, and controls the moving mechanism 25S and the stage moving mechanism 29, respectively, The stage 28 can be moved to the retracted position. In this state, the light source unit 20 is referred to as being in a normal observation state.
[0039]
On the other hand, as shown in FIG. 1, the system controller T3 moves the RGB wheel 24 to the retracted position by controlling the moving mechanism 24S, and controls the moving mechanism 25S and the stage moving mechanism 29, respectively. The first rotary shutter 25 and the stage 28 can be moved to the insertion position. In this state, the light source unit 20 is referred to as being in the fluorescence observation state.
[0040]
The system controller T3 switches the light source unit 20 to the normal observation state or the fluorescence observation state according to the state of the operation switch 15. That is, the surgeon switches the light source unit 20 to the normal observation state or the fluorescence observation state by switching the operation switch 15.
[0041]
When the light source unit 20 is in a normal observation state, white light emitted from the white light source 21 enters the condenser lens 23. On the other hand, since the stage 28 is in the retracted position, the excitation light emitted from the excitation light source 22 does not enter the condenser lens 23. The first rotary shutter 25 is also in the retracted position. Accordingly, when the light source unit 20 is in the normal observation state, only white light is always incident on the condenser lens 23.
[0042]
The white light transmitted through the condenser lens 23 is sequentially converted into B light, G light, and R light by the filters 241 to 243 of the RGB wheel 24. These B light, G light, and R light converge on the base end face (incident surface) of the light guide 13. The B light, G light, and R light are guided by the light guide 13 and travel toward the light distribution lens 11. Then, the B light, the G light, and the R light are sequentially and repeatedly emitted from the light distribution lens 11.
[0043]
When the B light, G light, and R light emitted from the light distribution lens 11 sequentially irradiate the subject, the objective lens 12 of the endoscope 1 is located near the imaging surface of the CCD 14. Form an image. This subject image is converted into an image signal by the CCD 14. The CCD 14 is connected to the timing controller T1 of the processor T, and outputs an image signal in accordance with the drive signal transmitted from the timing controller T1. The image signal processing circuit T2 of the processor T is connected to the CCD 14 and acquires an image signal output from the CCD 14.
[0044]
FIG. 3 is a timing chart of illumination and image acquisition according to this embodiment. 3A shows a drive signal to the CCD 14 output from the timing controller T1 when the light source unit 20 is in the normal observation state. FIG. 3B shows the irradiation period of B light, G light, and R light emitted from the light distribution lens 11 toward the subject when the light source unit 20 is in a normal observation state. ing.
[0045]
As shown in FIGS. 3A and 3B, the “B irradiation” period in which the B light is emitted from the light distribution lens 11 corresponds to the “B accumulation” period of the CCD 14. That is, in a state where the subject is irradiated with the B light, charges corresponding to the subject image by the B light are accumulated in each pixel of the CCD 14. The charges accumulated in this way are transmitted to the image signal processing circuit T2 as a B image signal during the “B transfer” period immediately after.
[0046]
The “G accumulation” period immediately after the “B transfer” period corresponds to the “G irradiation” period in which the G light is emitted from the light distribution lens 11. During this “G accumulation” period, charges corresponding to the subject image by the G light are accumulated in each pixel of the CCD 14. The charges accumulated in this way are transmitted to the image signal processing circuit T2 as a G image signal during the “G transfer” period immediately after.
[0047]
The “R accumulation” period immediately after the “G transfer” period corresponds to the “R irradiation” period in which the R light is emitted from the light distribution lens 11. In this “R accumulation” period, charges corresponding to the subject image by R light are accumulated in each pixel of the CCD 14. The charges accumulated in this way are transmitted to the image signal processing circuit T2 as an R image signal during the immediately following “R transfer” period.
[0048]
The image signal processing circuit T2 generates a color image signal indicating a color image of the subject based on the B image signal, the G image signal, and the R image signal, as will be described later. The image signal processing circuit T2 is connected to the monitor 3. Then, the image signal processing circuit T2 displays a color image of the subject on the monitor 3 based on the generated color image signal.
[0049]
Next, the case where the light source unit 20 is in the fluorescence observation state will be described. In this case, white light emitted from the white light source 21 is emitted toward the half mirror 26 only during a period in which the transmission part 251 of the first rotary shutter 25 is inserted in the optical path. On the other hand, the excitation light emitted from the excitation light source 22 is emitted toward the half mirror 26 only during the period when the transmission part 271 of the second rotary shutter 27 is inserted in the optical path.
[0050]
Note that the timing controller T1 is configured so that the transmission part 271 of the second rotary shutter 27 is inserted into the optical path during the period when the transmission part 251 of the first rotary shutter 25 is not inserted into the optical path, and The motors 25M and 27M are respectively set so that the transmission part 251 of the first rotary shutter 25 is inserted into the optical path during a period when the transmission part 271 of the second rotary shutter 27 is not inserted into the optical path. It is rotating at a constant speed.
[0051]
For this reason, white light and excitation light are alternately and repeatedly incident on the half mirror 26. The white light transmitted through the half mirror 26 is converged on the incident surface of the light guide 13 by the condenser lens 23. On the other hand, the excitation light reflected by the half mirror 26 is converged on the incident surface of the light guide 13 by the condenser lens 23. The white light and the excitation light are alternately guided by the light guide 13 toward the light distribution lens 11. Then, the white light and the excitation light are repeatedly emitted from the light distribution lens 11 alternately.
[0052]
During the period in which the subject is illuminated with white light, the light reflected on the subject surface is converged by the objective lens 12 to form a subject image in the vicinity of the imaging surface of the CCD 14. This subject image is converted into an image signal by the CCD 14.
[0053]
On the other hand, during the period in which the subject is irradiated with excitation light, the subject emits autofluorescence. For this reason, the autofluorescence emitted from the subject and the excitation light reflected on the subject surface are incident on the objective lens 12. However, since the excitation light is blocked by an excitation light cut filter (not shown), a subject image is formed only by the subject's autofluorescence near the imaging surface of the CCD 14. This subject image is converted into an image signal by the CCD 14.
[0054]
The CCD 14 outputs an image signal in accordance with the drive signal transmitted from the timing controller T1. The image signal processing circuit T2 of the processor T acquires the image signal output from the CCD 14. FIG. 3C shows a drive signal of the CCD 14 output from the timing controller T1 when the light source unit 20 is in the fluorescence observation state. FIG. 3D shows excitation light (UV light) and white light (W light) emitted from the light distribution lens 11 toward the subject when the light source unit 20 is in the fluorescence observation state. The irradiation period is shown.
[0055]
As shown in FIGS. 3C and 3D, the “W irradiation” period in which W light is emitted from the light distribution lens 11 corresponds to the “W accumulation” period of the CCD 14. That is, in a state where the subject is irradiated with W light, charges corresponding to the subject image by the W light are accumulated in each pixel of the CCD 14. The charges accumulated in this way are transmitted to the image signal processing circuit T2 as a W image signal (reference image signal) during the immediately subsequent “W transfer” period.
[0056]
On the other hand, the “UV irradiation” period in which the UV light is emitted from the light distribution lens 11 corresponds to the “F accumulation” period of the CCD 14. That is, in a state where the subject is irradiated with UV light, charges corresponding to the subject image due to autofluorescence (F light) are accumulated in each pixel of the CCD 14. The charges accumulated in this way are transmitted to the image signal processing circuit T2 as an F image signal (fluorescence image signal) during the immediately subsequent “F transfer” period.
[0057]
<Configuration of image signal processing circuit>
The image signal processing circuit T2 is a circuit that acquires and processes the image signal output from the CCD 14 and causes the monitor 3 to display an image. FIG. 4 is a block diagram showing the image signal processing circuit T2. As shown in FIG. 4, the image signal processing circuit T2 includes a CCD process circuit T21, an A / D converter T22, a frame memory T23, three memories T24 to T26, an arithmetic circuit T27, each connected to a timing controller T1. And a video process circuit T28.
[0058]
The CCD process circuit T21 is connected to the CCD 14. Then, the CCD process circuit T21 acquires the image signal output from the CCD 14, outputs it after performing processing such as white balance adjustment and γ correction. The A / D converter T22 performs A / D conversion on the image signal output from the CCD process circuit T21 and outputs it as a digital image signal (image data).
[0059]
The frame memory T23 has a storage area capable of storing predetermined plural bits of data for each pixel of the CCD 14. The image data output from the A / D converter T22 is temporarily stored in the frame memory T23. The signal stored in the frame memory T23 is output at a predetermined timing different from that at the time of input.
[0060]
Each of the three memories T24 to T26 has a storage area capable of storing a predetermined plurality of bits of data for each pixel of the CCD 14. Each of these memories T24 to T26 is connected to a frame memory T23. In each of the memories T24 to T26, image data output from the frame memory T23 during a period designated by the timing controller T1 is stored.
[0061]
FIG. 5 is a block diagram of the arithmetic circuit T27. The arithmetic circuit T27 includes a subtracter, a coefficient unit M, and a pair of switches SW1 and SW2. The coefficient unit M is connected to the memories T24 and T25 through a subtracter. The coefficient unit M obtains difference data (difference signal) between the data read from the memory T25 and the data read from the memory T24, and sets a predetermined coefficient value to the luminance value of each pixel. Amplification by multiplication.
[0062]
The first switch SW1 and the second switch SW2 are each connected to the system controller T3 by a signal line (not shown). Then, the system controller T3 switches both the switches SW1 and SW2 to output the image data read from the memories T24, T25 and T26 to the three output terminals P1 to P3.
[0063]
As shown in FIG. 4, the arithmetic circuit T27 is connected to the video process circuit T28. Further, the video process circuit T28 is connected to the monitor 3. The data output from the output terminals P1, P2, and P3 of the arithmetic circuit T27 shown in FIG. 5 is input to the video process circuit T28 as the B component, G component, and R component of the color image, respectively.
[0064]
The video process circuit T28 obtains analog B image signals, G image signals, and R image signals by performing D / A conversion on data corresponding to the B component, G component, and R component, respectively. Further, the video process circuit T28 outputs a synchronization signal based on a predetermined specification for moving image display to the monitor 3 together with the B image signal, the G image signal, and the R image signal. The monitor 3 displays a color image as a moving image on the screen based on the B image signal, the G image signal, the R image signal, and the synchronization signal.
[0065]
The first switch SW1 in the arithmetic circuit T27 shown in FIG. 5 is for selecting an output to the first output terminal P1. That is, the first switch SW1 is in the normal observation state in which the image data read from the first memory T24 is output to the first output terminal P1, or the fluorescence in which the data output from the coefficient unit M is output. Switch to the observation state. However, the first switch SW1 in FIG. 5 is in a normal observation state.
[0066]
The second switch SW2 in the arithmetic circuit T27 is for selecting an output to the third output terminal P3. That is, the second switch SW2 outputs the image data read from the third memory T26 to the third output terminal P3, or the image data read from the second memory T25. Is switched to the fluorescence observation state. However, the second switch SW2 in FIG. 5 is in a normal observation state.
[0067]
The image data output to the first output terminal P1 and the third output terminal P3 are switched by the switches SW1 and SW2, respectively, whereas the second output terminal P2 is always the second data. The image data read from the memory T25 is output.
[0068]
Then, the system controller T3 sets the switches SW1 and SW2 of the light source unit 20 and the arithmetic circuit T27 to the normal observation state, respectively, thereby giving the arithmetic circuit T27 data indicating the color image of the subject. It can be transmitted to the video process circuit T28. FIG. 6 is an explanatory diagram of processing in the normal observation state.
[0069]
On the other hand, the system controller T3 switches the switches SW1 and SW2 of the light source unit 20 and the arithmetic circuit T27 to the fluorescence observation state, respectively, and thereby outputs the data output from the coefficient unit M and the memory to the arithmetic circuit T27. The data read from T25 can be transmitted to the video process circuit T28. FIG. 7 is an explanatory diagram of processing in the fluorescence observation state.
[0070]
The system controller T3 switches the switches SW1 and SW2 together with the light source unit 20 to the normal observation state or the fluorescence observation state according to the state of the operation switch 15. That is, the surgeon switches the light source unit 20 and the switches SW1 and SW2 to the normal observation state or the fluorescence observation state by switching the operation switch 15.
[0071]
First, the processing when the light source unit 20 and the switches SW1 and SW2 are set to the normal observation state will be described with reference to FIGS. In this case, the B image signal, the G image signal, and the R image signal are sequentially and repeatedly output from the CCD 14. These B image signal, G image signal, and R image signal are converted into B image data, G image data, and R image data by being processed by the CCD process circuit T21 and the A / D converter T22, respectively. . These B image data, G image data, and R image data are temporarily stored in the frame memory T23 and then read out from the frame memory T23.
[0072]
The B image data read from the frame memory T23 is stored in the first memory T24. Next, the G image data read from the frame memory T23 is stored in the second memory T25. Next, the R image data read from the frame memory T23 is stored in the third memory T26.
[0073]
These B image data, G image data, and R image data are respectively read from the memories T24 to T26 at a predetermined timing and output to the arithmetic circuit T27. Since the switches SW1 and SW2 are in the normal observation state, B image data, G image data, and R image data are output to the output terminals P1 to P3, respectively. That is, as shown in FIG. 6, the B image data, G image data, and R image data read from the memories T24 to T26 are output to the output terminals P1, P2, and P3.
[0074]
The video process circuit T28 performs D / A conversion on the B image data, the G image data, and the R image data, thereby obtaining an analog B image signal, a G image signal, and an R image signal, together with a synchronization signal. Then, it is transmitted to the monitor 3 as a normal image signal. Then, a moving image of the color image of the subject is displayed on the monitor 3.
[0075]
Next, processing when the light source unit 20 and the switches SW1 and SW2 are set to the fluorescence observation state will be described with reference to FIGS. In this case, the F image signal and the W image signal are alternately and repeatedly output from the CCD 14. These F image signal and W image signal are converted into F image data and W image data by being processed by the CCD process circuit T21 and the A / D converter T22, respectively. That is, the F image data and the W image data are alternately output from the A / D converter T22. These F image data and W image data are temporarily stored in the frame memory T23 and then read out from the frame memory T23.
[0076]
The F image data is stored in the first memory T24 while the F image data is being read from the frame memory T23. Next, during the period when the W image data is read from the frame memory T23, the W image data is stored in the second memory T25.
[0077]
These F image data and W image data are read out from the memories T24 and T25, respectively, at a predetermined timing. Since the switches SW1 and SW2 are in the fluorescence observation state, as shown in FIG. 7, W image data is output to the second output terminal P2 and the third output terminal P3. However, the data output from the coefficient multiplier M is output to the first output terminal P1. That is, the difference data between the W image data and the F image data is amplified by the coefficient unit M and then output to the first output terminal P1.
[0078]
The video process circuit T28 D / A converts the image data output from each of these output terminals P1 to P3, and transmits it to the monitor 3 as a diagnostic image signal together with a synchronization signal. Then, an image of the subject (diagnosis image) is displayed on the monitor 3 as a moving image.
[0079]
If only the W image data is output to the output terminals P1 to P3, the monitor 3 displays a monochrome image of the subject in a state where white light is irradiated. However, actually, as described above, the difference data obtained by subtracting the F image data from the W image data is amplified and output to the first output terminal P1.
[0080]
For this reason, in the diagnostic image displayed on the monitor 3, the area corresponding to the part where the subject's autofluorescence is not emitted at all is equal to or blue in the monochrome image of the part. The region corresponding to the portion where the autofluorescence is emitted is colored according to the intensity of the autofluorescence.
[0081]
<Operation of First Embodiment>
As described above, when the switches SW1 and SW2 of the light source unit 20 and the arithmetic circuit T27 are set to the fluorescence observation state, the arithmetic circuit T27 reads the W image data read from the memory T25 and the memory T24. The difference data with the read F image data is amplified by the coefficient unit M and output. For this reason, in the diagnostic image displayed on the monitor 3, the difference in the intensity of autofluorescence in the subject is emphasized. Therefore, since the operator can discriminate a slight difference in the intensity of autofluorescence, the operator can clearly distinguish between a healthy tissue portion and a lesioned portion in the subject.
[0082]
Second Embodiment
The electronic endoscope apparatus of the present embodiment is characterized in that, in the configuration of the electronic endoscope apparatus of the first embodiment, the arithmetic circuit T27 is replaced with the arithmetic circuit T27 ′ of the present embodiment. .
[0083]
FIG. 8 is a block diagram of the arithmetic circuit T27 ′. As shown in FIG. 8, the arithmetic circuit T27 ′ has a subtracter, an outline emphasizing circuit L, and a pair of switches SW1 and SW2. The contour emphasis circuit L is connected to each of the memories T24 and T25 via a subtracter. The contour enhancement circuit L acquires difference data between the data read from the memory T25 and the data read from the memory T24, and performs image processing on the acquired difference data and outputs the difference data.
[0084]
Both switches SW1 and SW2 are configured in the same manner as in the first embodiment. Then, the first switch SW1 outputs to the first output terminal P1 the normal observation state in which the image data read from the first memory T24 is output, or the data output from the contour enhancement circuit L. Switch to the fluorescence observation state. However, the first switch SW1 in FIG. 8 is in a fluorescence observation state.
[0085]
The second switch SW2 outputs the image data read from the third memory T26 or the image data read from the second memory T25 to the third output terminal P3. To the fluorescence observation state. However, the second switch SW2 in FIG. 8 is in a fluorescence observation state.
[0086]
When the light source unit 20 and the switches SW1 and SW2 of the arithmetic circuit T27 ′ are set to the normal observation state, the B image data, the G image data, and the R image data are stored in the memories T24 to T26, respectively. The data indicating the color image of the subject is output from the output terminals P1 to P3 of the arithmetic circuit T27 ′.
[0087]
On the other hand, when the switches SW1 and SW2 of the light source unit 20 and the arithmetic circuit T27 ′ are set to the fluorescence observation state, the F image data and the W image data are stored in the memories T24 and T25, respectively. The data from the contour emphasis circuit L is output from the output terminal P1 of the arithmetic circuit T27 ′, and W image data is output from the output terminals P2 and P3.
[0088]
FIG. 9 is a block diagram of the contour enhancement circuit L. As shown in FIG. 9, the edge enhancement circuit L includes a pair of one-line delay devices L1, L2, four one-pixel delay devices L3 to L6, five coefficient devices Lb, Ld, Le, Lf, Lh, and , One adder L7.
[0089]
When the light source unit 20 is set to the fluorescence observation state, difference data between the W image data and the F image data is input to the contour enhancement circuit L. This difference data is processed in units of frames. This frame includes a plurality of lines, and the lines include a plurality of pixels. Then, difference data is input to the contour emphasis circuit L in order from the first pixel in the first line in the one frame. After all the pixels in the first line are input in order, each pixel in the next line is input in order from the top. Thereafter, similarly, input regarding the remaining lines is performed, whereby input regarding the frame is completed, and input regarding the next frame is started.
[0090]
Each one-line delay unit L1, L2 shown in FIG. 9 outputs the input data at a timing delayed by approximately one line. Each one-pixel delay unit L3 to L6 outputs the input data at a timing delayed by one pixel. Each coefficient unit Lb, Ld, Le, Lf, Lh multiplies the input data (luminance value of each pixel) by a predetermined coefficient value set in advance and outputs the result. As shown in FIG. 10A, the coefficient value of the coefficient multiplier Le is set to “5”. On the other hand, the coefficient values of the other coefficient units Lb, Ld, Lf, and Lh are all set to “−1”.
[0091]
The adder L7 acquires the data output from these coefficient units Lb, Ld, Le, Lf, and Lh, and calculates and outputs the sum of the acquired data. The output from the adder L7 is the output of the contour enhancement circuit L.
[0092]
The difference data between the W image data and the F image data input to the contour enhancement circuit L having the above configuration is input to the 1-pixel delay device L3 and the 1-line delay device L1, respectively. That is, the difference data is sequentially input to the 1-pixel delay device L3 and the 1-line delay device L1 pixel by pixel.
[0093]
The data input to the one-pixel delay unit L3 is output at a timing delayed by one pixel and is input to the coefficient unit Lh. On the other hand, the data input to the one-line delay device L1 is output at a timing delayed by approximately one line. The data output from the one-line delay device L1 is input to the one-pixel delay device L4, the one-line delay device L2, and the coefficient device Ld, respectively.
[0094]
The data input to the one-pixel delay device L4 is output at a timing delayed by one pixel and is input to the one-pixel delay device L5 and the coefficient device Le. Note that the data input to the one-pixel delay unit L5 is further output at a timing delayed by one pixel and is input to the coefficient unit Lf. On the other hand, the data input to the one-line delay device L2 is output at a timing further delayed by one line. The data output from the 1-line delay device L2 is input to the 1-pixel delay device L6. The data input to the one-pixel delay unit L6 is output at a timing delayed by one pixel and is input to the coefficient unit Lb.
[0095]
FIG. 10B is a schematic diagram when the difference data input to the contour enhancement circuit L is virtually displayed on the screen. In this figure, the pixels of the difference data are arranged in a grid pattern. If the pixel in the lower right corner in FIG. 10B is a reference pixel, when this reference pixel is input to the contour enhancement circuit L, that is, when this reference pixel is input to the one-pixel delay device L3, From the one-pixel delay unit L3, the pixel “h” that has already been input immediately before the reference pixel is output and input to the coefficient unit Lh.
[0096]
At the same time, the “d” pixel in the line including the “d”, “e”, and “f” pixels in FIG. 10B is output from the one-line delay device L1. The pixel “d” is input to the coefficient multiplier Ld. At the same time, the pixel “e” is output from the one-pixel delay device L4. The pixel “e” is input to the coefficient unit Le. At the same time, the pixel “f” is output from the one-pixel delay device L5. The pixel “f” is input to the coefficient multiplier Lf.
[0097]
At the same time, the pixel in the upper right corner in FIG. 10B is output from the one-line delay device L2. The pixel in the upper right corner is input to the one-pixel delay device L6. At the same time, the pixel “b” in FIG. 10B is output from the one-pixel delay device L6. This “b” pixel is input to the coefficient multiplier Lb.
[0098]
Therefore, the pixel “e” in FIG. 10B and the four pixels (“b”, “d”, “f”, “h”) adjacent to this pixel are the coefficient multipliers Le, Lb. , Ld, Lf, and Lh, respectively. The coefficient unit Le multiplies the luminance value of the input pixel by “5” and outputs the result. On the other hand, each of other coefficient units Lb, Ld, Lf, and Lh multiplies the luminance value of the input pixel by “−1” and outputs the result. Furthermore, the adder L7 adds and outputs the values output from these coefficient units Le, Lb, Ld, Lf, and Lh.
[0099]
That is, the contour emphasizing circuit L calculates the luminance values of four adjacent pixels (“b”, “d”, “f”, “h”) from the value obtained by multiplying the luminance value of the pixel “e” by five. Processing to subtract. As shown in FIG. 10, the edge enhancement circuit L is equivalent to a sharpening filter that performs sharpening. For this reason, the data output from the contour emphasizing circuit L is data (contour emphasizing signal) in which the contour of an area made up of pixels having substantially the same luminance value is emphasized.
[0100]
When the switches SW1 and SW2 of the light source unit 20 and the arithmetic circuit T27 ′ are set to the fluorescence observation state, the image data output from the output terminals P1 to P3 of the arithmetic circuit T27 ′ is Similar to the first embodiment, the video process circuit T28 performs D / A conversion, and transmits it to the monitor 3 as a diagnostic image signal together with a synchronization signal. Then, an image of the subject (diagnosis image) is displayed on the monitor 3 as a moving image. In this diagnostic image, the boundary between the weak and strong autofluorescence portions of the subject is emphasized. Therefore, the surgeon can clearly distinguish between a healthy part and a suspected lesion part in the subject.
[0101]
[Third Embodiment]
The electronic endoscope apparatus of the present embodiment is characterized in that, in the configuration of the electronic endoscope apparatus of the first embodiment, the arithmetic circuit T27 is replaced with the arithmetic circuit T27 ″ of the present embodiment. Yes.
[0102]
FIG. 11 is a block diagram of the arithmetic circuit T27 ″. As shown in FIG. 11, in the configuration of the arithmetic circuit T27 (FIG. 5) of the first embodiment, the arithmetic circuit T27 ″ has a contour of the second embodiment between the coefficient multiplier M and the switch SW1. A feature is that the emphasis circuit L (FIGS. 8 and 9) is inserted.
[0103]
When the switches SW1 and SW2 of the light source unit 20 and the arithmetic circuit T27 ″ are respectively set to the fluorescence observation state, the coefficient unit M includes the W image data from the memory T25 and the F image from the memory T24. The difference signal with the data is input. Then, the coefficient unit M amplifies this differential signal and outputs it. The amplified difference signal is processed and sharpened in the edge enhancement circuit L.
[0104]
The data output from the contour emphasizing circuit L is output to the output terminal P1. A W image signal from the memory T25 is output to each of the output terminals P2 and P3. The image data output from each of the output terminals P1 to P3 is D / A converted by the video process circuit T28 and transmitted to the monitor 3 as a diagnostic image signal together with the synchronization signal, as in the first and second embodiments. Is done. Then, an image of the subject (diagnosis image) is displayed on the monitor 3 as a moving image.
[0105]
FIG. 12 is a schematic diagram showing a diagnostic image displayed on the monitor 3. A portion H of the subject having weak autofluorescence is displayed in a color different from that of the portion having strong autofluorescence. Note that since the coefficient unit M of the arithmetic circuit T27 ″ amplifies the difference data, the difference in the intensity of the autofluorescence in the diagnostic image is emphasized. Furthermore, since the contour emphasizing circuit L of the arithmetic circuit T27 ″ performs sharpening processing on the data output from the coefficient unit M, the contour of the portion H where the subject's autofluorescence is weak in the diagnostic image. Is emphasized.
[0106]
Accordingly, the surgeon can clearly distinguish a portion of the subject having weak autofluorescence, that is, a portion suspected of having a lesion from other portions, so that the accuracy of diagnosis can be improved.
[0107]
【The invention's effect】
According to the electronic endoscope apparatus of the present invention configured as described above, a diagnostic image signal is obtained in which a portion with weak autofluorescence in a subject is clearly distinguished from a portion with strong autofluorescence. Furthermore, when this diagnostic image signal is displayed as a diagnostic image, the surgeon can accurately know the position and shape of the weakly autofluorescent portion of the subject by observing the diagnostic image. it can.
[Brief description of the drawings]
FIG. 1 is a configuration diagram showing an electronic endoscope apparatus according to an embodiment of the present invention.
FIG. 2 is a view showing a wheel and a rotary shutter according to the embodiment of the present invention.
FIG. 3 is a timing chart of illumination and image acquisition according to the embodiment of the present invention.
FIG. 4 is a block diagram showing an image signal processing circuit according to the embodiment of the present invention.
FIG. 5 is a block diagram showing an arithmetic circuit according to the first embodiment of the present invention.
FIG. 6 is an explanatory diagram of processing in a normal observation state
FIG. 7 is an explanatory diagram of processing in a fluorescence observation state.
FIG. 8 is a block diagram showing an arithmetic circuit according to a second embodiment of the present invention.
FIG. 9 is a block diagram showing an edge enhancement circuit
FIG. 10 is an explanatory diagram showing processing by an edge enhancement circuit
FIG. 11 is a block diagram showing an arithmetic circuit according to a third embodiment of the present invention.
FIG. 12 is a schematic diagram showing a diagnostic image.
[Explanation of symbols]
1 Electronic endoscope
11 Light distribution lens
12 Objective lens
13 Light guide
14 CCD area sensor
2 External device (light source / processor device)
20 Light source unit
24 wheel
24S moving mechanism
24M motor
T processor
T1 timing controller
T2 Image signal processing circuit
T27 arithmetic circuit
M coefficient unit
L Outline enhancement circuit
T3 system controller

Claims (7)

被検体を照明する照明光学系と、
白色光,及び,生体組織自体からの蛍光を励起する励起光を発し、これら白色光と励起光とを交互に切り換えて繰り返し前記照明光学系へ導く光源ユニットと、
前記被検体表面からの光のうちの励起光以外の成分を収束させて、この被検体表面の像を形成する対物光学系と、
前記対物光学系によって形成された被検体表面の像を撮像して画像信号に変換する撮像素子と、
前記撮像素子により取得された画像信号のうち、前記照明光学系に白色光が導かれている期間に対応する部分に基づいて参照画像信号を取得し、前記照明光学系に励起光が導かれている期間に対応する部分に基づいて蛍光画像信号を取得し、取得した参照画像信号から蛍光画像信号を減算することにより差分信号を生成し、生成した差分信号を増幅し、増幅した差分信号を、カラー画像の青色成分,緑色成分,及び赤色成分から選択される特定の色成分として含むとともに、取得した参照画像信号を、カラー画像の青色成分,緑色成分,及び赤色成分のうちの前記特定の色成分以外の色成分として含む診断用画像信号を出力するプロセッサと
を備えたことを特徴とする電子内視鏡装置。
An illumination optical system for illuminating the subject;
A light source unit that emits white light and excitation light that excites fluorescence from the living tissue itself, and alternately switches the white light and the excitation light to the illumination optical system;
An objective optical system that converges components other than excitation light in the light from the subject surface to form an image of the subject surface;
An image sensor that captures an image of the surface of the subject formed by the objective optical system and converts the image into an image signal;
A reference image signal is acquired based on a portion corresponding to a period in which white light is guided to the illumination optical system among image signals acquired by the imaging device, and excitation light is guided to the illumination optical system. A fluorescence image signal is acquired based on a portion corresponding to a period of time, a difference signal is generated by subtracting the fluorescence image signal from the acquired reference image signal, the generated difference signal is amplified, and the amplified difference signal is A specific color component selected from a blue component, a green component, and a red component of the color image, and the acquired reference image signal is the specific color of the blue component, the green component, and the red component of the color image. An electronic endoscope apparatus comprising: a processor that outputs a diagnostic image signal including color components other than the components.
被検体を照明する照明光学系と、
白色光,及び,生体組織自体からの蛍光を励起する励起光を発し、これら白色光と励起光とを交互に切り換えて繰り返し前記照明光学系へ導く光源ユニットと、
前記被検体表面からの光のうちの励起光以外の成分を収束させて、この被検体表面の像を形成する対物光学系と、
前記対物光学系によって形成された被検体表面の像を撮像して画像信号に変換する撮像素子と、
前記撮像素子により取得された画像信号のうち、前記照明光学系に白色光が導かれている期間に対応する部分に基づいて参照画像信号を取得し、前記照明光学系に励起光が導かれている期間に対応する部分に基づいて蛍光画像信号を取得し、取得した参照画像信号から蛍光画像信号を減算することにより差分信号を生成し、生成した差分信号に対して画像の輪郭を強調する画像処理を施すことにより、輪郭強調信号を生成し、生成した輪郭強調信号を、カラー画像の青色成分,緑色成分,及び赤色成分から選択される特定の色成分として含むとともに、取得した参照画像信号を、カラー画像の青色成分,緑色成分,及び赤色成分のうちの前記特定の色成分以外の色成分として含む診断用画像信号を出力するプロセッサと
を備えたことを特徴とする電子内視鏡装置。
An illumination optical system for illuminating the subject;
A light source unit that emits white light and excitation light that excites fluorescence from the living tissue itself, and alternately switches the white light and the excitation light to the illumination optical system;
An objective optical system that converges components other than excitation light in the light from the subject surface to form an image of the subject surface;
An image sensor that captures an image of the surface of the subject formed by the objective optical system and converts the image into an image signal;
A reference image signal is acquired based on a portion corresponding to a period in which white light is guided to the illumination optical system among image signals acquired by the imaging device, and excitation light is guided to the illumination optical system. An image that acquires a fluorescence image signal based on a portion corresponding to a certain period, generates a difference signal by subtracting the fluorescence image signal from the acquired reference image signal, and emphasizes the contour of the image with respect to the generated difference signal By performing processing, an edge enhancement signal is generated, and the generated edge enhancement signal is included as a specific color component selected from a blue component, a green component, and a red component of the color image, and the acquired reference image signal is included. And a processor that outputs a diagnostic image signal including a color component other than the specific color component of the blue component, the green component, and the red component of the color image. That electronic endoscope apparatus.
被検体を照明する照明光学系と、
白色光,及び,生体組織自体からの蛍光を励起する励起光を発し、これら白色光と励起光とを交互に切り換えて繰り返し前記照明光学系へ導く光源ユニットと、
前記被検体表面からの光のうちの励起光以外の成分を収束させて、この被検体表面の像を形成する対物光学系と、
前記対物光学系によって形成された被検体表面の像を撮像して画像信号に変換する撮像素子と、
前記撮像素子により取得された画像信号のうち、前記照明光学系に白色光が導かれている期間に対応する部分に基づいて参照画像信号を取得し、前記照明光学系に励起光が導かれている期間に対応する部分に基づいて蛍光画像信号を取得し、取得した参照画像信号から蛍光画像信号を減算することにより差分信号を生成し、生成した差分信号を増幅し、増幅した差分信号に対して画像の輪郭を強調する画像処理を施すことにより、輪郭強調信号を生成し、生成した輪郭強調信号を、カラー画像の青色成分,緑色成分,及び赤色成分から選択される特定の色成分として含むとともに、取得した参照画像信号を、カラー画像の青色成分,緑色成分,及び赤色成分のうちの前記特定の色成分以外の色成分として含む診断用画像信号を出力するプロセッサとを備えたことを特徴とする電子内視鏡装置。
An illumination optical system for illuminating the subject;
A light source unit that emits white light and excitation light that excites fluorescence from the living tissue itself, and alternately switches the white light and the excitation light to the illumination optical system;
An objective optical system that converges components other than excitation light in the light from the subject surface to form an image of the subject surface;
An image sensor that captures an image of the surface of the subject formed by the objective optical system and converts the image into an image signal;
A reference image signal is acquired based on a portion corresponding to a period in which white light is guided to the illumination optical system among image signals acquired by the imaging device, and excitation light is guided to the illumination optical system. A fluorescence image signal is acquired based on a portion corresponding to a period of time, a difference signal is generated by subtracting the fluorescence image signal from the acquired reference image signal, the generated difference signal is amplified, and the amplified difference signal is By performing image processing that emphasizes the contour of the image, a contour enhancement signal is generated, and the generated contour enhancement signal is included as a specific color component selected from the blue component, the green component, and the red component of the color image And a process for outputting a diagnostic image signal including the acquired reference image signal as a color component other than the specific color component of the blue component, the green component, and the red component of the color image. Electronic endoscope apparatus characterized by comprising a support.
前記プロセッサは、前記差分信号を輪郭強調信号に変換する鮮鋭化フィルタを、有することを特徴とする請求項2又は3記載の電子内視鏡装置。  The electronic endoscope apparatus according to claim 2, wherein the processor includes a sharpening filter that converts the difference signal into an edge enhancement signal. 前記特定の色成分は、青色成分であることを特徴とする請求項1〜4のいずれか1項に記載の電子内視鏡装置。The specific color component, the electronic endoscope apparatus according to any one of claims 1 to 4, characterized in that the blue component. 前記光源ユニットは、円板状に形成されるとともに、青色光のみを透過させるBフィルタ,緑色光のみを透過させるGフィルタ,及び赤色光のみを透過させるRフィルタが、周方向に沿って夫々配列されたホイールと、
このホイールを回転させるとともにその各フィルタを、順次繰り返して白色光の光路中に挿入させるか,又は,このホイールを白色光の光路から退避させるホイール駆動機構とを、有し、
前記プロセッサは、前記光源ユニットを、白色光と励起光とを交互に切り換えて繰り返し前記照明光学系へ導く蛍光観察状態,又は,白色光のみを前記照明光学系へ導く通常観察状態に設定可能であり、前記光源ユニットを蛍光観察状態に設定した場合には、前記ホイール駆動機構を制御して前記ホイールを白色光の光路から退避させるとともに、参照画像信号及び蛍光画像信号に基づいて診断用画像信号を生成して出力し、前記光源ユニットを通常観察状態に設定した場合には、前記ホイール駆動機構を制御して前記ホイールの各フィルタを白色光の光路中に順次挿入させるとともに、前記撮像素子により取得された画像信号のうち、前記Bフィルタが白色光の光路中に挿入されている期間に対応する部分に基づいてB画像信号を生成し、前記Gフィルタが白色光の光路中に挿入されている期間に対応する部分に基づいてG画像信号を生成し、前記Rフィルタが白色光の光路中に挿入されている期間に対応する部分に基づいてR画像信号を生成し、これらB画像信号,G画像信号,及びR画像信号に基づいて、被検体のカラー画像に対応した通常画像信号を生成して出力することを特徴とする請求項1〜5のいずれか1項に記載の電子内視鏡装置。
The light source unit is formed in a disc shape, and a B filter that transmits only blue light, a G filter that transmits only green light, and an R filter that transmits only red light are arranged along the circumferential direction. Wheel,
A wheel drive mechanism that rotates the wheel and repeatedly inserts each filter into the white light path, or retracts the wheel from the white light path,
The processor can set the light source unit in a fluorescence observation state in which white light and excitation light are alternately switched and repeatedly led to the illumination optical system, or in a normal observation state in which only white light is led to the illumination optical system. There, when said light source unit is set to the fluorescent observation state, the said wheel by controlling the wheel drive mechanism retracts from the optical path of the white light, the reference image signal and the fluorescent image signal diagnostic image signal based on the When the light source unit is set to a normal observation state, the wheel driving mechanism is controlled to sequentially insert the filters of the wheel into the optical path of white light , and the imaging device of the acquired image signal to generate a B image signal based on the portion corresponding to the period in which the B filter is inserted in the optical path of the white light, Serial G filter produces a G image signal based on the portion corresponding to a period which is inserted in the optical path of the white light, based on the portion where R filter corresponds to a period that is inserted in the optical path of the white light 2. An R image signal is generated, and a normal image signal corresponding to a color image of a subject is generated and output based on the B image signal, the G image signal, and the R image signal. 5 electronic endoscope according to any one of.
前記プロセッサから出力された画像信号を表示するモニタを、さらに備えたことを特徴とする請求項1〜6のいずれか1項に記載の電子内視鏡装置。The electronic endoscope apparatus according to any one of claims 1 to 6, characterized in that the monitor that displays an image signal output from the processor, further comprising.
JP2000343590A 2000-11-10 2000-11-10 Electronic endoscope device Expired - Fee Related JP4520014B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000343590A JP4520014B2 (en) 2000-11-10 2000-11-10 Electronic endoscope device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000343590A JP4520014B2 (en) 2000-11-10 2000-11-10 Electronic endoscope device

Publications (2)

Publication Number Publication Date
JP2002143079A JP2002143079A (en) 2002-05-21
JP4520014B2 true JP4520014B2 (en) 2010-08-04

Family

ID=18817936

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000343590A Expired - Fee Related JP4520014B2 (en) 2000-11-10 2000-11-10 Electronic endoscope device

Country Status (1)

Country Link
JP (1) JP4520014B2 (en)

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4554944B2 (en) * 2004-01-15 2010-09-29 Hoya株式会社 Endoscope device
JP4589670B2 (en) * 2004-07-16 2010-12-01 Hoya株式会社 Endoscope light source device
JP2006204341A (en) * 2005-01-25 2006-08-10 Pentax Corp Light source device
JP4694306B2 (en) 2005-08-17 2011-06-08 Hoya株式会社 Outline enhancement processing unit
JP5244455B2 (en) * 2008-05-21 2013-07-24 Hoya株式会社 Endoscope processor and endoscope system
US20090289200A1 (en) 2008-05-22 2009-11-26 Fujifilm Corporation Fluorescent image obtainment method and apparatus, fluorescence endoscope, and excitation-light unit
JP5110702B2 (en) * 2008-05-22 2012-12-26 富士フイルム株式会社 Fluorescence image acquisition device
JP5191327B2 (en) * 2008-09-17 2013-05-08 富士フイルム株式会社 Image acquisition device and method of operating image acquisition device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10500588A (en) * 1994-03-28 1998-01-20 ジリックス・テクノロジイズ・コーポレーション Apparatus and method for imaging diseased tissue using integrated internal fluorescence
JP2000270265A (en) * 1999-03-17 2000-09-29 Ekapot Bhunachet Methods for merging fluorescence video and video of background by charge coupled device(ccd) and for watching them on the same screen

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3525235B2 (en) * 1995-12-06 2004-05-10 松下電器産業株式会社 Optical diagnostic equipment

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10500588A (en) * 1994-03-28 1998-01-20 ジリックス・テクノロジイズ・コーポレーション Apparatus and method for imaging diseased tissue using integrated internal fluorescence
JP2000270265A (en) * 1999-03-17 2000-09-29 Ekapot Bhunachet Methods for merging fluorescence video and video of background by charge coupled device(ccd) and for watching them on the same screen

Also Published As

Publication number Publication date
JP2002143079A (en) 2002-05-21

Similar Documents

Publication Publication Date Title
US8643710B2 (en) Image pickup apparatus
JP5438571B2 (en) Electronic endoscope system
EP2926718B1 (en) Endoscope system
JP5572326B2 (en) Image processing apparatus, imaging apparatus, image processing program, and image processing method
JP5485215B2 (en) Endoscope device
JP5769892B2 (en) Endoscope
JP2004321244A (en) Electronic endoscope system
JP4520014B2 (en) Electronic endoscope device
EP2465410B1 (en) Image processing device
JP2003164414A (en) Method and device for displaying fluoroscopic image
JP3965174B2 (en) Endoscope device
JP3809058B2 (en) Electronic endoscope device
JP6137892B2 (en) Imaging system
JP4648535B2 (en) Electronic endoscope device
JP3771790B2 (en) Electronic endoscope device
JP4526322B2 (en) Endoscope device
JP6396717B2 (en) Sensitivity adjustment method and imaging apparatus
JP4531347B2 (en) Electronic endoscope device
JP5815162B2 (en) Imaging device
JP4520016B2 (en) Electronic endoscope device
JP2002045328A (en) Device displaying fluorescent diagnostic image
JP4224054B2 (en) Electronic endoscope device
JP7089943B2 (en) Endoscope system
JPH02299633A (en) Endoscopic image observation apparatus
JP2005040181A (en) Self-fluorescence observation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20071005

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20080428

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20100223

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100409

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20100409

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100511

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100520

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130528

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees