JP2009039515A - 画像処理システム、画像処理方法およびプログラム - Google Patents

画像処理システム、画像処理方法およびプログラム Download PDF

Info

Publication number
JP2009039515A
JP2009039515A JP2008167820A JP2008167820A JP2009039515A JP 2009039515 A JP2009039515 A JP 2009039515A JP 2008167820 A JP2008167820 A JP 2008167820A JP 2008167820 A JP2008167820 A JP 2008167820A JP 2009039515 A JP2009039515 A JP 2009039515A
Authority
JP
Japan
Prior art keywords
image
unit
depth
specific wavelength
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008167820A
Other languages
English (en)
Other versions
JP5435532B2 (ja
Inventor
Hiroshi Yamaguchi
博司 山口
Hideyasu Ishibashi
磴  秀康
Kiyohiro Maeda
青広 前田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Priority to JP2008167820A priority Critical patent/JP5435532B2/ja
Priority to US12/174,404 priority patent/US7767980B2/en
Publication of JP2009039515A publication Critical patent/JP2009039515A/ja
Application granted granted Critical
Publication of JP5435532B2 publication Critical patent/JP5435532B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Endoscopes (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】物質内部に存在するオブジェクトをオブジェクトからの反射光あるいはICG等蛍光物質からの発光を用いて観察する場合のオブジェクトの像ボケを補正する。
【解決手段】物質の内部に存在するオブジェクトからの光であって特定波長領域に属する光の画像である特定波長画像を取得する特定波長画像取得部と、特定波長領域が異なる複数の特定波長画像から、オブジェクトの物質表面からの深さを算出する深さ算出部と、深さ算出部が算出したオブジェクトの深さに応じた前記オブジェクトの画像を生成するオブジェクト画像生成部と、を備える画像処理システムを提供する。
【選択図】図2

Description

本発明は、画像処理システム、画像処理方法およびプログラムに関する。本発明は、特に、生体内部に存在する血管等、表面観察では視認が困難な物質内部に存在するオブジェクトの画像を鮮明に表示できる画像処理システム、画像処理方法およびプログラムに関する。
たとえば非特許文献1に記載のように、生体にインドシアニングリーン(ICG)を投与するとともに波長780nmの赤外線レーザー光を照射して、生体内部の血液灌流をビデオ撮影する技術が知られている。また、内視鏡における像のボケの解消について、たとえば特許文献1に記載の内視鏡では、予め定められた所定範囲についての画像信号に対して、対物光学系の点ひろがり関数を用いて像回復処理を施す。これにより、撮像部への入射光量を大きく確保する一方、対物光学系の焦点深度不足による像のボケを解消できるとされている。
「インドシアニングリーンを用いた、皮下乳腺全摘出術後の乳頭乳輪の血液灌流の測定」、埼玉医科大学雑誌、第32巻、第2号、P45−50、平成17年4月 特開平10−165365号公報
生体内部の血管等物質内部に存在するオブジェクトを、オブジェクトからの反射光あるいはICG等蛍光物質からの発光を用いて観察する場合、オブジェクトの像がボケる問題がある。すなわち、反射光または発光が物質内を通過する間に散乱され、オブジェクトの輪郭が不明瞭になってしまう。医師が内視鏡を用いて診断あるいは施術する場合、血管等オブジェクトの位置を正確に認識することが望ましいから、オブジェクトの輪郭におけるボケを補正して、鮮明な画像を表示することが望まれる。また、物質内部のオブジェクトを撮像して表示する場合、オブジェクトの深さについての情報が同時に表示されることが好ましい。
上記課題を解決するために、本発明の第1の形態においては、と、物質の内部に存在するオブジェクトからの光であって特定波長領域に属する光の画像である特定波長画像を取得する特定波長画像取得部と、特定波長領域が異なる複数の特定波長画像から、オブジェクトの物質表面からの深さを算出する深さ算出部と、深さ算出部が算出したオブジェクトの深さに応じたオブジェクトの画像を生成するオブジェクト画像補正部と、を備える画像処理システムを提供する。
物質の内部に存在するオブジェクトからの光の画像であるオブジェクト画像を取得するオブジェクト画像取得部をさらに備え、オブジェクト画像生成部は、深さ算出部が算出したオブジェクトの深さに応じてオブジェクト画像を補正するオブジェクト画像補正部を有してよい。
なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。
以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。
図1は、本実施形態の画像処理システム10の一例をICG注入部700および検体800とともに示す。画像処理システム10は、内視鏡100、画像処理部200、表示部300、撮像制御部400、発光部500および発光制御部600を備える。なお、図1において、A部は、内視鏡100の先端部102を拡大して示す。
ICG注入部700は、ルミネッセンス物質であるインドシアニングリーン(ICG)を検体800に注入する。なお、本実施形態においてルミネッセンス物質としてICGを例示するが、ルミネッセンス物質として、ICG以外の蛍光物質を用いてもよい。ICGは、たとえば波長750nmの赤外線に励起されて、810nmを中心とするブロードなスペクトルの蛍光を発する。検体800が生体である場合、ICGは、静脈注射によって生体の血管内に注入できる。ICGからの蛍光を撮像することにより、生体内の血管を造影できる。
ICG注入部700は、画像処理システム10に組み込まれてもよい。生体内のICG濃度を管理して、生体内でのICG濃度が一定に維持されるようICG注入部700を制御できる。
検体800は、たとえば人体等の生体であってよく、画像処理システム10が処理する画像の撮像対象となる。検体800の内部には血管等オブジェクトが存在する。本実施形態の画像処理システム10は、検体800の表面(器官等の内表面を含む)より深部に存在するオブジェクトの撮像画像におけるボケを補正する。
内視鏡100は、撮像部110、ライトガイド120および鉗子口130を有する。内視鏡100の先端部102には、撮像部110の一部としての対物レンズ112を有する。また先端部102には、ライトガイド120の一部としてのIRライトガイド122、Rライトガイド124、Gライトガイド126およびBライトガイド128を有する。また先端部102には、ノズル140を有する。鉗子口130には鉗子135が挿入される。
撮像部110は、ルミネッセンス物質が発する光および照射光がオブジェクトで反射する反射光の画像を撮像する。撮像部110は、たとえばCCD等の2次元撮像デバイスと光学系とを含んでよく、光学系には対物レンズ112を含む。ルミネッセンス物質が発する光が赤外線である場合、撮像部110は、赤外線画像を撮像できる。オブジェクトへの照射光がRGBの各成分を含むたとえば白色光である場合、撮像部110は、R成分、G成分およびB成分の各成分光画像を撮像できる。
撮像部110による赤外線、R成分、G成分およびB成分の各成分光は、たとえば入射光を分光フィルタにより分光して、フィルタリング後の光を1つのCCDにより撮像できる。この場合光軸上に配置する分光フィルタを切り替えて各成分光画像を撮像できる。あるいは、入射光をハーフミラー等により分割して、分割した光軸ごとに分光フィルタを配置できる。光軸ごとに複数のCCDを配置すれば、各成分光画像を同時に撮像できる。あるいは、1つのCCDの画素ごとに、赤外線、R成分、G成分およびB成分の各分光フィルタを配置すれば、1つのCCDで各成分光を同時に撮像できる。
ライトガイド120は、たとえば光ファイバで構成できる。ライトガイド120は、発光部500で発生した光を内視鏡100の先端部102にガイドする。ライトガイド120は、IRライトガイド122、Rライトガイド124、Gライトガイド126およびBライトガイド128を含むことができる。IRライトガイド122は、赤外線をガイドして、Rライトガイド124は、R成分光をガイドする。Gライトガイド126は、G成分光をガイドして、Bライトガイド128は、B成分光をガイドする。
ライトガイド120は、赤外線、R成分、G成分およびB成分の成分光ごとにIRライトガイド122、Rライトガイド124、Gライトガイド126およびBライトガイド128を備えるので各成分光を別々に照射できる。各成分光を別々に照射する場合、撮像部110には分光フィルタを備えなくてよく、各成分光を照射するタイミングに合わせて撮像することによりCCDも1つでよい。もとより、撮像部110に各成分光を分光して撮像する機能を備える場合には、成分光ごとに時分割で照射しなくてもよく、ライトガイド120を1つのライトガイドに統合してもよい。
鉗子口130は、鉗子135を先端部102にガイドする。図1において鉗子135の先端形状の図示は省略している。各種の先端形状を備える鉗子135を適用できる。ノズル140は、水あるいは空気を送出できる。
画像処理部200は、撮像部110から取得した画像データを処理する。表示部300は、画像処理部200が処理した画像データを表示する。撮像制御部400は、撮像部110による撮像を制御する。
発光部500は、内視鏡100の先端部102から照射される光を発生する。発光部500で発生する光は、ルミネッセンス物質を励起する励起光である赤外線、検体800の内部のオブジェクトに照射する照射光を含む。照射光には、たとえばR成分、G成分およびB成分の成分光を含む。
発光制御部600は、撮像制御部400からの制御を受けて、発光部500を制御する。たとえば撮像部110が、赤外線、R成分、G成分およびB成分の各成分光を時分割で撮像する場合に、各成分光の照射のタイミングと撮像のタイミングとを同期させるよう制御できる。
図2は、画像処理部200の構成例を示す。画像処理部200には、オブジェクト画像取得部210、特定波長画像取得部212、表面画像取得部214、オブジェクト領域特定部216、深さ算出部218、オブジェクト画像生成部230、補正テーブル222、補間画像生成部224および表示制御部226を有する。
オブジェクト画像取得部210は、物質である検体800の内部に存在する血管等オブジェクトからの光の画像であるオブジェクト画像を取得する。オブジェクトからの光として、オブジェクト内に存在するルミネッセンス物質が発する蛍光、あるいはオブジェクトに照射された光の反射光を例示できる。なお、オブジェクト画像取得部210は、後述するように、オブジェクトからの光がオブジェクトから物質の表面までの間で散乱した散乱光による画像であるオブジェクト画像を取得してよい。
オブジェクトからの光としてルミネッセンス物質が発する蛍光を利用する場合、オブジェクト画像取得部210が取得するオブジェクト画像には、物質の表面からルミネッセンス物質を励起する励起光が進入できる深さまでの範囲に存在するオブジェクトが含まれる。すなわち、内視鏡100の先端部102から照射されるルミネッセンス物質の励起光は、たとえば750nmの波長を有するから、検体800の比較的深部(たとえば1cm程度)にまで到達する。よって、オブジェクト画像取得部210が取得するオブジェクト画像には、検体800の比較的深部に存在する血管画像を含む。もとより、励起光の到達できる深さの範囲に存在するルミネッセンス物質は、当該励起光によって励起されるから、オブジェクト画像取得部210が取得するオブジェクト画像には、励起光が到達できる深さの範囲に存在する血管画像を含む。なお、血管が深い位置に存在するほど、血管からの蛍光が検体800で散乱されるから、深い位置の血管画像ほどボケを多く含むことになる。
オブジェクトからの光としてオブジェクトからの反射光を利用する場合、オブジェクト画像取得部210が取得するオブジェクト画像には、オブジェクトへの照射光が進入して反射する深さの範囲に存在するオブジェクトが含まれる。物質への照射光の進入深さは照射光の波長に依存するから、赤色光は青色光より物質内部に深く進入でき、緑色光はそれらの中間深さまで進入できる。赤外線は赤色光より物質内部に深く進入できる。よって、物質表面から照射する光の波長範囲を反映した進入深さまでの範囲に存在するオブジェクトがオブジェクト画像に含まれることになる。
特定波長画像取得部212は、血管等オブジェクトからの光であって特定波長領域に属する光の画像である特定波長画像を取得する。特定波長領域は、任意の波長領域であってよく、たとえば可視光のR成分を中心とする赤色領域、G成分を中心とする緑色領域、B成分を中心とする青色領域を例示できる。また、ICGからの蛍光が属する波長領域を複数に分割した波長領域であってよく、たとえばICGからの蛍光における波長領域のうち、長波長領域、中波長領域、短波長領域を例示できる。
これら特定波長領域を利用した特定波長画像は、波長が相違すれば検体800への光の進入深さが相違する性質を利用して、あるいは、波長が相違すれば検体800内での光の吸収率が相違する性質を利用して、血管等オブジェクトの深さ検出に利用できる。すなわち、青色領域の特定波長画像により識別できる血管は、当該青色領域に属する波長の光が反射する深さ領域に存在すると判断できる。同様に、緑色領域の特定波長画像により識別できる血管は、当該緑色領域に属する波長の光が反射する深さ領域に存在すると判断でき、赤色領域の特定波長画像により識別できる血管は、当該赤色領域に属する波長の光が反射する深さ領域に存在すると判断できる。なお、青色光が反射する深さは赤色光が反射する深さより浅く、緑色光が反射する深さはこれらの中間に位置する。
また、血管内のICGが発した蛍光のうち、長波長領域に属する光の吸収は、短波長領域に属する光の吸収より小さいから、長波長領域、中波長領域あるいは短波長領域の特定波長画像に含まれる血管画像の明るさの比から当該血管の深さを推定できる。たとえば長波長領域の特定波長画像に係る血管画像の明るさに対して、短波長領域の特定波長画像に係る血管画像が暗ければ、当該血管は深い位置に存在すると推定できる。逆に長波長領域の特定波長画像に係る血管画像の明るさに対して、短波長領域の特定波長画像に係る血管画像が明るければ、短波長領域の光を吸収するであろう光の行路が長くなく、当該血管は浅い位置に存在すると推定できる。
以上のような光の波長による物質への進入深さ(反射光の進入深さ)の相違を利用して血管等オブジェクトの深さを検出する場合、特定波長画像取得部212は、オブジェクトから反射した反射光の画像である反射光画像を、特定波長画像として取得する。特定波長画像取得部212は、オブジェクトに白色光を照射してオブジェクトから反射した反射光のうち、特定波長領域に属する反射光の画像である反射光画像を、特定波長画像として取得してもよい。あるいは特定波長画像取得部212は、オブジェクトに特定波長領域に属する照射光を照射してオブジェクトから反射した反射光の画像である反射光画像を、特定波長画像として取得してもよい。また、物質の深部で発光した蛍光の波長による吸収率の相違を利用して血管等オブジェクトの深さを検出する場合、特定波長画像取得部212は、ルミネッセンス物質が発した光のうち、特定波長領域に属する光の画像である発光画像を、特定波長画像として取得する。
表面画像取得部214は、物質の表面の画像である表面画像を取得する。すなわち表面画像取得部214は、視認すると同等の画像を取得する。オブジェクト領域特定部216は、複数の特定波長画像ごとにオブジェクトの画像領域を特定する。すなわちオブジェクト領域特定部216は、特定波長画像に含まれる血管等のオブジェクトの画像領域を画定して血管画像等を特定する。
深さ算出部218は、特定波長領域が異なる複数の特定波長画像から、オブジェクトの物質の表面からの深さを算出する。前記した通り、特定波長画像には光の進入深さの情報を含むから、特定波長画像に含まれるオブジェクトの明るさ(輝度)を比較または演算してオブジェクトの深さを計算できる。
たとえば深さ算出部218は、オブジェクト領域特定部216が特定した画像領域における輝度に基づいて深さを算出できる。たとえば深さ算出部218は、長波長域の特定波長領域における画像領域の輝度に対する短波長域の特定波長領域における画像領域の輝度の比に基づいて深さを算出できる。たとえば深さ算出部218は、画像領域における最高輝度または平均輝度に基づいて深さを算出できる。たとえば深さ算出部218は、画像領域の端部における輝度の変化率に基づいて深さを算出できる。
なお、深さ算出部218は、血管に存在しているICGの量および当該血管の画像の輝度に対応づけて、深さを予め記憶していてよい。深さ算出部218は、ICG注入部700から注入されたICGの量に基づき検体800に存在しているICGの量を算出して、算出したICGの量に応じた値、およびオブジェクト領域特定部216が特定した画像領域における輝度に応じた値に対応づけて予め記憶している深さを、血管の深さとして算出してよい。
画像領域の端部における輝度の変化率は、たとえば画像空間における位置(距離)を変数とする輝度の微分係数で表現できる。当該微分係数は画像領域に係るオブジェクトのボケの大きさを数値化した例であり、微分係数が大きいほどボケは小さく、オブジェクトはより浅い位置に存在すると推定できる。
なお、特定波長画像取得部212は、上述したように、オブジェクトからの光であって、特定波長領域に属する光が物質の表面までの間で散乱された散乱光の画像である特定波長画像を取得する。そして、深さ算出部218は、オブジェクト領域特定部216が特定した画像領域における輝度、および物質が光を散乱する散乱特性に基づいて、深さを算出してよい。散乱特性としては、物質の散乱係数を例示することができる。
なお、深さ算出部218は、検体800の部位毎の散乱特性を部位に対応づけて予め記憶している。そして、深さ算出部218は、部位に対応づけて、上述した輝度の比を予め記憶している。そして、深さ算出部218は、特定波長画像として撮像されたオブジェクトが存在する部位に対応づけて予め記憶している散乱特性、および当該部位に対応づけて予め記憶している輝度の比に基づいて、深さを算出してよい。このように、深さ算出部218は、オブジェクト領域特定部が特定した画像領域における輝度、および物質の光学特性に基づいて、深さを算出してよい。
オブジェクト画像生成部230は、深さ算出部218が算出したオブジェクトの深さに応じたオブジェクトの画像を生成する。具体的には、オブジェクト画像生成部230は、深さ算出部218が算出したオブジェクトの深さに応じてオブジェクト画像を補正する。すなわち、オブジェクト画像生成部230は、補正値を適用して、オブジェクト画像におけるオブジェクトの広がりを補正する。なお、オブジェクト画像生成部230が補正した補正画像は表示部300に送られ、表示部300において表示される。なお、オブジェクト画像生成部230における具体的な処理については、図3に関連してより詳細に説明する。
補正テーブル222は、オブジェクトの深さに対応付けて、オブジェクトのオブジェクト画像における広がりを補正する補正値を記録する。オブジェクト画像生成部230は、補正テーブル222が記録している補正値を利用してオブジェクト画像を補正できる。
補間画像生成部224は、表面画像の撮像タイミングと補正画像の撮像タイミングとが異なる場合に、時系列に連続した複数の補正画像から、表面画像の撮像タイミングにおける補間画像を生成する。補間方法として、たとえば複数の補正画像における各画素の輝度から、補間画像における当該画素の輝度を内挿により求める方法が例示できる。
表示制御部226は、表面画像および補正画像の表示部300への表示を制御する。また表示制御部226は、補正画像におけるオブジェクトの明るさまたは色を深さに応じて変化させて表示部300に表示できる。あるいは表示制御部226は、表面画像と補正画像とを並べて表示部300に表示できる。あるいは表示制御部226は、補間画像を補正画像として表示部300に表示できる。その他、表示制御部226は、オブジェクトの深さ情報を数値として表示部300に表示してもよい。
図3は、オブジェクト画像生成部230の構成例を示す。オブジェクト画像生成部230は、オブジェクト画像補正部220、オブジェクト予測画像生成部232、画像比較部234、位置関係特定部236、および大きさ特定部238を有する。
オブジェクト画像補正部220は、深さ算出部218が算出したオブジェクトの深さに応じてオブジェクト画像を補正する。具体的には、オブジェクト画像補正部220は、深さ算出部218が算出したオブジェクトの深さに応じてオブジェクト画像を補正する。例えば、オブジェクト画像補正部220は、補正値を適用して、オブジェクト画像におけるオブジェクトの広がりを補正する。なお、オブジェクト画像補正部220は、補正テーブル222が記録している補正値を利用してオブジェクト画像を補正できる。オブジェクト画像補正部220が補正した補正画像は、補間画像生成部224および表示制御部226を通じて、表示部300に送られ、表示部300において表示される。
オブジェクト予測画像生成部232は、深さ算出部218が算出した深さにオブジェクトが存在する場合に得られるべきオブジェクトの画像であるオブジェクト予測画像を、オブジェクトが異なる大きさであるそれぞれの場合について、深さ算出部218が算出した深さに基づいて生成する。画像比較部234は、オブジェクト予測画像生成部232が生成した複数のオブジェクト予測画像を、オブジェクト画像とそれぞれ比較する。例えば、画像比較部234は、オブジェクト予測画像生成部232が生成した複数のオブジェクト予測画像を、オブジェクト画像とそれぞれ比較して、複数のオブジェクト予測画像のそれぞれと、オブジェクト画像との間における画像の一致度を算出してよい。
そして、大きさ特定部238は、画像比較部234による比較結果に基づいて、オブジェクト画像として撮像されているオブジェクトの大きさとして、オブジェクト画像とより一致したオブジェクト予測画像が得られた大きさをより優先して特定する。例えば、大きさ特定部238は、画像比較部234による比較結果に基づいて、オブジェクト画像として撮像されているオブジェクトの大きさとして、オブジェクト画像と最も一致したオブジェクト予測画像が得られた大きさをより優先して特定してよい。例えば、大きさ特定部238は、画像比較部234による比較結果に基づいて、オブジェクト画像として撮像されているオブジェクトの大きさとして、オブジェクト画像と予め定められた値より高い一致度で一致したオブジェクト予測画像が得られた大きさをより優先して特定してよい。
オブジェクト画像補正部220は、オブジェクト画像の大きさを、大きさ特定部238が特定した大きさに応じた大きさに補正してよい。このようにして、オブジェクト画像生成部230は、大きさ特定部238が特定した大きさに応じた大きさのオブジェクトの画像を生成することができる。
なお、深さ算出部218は、複数の特定波長画像から、特定波長画像における異なる複数の位置のそれぞれに撮像されているオブジェクトの深さを、当該複数の位置毎に算出してよい。オブジェクト予測画像生成部232は、複数のオブジェクトが近接して存在する場合に得られるべきオブジェクトの画像であるオブジェクト予測画像を、複数のオブジェクトの位置関係が異なるそれぞれの場合について、深さ算出部218が複数の位置毎に算出した深さに基づいて生成する。そして、画像比較部234は、オブジェクト予測画像生成部232が生成した複数のオブジェクト予測画像を、オブジェクト画像とそれぞれ比較する。例えば、画像比較部234は、オブジェクト予測画像生成部232が生成した複数のオブジェクト予測画像を、オブジェクト画像とそれぞれ比較して、複数のオブジェクト予測画像のそれぞれと、オブジェクト画像との間の画像の一致度を算出してよい。
位置関係特定部236は、画像比較部234による比較結果に基づいて、オブジェクト画像として撮像されている複数のオブジェクトが近接して存在する領域における位置関係として、オブジェクト画像とより一致したオブジェクト予測画像が得られた位置関係をより優先して特定する。このように、位置関係特定部236は、深さ算出部218が複数の位置毎に算出した深さに基づいて、オブジェクト画像として撮像されている複数のオブジェクトの位置関係を特定することができる。そして、オブジェクト画像補正部220は、深さ算出部218が複数の位置毎に算出した深さ、および位置関係特定部236が特定した位置関係に応じて、オブジェクト画像を補正する。
図4は、検体800の内部で光が反射等する様子を模式的に示す。検体800の内部にはオブジェクトの一例である血管810が存在する。検体800にはルミネッセンス物質であるICGが注入されており、血管810の内部にはICGが存在する。検体800にはICGの励起光である赤外線Iirと、オブジェクトである血管810への照射光である赤色光Ir、緑色光Igおよび青色光Ibとが照射される。
赤外線Iirは、検体800の比較的深い位置(深さdir)まで進入でき、表面から深さdirの間に存在する血管810内のICGは赤外線Iirによって励起される。よって深さdirより浅い位置に存在する血管810の像は、ICGからの蛍光Rfによってオブジェクト画像として取得される。なお、オブジェクト画像として取得された血管810の像にはボケを伴う。
赤色光Irは、深さdrまで進入して深さdrの近傍で反射される。よって、赤色光Irの赤色反射光Rrには深さdr近傍の血管810の像情報が含まれる。赤色反射光Rrによる血管810の像は赤色領域の特定波長画像として取得され、赤色領域の特定波長画像には、深さdr近傍の血管810の画像が含まれる。
緑色光Igは、深さdgまで進入して深さdgの近傍で反射される。よって、緑色光Igの緑色反射光Rgには深さdg近傍の血管810の像情報が含まれる。緑色反射光Rgによる血管810の像は緑色領域の特定波長画像として取得され、緑色領域の特定波長画像には、深さdg近傍の血管810の画像が含まれる。
青色光Ibは、深さdbまで進入して深さdbの近傍で反射される。よって、青色光Ibの青色反射光Rbには深さdb近傍の血管810の像情報が含まれる。青色反射光Rbによる血管810の像は青色領域の特定波長画像として取得され、青色領域の特定波長画像には、深さdb近傍の血管810の画像が含まれる。
たとえば、赤色反射光Rr、緑色反射光Rg、緑色反射光Rgの各特定波長画像から血管810の深さを特定できる。特定した深さから蛍光Rfによるオブジェクト画像を補正できる。
図5は、表示部300における表示画面310の一例を示す。表示画面310にはオブジェクト画像を補正した補正画像の血管330を、表面画像における血管320に重畳して表示している。表面画像の血管320は検体800の表面観察で視認できる。補正画像の血管330は表面観察では視認できないが、本実施形態の画像処理システム10によって視覚化できる。
なお、表面画像の血管320は検体800の表面観察で視認できるので、オブジェクト画像生成部230は、所定の深さより浅い位置を示す深さが深さ算出部218により算出された血管810については補正画像を生成せず、所定の深さ以上の深さが深さ算出部218により算出された血管810については補正画像を生成してよい。そして、表示制御部226は、表面画像の血管320の色と異なる色で、補正画像の血管330を表示してよい。このように、画像処理システム10によると、浅い位置にある血管810と深い位置にある血管810とを、容易に区別して視認することができる画像を提供することができる。
補正画像の血管330は、本実施形態の画像処理システム10によって補正されるから、血管画像の端部にボケは生じず、鮮明に表示される。なお、補正画像の血管330は、たとえば濃淡を変えて、あるいは色を変えて表面からの深さを表示できる。本実施形態の画像処理システム10を適用すれば、たとえば医師が表示部300の表示画面310を見つつ手術等を実施するとき、表面観察によっては視認できない内部の血管330を鮮明に認識できる場合がある。また、医師は内部の血管330の深さ情報を参照しつつ手術等を実施できる利点が得られる場合がある。
図6は、交差している血管810の像である血管像の一例を示す。血管部分像610a〜dは、特定波長画像において、交差していない血管部分の像であるとする。また、領域630は、特定波長画像において血管810が交差している領域であるとする。なお、本実施形態における異なる血管810は、連続する血管810を形成する異なる複数の血管部分であってよい。以後の説明では、血管部分像610a〜dを血管部分像610と総称する場合がある。
深さ算出部218は、異なる血管810が交差していない領域における血管部分像610a〜dの輝度値に基づいて、上述したようにして血管810の深さを算出することができる。一方、異なる血管810が交差した領域からの光は、異なる血管810のそれぞれからの光が合わさった光になる。このため、領域630内の血管像の輝度値は、異なる血管810のそれぞれからの光の強度の和を示す値となる。このため、深さ算出部218は、領域630内の血管像の輝度値だけから、異なる血管810のそれぞれの深さを正確に算出することができない場合がある。
この場合、オブジェクト画像生成部230は、後述する方法で異なる血管810の位置関係を特定して、特定した位置関係に応じた血管の画像を生成する。例えば、オブジェクト画像生成部230は、特定した位置関係に基づいて、特定した位置関係を示す血管の画像を生成したり、オブジェクト画像における交差した血管の像のぼけを補正した補正画像を生成する。なお、図中のsは、血管の走行方向に沿う経路を示しており、図8における説明で使用される。
図7は、血管の走行状態の一例を示す。図6に示した血管の像として撮像される血管810は、本図の(a)、(b)、および(c)のいずれかの走行状態にあるとみなすことができる。本図では、2つの血管810が、実線および破線で区別して示されている。
位置関係特定部236は、血管部分像610a〜dのそれぞれとして撮像された血管部分のそれぞれの深さに基づいて、2つの血管810がa)、b)、c)のいずれの走行状態にあるかを特定する。なお、血管部分像610a〜dのそれぞれとして撮像された血管部分のそれぞれの深さは、上述したように深さ算出部218によって得ることができる。また、以後の説明では、血管部分像610a〜dのそれぞれとして撮像された血管部分の深さを、それぞれ血管部分像610a〜dからの深さと略称する。
例えば、位置関係特定部236は、血管部分像610aからの深さおよび血管部分像610cからの深さが、血管部分像610bからの深さおよび血管部分像610dからの深さのいずれよりも深いか浅い場合に、異なる血管810は本図の(a)が示す位置関係にあると判断することができる。また、位置関係特定部236は、血管部分像610aからの深さおよび血管部分像610bからの深さが、血管部分像610cからの深さおよび血管部分像610dからの深さのいずれよりも深いか浅い場合に、異なる血管810は本図の(b)が示す位置関係にあると判断することができる。他にも、位置関係特定部236は、血管部分像610aからの深さおよび血管部分像610dからの深さが、血管部分像610bからの深さおよび血管部分像610cからの深さのいずれよりも深いか浅い場合に、異なる血管810は本図の(c)が示す位置関係にあると判断することができる。このように、位置関係特定部236は、血管部分像610a〜dのそれぞれからの深さについて分類することにより、異なる血管810の位置関係を特定することができる。
このように、位置関係特定部236は、血管部分像610a〜dのそれぞれからの深さに基づいて、異なる血管810の位置関係を特定することができる。なお、位置関係特定部236は、複数の位置関係の中から、異なる血管810がそれらの位置関係にあるそれぞれの場合に予測される血管810の曲率に基づいて一の位置関係を選択して、選択した位置関係を血管810の位置関係として特定してもよい。
例えば、異なる血管810が本図の(c)が示す位置関係にあるとした場合、本図の(a)または(b)が示す位置関係である場合より曲率が著しく大きくなる。実際には、血管810が本図の(c)が示す走行状態にある可能性は、本図の(a)または(b)が示す走行状態にある可能性より著しく小さい。そこで、位置関係特定部236は、血管810の位置関係として、曲率が予め定められた値より小さくなる位置関係を、曲率が予め定められた値以上になる位置関係より優先して特定してよい。これにより、非現実的な血管810の位置関係が特定される可能性を著しく低減することができる。
なお、位置関係特定部236は、上述の深さに基づく位置関係の特定方法と同様の方法で、血管部分像610a〜dのそれぞれとして撮像された血管部分のそれぞれの太さに基づいて、異なる血管810の位置関係を特定してもよい。例えば、大きさ特定部238は、血管部分像610a〜dのそれぞれとして撮像された血管部分のそれぞれの太さを特定する。なお、以後の説明では、血管部分像610a〜dのそれぞれとして撮像された血管部分のそれぞれの太さを、それぞれ血管部分像610a〜dのそれぞれからの太さと略称する。
大きさ特定部238は、一例として、血管部分像610a〜dのそれぞれからの深さに基づいて、血管部分像610a〜dのそれぞれからの太さを特定することができる。例えば、血管部分像610のそれぞれの太さには、それぞれの血管部分の太さと、血管810からの光の散乱に起因するぼけが寄与していると考えることができる。そこで、大きさ特定部238は、血管部分像610a〜dのそれぞれからの深さに基づいて、光の散乱に起因するぼけの寄与分を算出する。そして、大きさ特定部238は、算出した寄与分、および血管部分像610a〜dのそれぞれの太さに基づいて、血管部分像610a〜dのそれぞれからの太さを特定する。例えば、大きさ特定部238は、血管部分像610aの太さから、算出した寄与分を減算することによって、血管部分像610aからの太さを特定することができる。なお、血管部分の太さは、この発明におけるオブジェクトの大きさの一例であってよい。
そして、位置関係特定部236は、血管部分像610aからの太さおよび血管部分像610cからの太さが、血管部分像610bからの太さおよび血管部分像610dからの太さのいずれよりも太いか細い場合に、異なる血管810は本図の(a)が示す位置関係にあると判断することができる。また、位置関係特定部236は、血管部分像610aからの太さおよび血管部分像610bからの太さが、血管部分像610cからの太さおよび血管部分像610dからの太さのいずれよりも太いか細い場合に、異なる血管810は本図の(b)が示す位置関係にあると判断することができる。他にも、位置関係特定部236は、血管部分像610aからの太さおよび血管部分像610dからの太さが、血管部分像610bからの太さおよび血管部分像610cからの太さのいずれよりも太いか細い場合に、異なる血管810は本図の(c)が示す位置関係にあると判断することができる。このように、位置関係特定部236は、血管部分像610a〜dのそれぞれからの太さについて分類することにより、異なる血管810の位置関係を特定することができる。
なお、位置関係特定部236は、血管部分像610a〜dのそれぞれからの深さおよび太さについて分類することにより、異なる血管810の位置関係を特定してもよい。このように、位置関係特定部236は、血管部分像610a〜dのそれぞれからの深さおよび太さに基づいて、異なる血管810の位置関係を特定してもよい。
なお、大きさ特定部238は、上述した方法の他にも、深さ算出部218が算出した深さに血管810が存在すると仮定した場合に得られるべき血管予測像と、血管部分像610a〜dとの比較結果に基づいて、血管部分像610a〜dのそれぞれとして撮像された血管部分の太さを算出してもよい。具体的には、オブジェクト予測画像生成部232は、深さ算出部218が算出した深さに、所与の太さの血管810が存在する場合に得られるべき血管予測像を生成する。
なお、オブジェクト予測画像生成部232は、血管部分像610に細線化処理を施すことによって血管の走行方向を特定して、特定した走行方向で走行する所与の太さの血管810が、深さ算出部218が算出した深さに存在する場合に得られるべき血管予測像を生成してよい。なお、オブジェクト予測画像生成部232は、異なる複数の太さのそれぞれについて血管予測像をそれぞれ生成することにより、複数の血管予測像を生成する。なお、血管予測像は、この発明におけるオブジェクト予測画像の一例であってよい。また、オブジェクト予測画像生成部232は、血管部分像610にスムージング処理および2値化処理を施してから、細線化処理を施してよい。
なお、オブジェクト予測画像生成部232は、深さ算出部218が算出した深さに応じた血管810からの光の拡がり量に基づいて、血管予測像を生成することができる。例えば、オブジェクト予測画像生成部232は、所与の太さの血管部分が存在する場合の血管部分からの光強度の空間分布、および深さ算出部218が算出した深さにある点からの光に対する点拡がり関数に基づいて、血管予測像を生成することができる。
そして、画像比較部234は、オブジェクト予測画像生成部232が生成した複数の血管予測像を、血管部分像610とそれぞれ比較することによって、画像の一致度を算出する。そして、大きさ特定部238は、最も高い一致度が得られた血管予測像を生成する場合に与えられた血管部分の太さを、血管部分像610として撮像された血管部分の太さとして特定する。このようにして、大きさ特定部238は、血管部分像610a〜dのそれぞれからの太さを特定することができる。なお、大きさ特定部238は、予め定められた一致度より高い一致度が得られた血管予測像を生成する場合に与えられた血管部分の太さを一致度に応じて重みづけ平均して得られた値を、血管部分像610として撮像された血管部分の太さとして特定してもよい。
なお、画像処理部200は、深さ算出部218が算出した深さおよび大きさ特定部238が算出した太さを、血管部分像の輝度値および血管部分像の太さに対応づけて記憶してよい。そして、深さ算出部218は、新たに得られた血管部分像の輝度値および当該新たに得られた血管部分像の太さに対応づけて記憶している深さを、当該新たに得られた血管部分像として撮像された血管部分の深さとして算出してよい。そして、大きさ特定部238は、新たに得られた血管部分像の輝度値および当該新たに得られた血管部分像の太さに対応づけて記憶している太さを、当該新たに得られた血管部分像として撮像された血管部分の太さとして特定してよい。これにより、血管部分の深さおよび太さを速やかに算出することができ、ひいては血管810のジオメトリを速やかに決定することができる。
図8は、血管810の走行方向sに沿った方向の深さ変化の一例を示す。本図において、(a)、(b)、(c)、および(d)は、それぞれ血管部分像610aからの深さ変化、血管部分像610bからの深さ変化、血管部分像610cからの深さ変化、および血管部分像610dからの深さ変化を示す。
本図の(a)および(c)は、走行方向sに沿って深さが増大しており、(b)および(d)は、走行方向sに沿って深さが減少している。このような場合、位置関係特定部236は、異なる血管810の位置関係として、図6の(a)が示す位置関係を特定してよい。このように、位置関係特定部236は、類似する深さ変化を示す血管部分像を同じ血管810の像とみなすことによって、血管810の位置関係を特定してよい。このように、位置関係特定部236は、血管810の深さの空間的変化に基づいて、位置関係を特定することができる。なお、深さの空間的変化としては、血管810の走行方向sに沿った方向の深さの微分値を例示することができる。なお、微分値の次数は一次であってよく、多次であってもよい。
なお、位置関係特定部236は、本図に関連して説明した深さ変化に替えて、血管810の太さ変化に基づいて位置関係を特定することができる。例えば、位置関係特定部236は、類似する太さ変化を示す血管部分像を同じ血管810の像とみなすことによって、血管810の位置関係を特定してよい。
図9は、血管810の位置関係の一例を示す。本図は、血管810が図6の(a)の位置関係にある場合に、血管部分像610aおよび血管部分像610cとして撮像された血管部分の中心線を含む断面で切断した切断面を示す。血管810が本図に示した位置関係にある場合、血管部分像610a〜dのそれぞれとして撮像された血管部分の表面900からの深さは、ほぼ同じになる。このため、血管部分像610a〜dの深さに基づいて、交差している領域における血管810の位置関係を特定することができない場合がある。例えば、血管810が交差する位置での位置関係として、本図の例のように血管部分像610aおよび血管部分像610cとして撮像された血管部分の方が他方より深い位置にある場合と、血管部分像610aおよび血管部分像610cとして撮像された血管部分の方が他方より浅い位置にある場合との双方が実際にあり得る。
このような場合においても、位置関係特定部236は、血管810が所与の位置関係にあると仮定した場合に得られるべき血管予測像と、血管810の像との比較結果に基づいて、血管810の位置関係を特定することができる。具体的には、オブジェクト予測画像生成部232は、所与の太さの血管810が所与の位置関係で存在する場合に得られるべき血管予測像を生成する。
位置関係としては、一例として図6で示した(a)、(b)、および(c)が示す走行方向に関する複数の位置関係と、交差している領域における血管810の深さに関する複数の位置関係の組み合わせを含む。オブジェクト予測画像生成部232は、血管810の太さが異なるそれぞれの場合において、位置関係が異なるそれぞれの場合の血管予測像をそれぞれ生成することにより、複数の血管予測像を生成する。なお、血管予測像は、この発明におけるオブジェクト予測画像の一例であってよい。
そして、画像比較部234は、オブジェクト予測画像生成部232が生成した複数の血管予測像を、領域630における血管810の像とそれぞれ比較することによって、画像の一致度を算出する。そして、大きさ特定部238は、最も高い一致度が得られた血管予測像を生成する場合に異なる血管810の太さとして与えられた値を、異なる血管810のそれぞれの太さとして算出する。また、位置関係特定部236は、最も高い一致度が得られた血管予測像を生成する場合に与えられた位置関係を、異なる血管810の位置関係として特定する。このようにして、位置関係特定部236および大きさ特定部238は、交差している血管810の位置関係および太さをより高い精度で特定することができる。
なお、上記において、血管810の深さに基づいた位置関係の特定方法、血管810の太さに基づいた位置関係の特定方法、血管810の深さ変化に基づいた位置関係の特定方法、血管810の太さ変化に基づいた位置関係の特定方法、および血管予測像に基づいた位置関係の特定方法について説明した。位置関係特定部236は、それらの位置関係の特定方法の任意の組み合わせに基づき、異なる血管810の位置関係を特定することができる。
なお、オブジェクト画像補正部220は、オブジェクト画像において異なる血管810が重なって撮像されている領域の画像を、位置関係特定部236が特定した位置関係に基づき補正してよい。具体的には、オブジェクト画像補正部220は、位置関係特定部236が特定した位置関係に基づき、浅い位置にある血管810の画像を、深い位置にある血管810の画像より強調した補正画像を生成してよい。このように、オブジェクト画像補正部220は、より深い位置にあるオブジェクトの画像より、当該オブジェクトより浅い位置にあるオブジェクトが優先して表示されるべく、オブジェクト画像を補正してよい。
一例として、オブジェクト画像補正部220は、深い位置にある血管810の画像を深さに応じて補正して得られた画像に、浅い位置にある血管810の画像を深さに応じて補正して得られた画像で上書きしてよい。オブジェクト画像においては、血管810が重なって撮像されている領域の画素値は、深い位置にある血管810による画素値への寄与分と浅い位置にある血管810による画素値への寄与分との和に応じた値となっている。オブジェクト画像補正部220が、浅い位置にある血管810の画像を深さに応じて補正して得られた画像で上書きすることにより、血管810が重なって撮像される領域の画素値には、深い位置にある血管810は寄与せず、浅い位置にある血管810だけが寄与することになる。これにより、オブジェクト画像補正部220は、血管810が重なって撮像される領域においても、浅い位置にある血管810の境界および走行状態がより明確な補正画像を生成することができる。
なお、図6から図9に関連して、2つの血管810の位置関係を特定して、特定した位置関係に応じた2つの血管810の画像を生成する場合を例に挙げて画像処理部200の動作を説明した。同様にして、画像処理部200は、3以上の血管810の位置関係を特定して、特定した位置関係に応じた3以上の血管810の画像を生成することができる。
以上説明したように、画像処理システム10によると、交差または重なって撮像された複数の血管810のジオメトリが適切に表現された補正画像を提供することができる。このため、医師などは、補正画像により血管810の走行状態を容易に視認することができる。
図10は、本実施形態に係る画像処理システム10のハードウェア構成の一例を示す。本実施形態に係る画像処理システム10は、ホスト・コントローラ1582により相互に接続されるCPU1505、RAM1520、グラフィック・コントローラ1575、および表示装置1580を有するCPU周辺部と、入出力コントローラ1584によりホスト・コントローラ1582に接続される通信インターフェイス1530、ハードディスクドライブ1540、およびCD−ROMドライブ1560を有する入出力部と、入出力コントローラ1584に接続されるROM1510、フレキシブルディスク・ドライブ1550、および入出力チップ1570を有するレガシー入出力部と、を備える。
ホスト・コントローラ1582は、RAM1520と、高い転送レートでRAM1520をアクセスするCPU1505およびグラフィック・コントローラ1575とを接続する。CPU1505は、ROM1510およびRAM1520に格納されたプログラムに基づいて動作して、各部を制御する。グラフィック・コントローラ1575は、CPU1505等がRAM1520内に設けたフレーム・バッファ上に生成する画像データを取得して、表示装置1580上に表示させる。これに代えて、グラフィック・コントローラ1575は、CPU1505等が生成する画像データを格納するフレーム・バッファを、内部に含んでもよい。
入出力コントローラ1584は、ホスト・コントローラ1582と、比較的高速な入出力装置である通信インターフェイス1530、ハードディスクドライブ1540、CD−ROMドライブ1560を接続する。通信インターフェイス1530は、ネットワークを介して他の装置と通信する。ハードディスクドライブ1540は、画像処理システム10内のCPU1505が使用するプログラムおよびデータを格納する。CD−ROMドライブ1560は、CD−ROM1595からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540に提供する。
また、入出力コントローラ1584には、ROM1510と、フレキシブルディスク・ドライブ1550、および入出力チップ1570の比較的低速な入出力装置とが接続される。ROM1510は、画像処理システム10が起動時に実行するブート・プログラム、画像処理システム10のハードウェアに依存するプログラム等を格納する。フレキシブルディスク・ドライブ1550は、フレキシブルディスク1590からプログラムまたはデータを読み取り、RAM1520を介してハードディスクドライブ1540に提供する。入出力チップ1570は、フレキシブルディスク・ドライブ1550、例えばパラレル・ポート、シリアル・ポート、キーボード・ポート、マウス・ポート等を介して各種の入出力装置を接続する。
RAM1520を介してハードディスクドライブ1540に提供される通信プログラムは、フレキシブルディスク1590、CD−ROM1595、またはICカード等の記録媒体に格納されて利用者によって提供される。通信プログラムは、記録媒体から読み出され、RAM1520を介して画像処理システム10内のハードディスクドライブ1540にインストールされ、CPU1505において実行される。画像処理システム10にインストールされて実行される通信プログラムは、CPU1505等に働きかけて、画像処理システム10を、図1から図9にかけて説明した画像処理部200等として機能させる。
以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。
たとえばICGからの蛍光強度は、ICGの検体800内部における濃度に依存すると考えられる。ICGは検体800で代謝されることによって減少するから、ICG濃度の減少による蛍光強度の補償を実施することが好ましい。当該補償の方法として、ICG投与からの経過時間に応じてICGを追加投与する方法が例示できる。また、ICG濃度の減少を補償するように励起光強度を増加する方法、あるいは蛍光強度に依存する補正値の値を補償する方法が例示できる。
また、前記した実施形態では、内視鏡100を利用して検体800の内部の画像を補正する例を示した。しかし、本実施形態の画像処理システム10は、検体800内部の観察画像に適用が限定されるわけではない。たとえば検体800の外部から励起光あるいは照射光を照射して、検体800の外部から観察できる表面の深部に存在するオブジェクトの画像を補正する場合に適用してもよい。
前記した実施形態では、オブジェクトの内部に含まれるルミネッセンス物質が発する蛍光を利用してオブジェクト画像を取得する例を主に説明した。しかし、オブジェクト画像は、オブジェクトに可視光、赤外線その他の波長範囲の光を照射して、その反射光を撮像することにより取得することもできる。
本実施形態の画像処理システム10の一例をICG注入部700および検体800とともに示す。 画像処理部200の構成例を示す。 オブジェクト画像生成部230の構成例を示す図である。 検体800の内部で光が反射等する様子を模式的に示す。 表示部300における表示画面310の一例を示す。 交差している血管810の像である血管像の一例を示す図である。 血管の走行状態の一例を示す図である。 血管810の走行方向sに沿った方向の深さ変化の一例を示す図である。 血管810の位置関係の一例を示す図である。 本実施形態に係る画像処理システム10のハードウェア構成の一例を示す。
符号の説明
10 画像処理システム
100 内視鏡
102 先端部
110 撮像部
112 対物レンズ
120 ライトガイド
122 IRライトガイド
124 Rライトガイド
126 Gライトガイド
128 Bライトガイド
130 鉗子口
135 鉗子
140 ノズル
200 画像処理部
210 オブジェクト画像取得部
212 特定波長画像取得部
214 表面画像取得部
216 オブジェクト領域特定部
218 算出部
220 オブジェクト画像補正部
222 補正テーブル
224 補間画像生成部
226 表示制御部
230 オブジェクト画像生成部
232 オブジェクト予測画像生成部
234 画像比較部
236 位置関係特定部
238 大きさ特定部
300 表示部
310 表示画面
320 血管
330 血管
400 撮像制御部
500 発光部
600 発光制御部
610 血管部分像
630 領域
900 表面
700 ICG注入部
800 検体
810 血管
1505 CPU
1510 ROM
1520 RAM
1530 通信インターフェイス
1540 ハードディスクドライブ
1550 フレキシブルディスク・ドライブ
1560 CD−ROMドライブ
1570 入出力チップ
1575 グラフィック・コントローラ
1580 表示装置
1582 ホスト・コントローラ
1584 入出力コントローラ
1590 フレキシブルディスク
1595 CD−ROM

Claims (25)

  1. 物質の内部に存在するオブジェクトからの光であって特定波長領域に属する光の画像である特定波長画像を取得する特定波長画像取得部と、
    前記特定波長領域が異なる複数の前記特定波長画像から、前記オブジェクトの前記物質の表面からの深さを算出する深さ算出部と、
    前記深さ算出部が算出した前記オブジェクトの前記深さに応じた前記オブジェクトの画像を生成するオブジェクト画像生成部と、
    を備える画像処理システム。
  2. 前記オブジェクトからの光の画像であるオブジェクト画像を取得するオブジェクト画像取得部
    をさらに備え、
    前記オブジェクト画像生成部は、
    前記深さ算出部が算出した前記オブジェクトの前記深さに応じて前記オブジェクト画像を補正するオブジェクト画像補正部
    を有する
    請求項1に記載の画像処理システム。
  3. 前記特定波長画像取得部は、前記オブジェクトから反射した反射光の画像である反射光画像を、前記特定波長画像として取得する、
    請求項1または2に記載の画像処理システム。
  4. 前記特定波長画像取得部は、前記オブジェクトに白色光を照射して前記オブジェクトから反射した反射光のうち、前記特定波長領域に属する反射光の画像である反射光画像を、前記特定波長画像として取得する、
    請求項3に記載の画像処理システム。
  5. 前記特定波長画像取得部は、前記オブジェクトに前記特定波長領域に属する照射光を照射して前記オブジェクトから反射した反射光の画像である反射光画像を、前記特定波長画像として取得する、
    請求項3に記載の画像処理システム。
  6. 前記特定波長画像取得部は、前記オブジェクトの内部のルミネッセンス物質が発した光のうち、前記特定波長領域に属する光の画像である発光画像を、前記特定波長画像として取得する、
    請求項1または2に記載の画像処理システム。
  7. 前記複数の特定波長画像ごとに前記オブジェクトの画像領域を特定するオブジェクト領域特定部、をさらに備え、
    前記深さ算出部は、前記オブジェクト領域特定部が特定した前記画像領域における輝度に基づいて前記深さを算出する、
    請求項1または2に記載の画像処理システム。
  8. 前記深さ算出部は、長波長域の前記特定波長領域における前記画像領域の輝度に対する短波長域の前記特定波長領域における前記画像領域の輝度の比に基づいて前記深さを算出する、
    請求項7に記載の画像処理システム。
  9. 前記深さ算出部は、前記画像領域における最高輝度または平均輝度に基づいて前記深さを算出する、
    請求項7に記載の画像処理システム。
  10. 前記深さ算出部は、前記画像領域の端部における輝度の変化率に基づいて前記深さを算出する、
    請求項7に記載の画像処理システム。
  11. 前記深さ算出部は、前記オブジェクト領域特定部が特定した前記画像領域における輝度、および前記物質の光学特性に基づいて、前記深さを算出する
    請求項7に記載の画像処理システム。
  12. オブジェクト画像取得部は、前記オブジェクトからの光が前記オブジェクトから前記表面までの間で散乱した散乱光による画像であるオブジェクト画像を取得する
    請求項11に記載の画像処理システム。
  13. 前記深さ算出部は、前記オブジェクト領域特定部が特定した前記画像領域における輝度、および前記物質が光を散乱する散乱特性に基づいて、前記深さを算出する
    請求項12に記載の画像処理システム。
  14. 前記オブジェクトの深さに対応付けて、前記オブジェクトの前記オブジェクト画像における広がりを補正する補正値を記録した補正テーブルをさらに備え、
    前記オブジェクト画像補正部は、前記補正値を適用して、前記オブジェクト画像における前記オブジェクトの広がりを補正する、
    請求項2に記載の画像処理システム。
  15. 前記オブジェクトの内部のルミネッセンス物質を励起する励起光および前記オブジェクトに照射する照射光を発生する発光部と、
    前記ルミネッセンス物質が発する光および前記照射光が前記オブジェクトで反射する反射光の画像を撮像する撮像部と、
    前記オブジェクト画像補正部が補正した補正画像を表示する表示部と、
    をさらに備える請求項2に記載の画像処理システム。
  16. 前記物質の表面の画像である表面画像を取得する表面画像取得部と、
    前記表面画像および前記補正画像の前記表示部への表示を制御する表示制御部と、
    をさらに備える請求項15に記載の画像処理システム。
  17. 前記表示制御部は、前記補正画像における前記オブジェクトの明るさまたは色を前記深さに応じて変化させて前記表示部に表示する、
    請求項16に記載の画像処理システム。
  18. 前記表示制御部は、前記表面画像と前記補正画像とを並べて前記表示部に表示する、
    請求項16に記載の画像処理システム。
  19. 前記表面画像の撮像タイミングと前記補正画像の撮像タイミングとが異なる場合に、時系列に連続した複数の前記補正画像から、前記表面画像の撮像タイミングにおける補間画像を生成する補間画像生成部をさらに備え、
    前記表示制御部は、前記補間画像を前記補正画像として前記表示部に表示する、
    請求項16に記載の画像処理システム。
  20. 前記深さ算出部は、複数の前記特定波長画像から、前記特定波長画像における異なる複数の位置のそれぞれに撮像されている前記オブジェクトの前記深さを、当該複数の位置毎に算出し、
    前記オブジェクト画像生成部は、
    前記深さ算出部が複数の位置毎に算出した前記深さに基づいて、前記オブジェクト画像として撮像されている複数の前記オブジェクトの位置関係を特定する位置関係特定部をさらに有し、
    前記オブジェクト画像補正部は、前記深さ算出部が複数の位置毎に算出した前記深さ、および前記位置関係特定部が特定した位置関係に応じて、前記オブジェクト画像を補正する
    請求項2に記載の画像処理システム。
  21. 前記オブジェクト画像生成部は、
    複数の前記オブジェクトが近接して存在する場合に得られるべき前記オブジェクトの画像であるオブジェクト予測画像を、複数の前記オブジェクトの位置関係が異なるそれぞれの場合について、前記深さ算出部が複数の位置毎に算出した前記深さに基づいて生成するオブジェクト予測画像生成部と、
    前記オブジェクト予測画像生成部が生成した複数の前記オブジェクト予測画像を、前記オブジェクト画像とそれぞれ比較する画像比較部と、をさらに有し、
    前記位置関係特定部は、前記画像比較部による比較結果に基づいて、前記オブジェクト画像として撮像されている複数の前記オブジェクトが近接して存在する領域における位置関係として、前記オブジェクト画像とより一致した前記オブジェクト予測画像が得られた位置関係をより優先して特定する
    請求項20に記載の画像処理システム。
  22. 前記オブジェクト画像補正部は、より浅い位置にある前記オブジェクトがより優先して表示されるべく、前記オブジェクト画像を補正する
    請求項21に記載の画像処理システム。
  23. 前記オブジェクト画像生成部は、
    前記深さ算出部が算出した前記深さに前記オブジェクトが存在する場合に得られるべき前記オブジェクトの画像であるオブジェクト予測画像を、前記オブジェクトが異なる大きさであるそれぞれの場合について、前記深さ算出部が算出した前記深さに基づいて生成するオブジェクト予測画像生成部と、
    前記オブジェクト予測画像生成部が生成した複数の前記オブジェクト予測画像を、前記オブジェクト画像とそれぞれ比較する画像比較部と、
    前記画像比較部による比較結果に基づいて、前記オブジェクト画像として撮像されている前記オブジェクトの大きさとして、前記オブジェクト画像とより一致した前記オブジェクト予測画像が得られた大きさをより優先して特定する大きさ特定部と、をさらに有し、
    前記オブジェクト画像補正部は、前記オブジェクト画像の大きさを、前記大きさ特定部が特定した大きさに応じた大きさに補正する
    請求項2に記載の画像処理システム。
  24. 物質の内部に存在するオブジェクトからの光であって特定波長領域に属する光の画像である特定波長画像を取得する特定波長画像取得段階と、
    前記特定波長領域が異なる複数の前記特定波長画像から、前記オブジェクトの前記物質の表面からの深さを算出する深さ算出段階と、
    前記深さ算出段階において算出した前記オブジェクトの前記深さに応じた前記オブジェクトの画像を生成するオブジェクト画像生成段階と、
    を備える画像処理方法。
  25. 画像処理システム用のプログラムであって、前記画像処理システムを、
    物質の内部に存在するオブジェクトからの光であって特定波長領域に属する光の画像である特定波長画像を取得する特定波長画像取得部、
    前記特定波長領域が異なる複数の前記特定波長画像から、前記オブジェクトの前記物質の表面からの深さを算出する深さ算出部、
    前記深さ算出部が算出した前記オブジェクトの前記深さに応じた前記オブジェクトの画像を生成するオブジェクト画像生成部、
    として機能させるプログラム。
JP2008167820A 2007-07-17 2008-06-26 画像処理システム Active JP5435532B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2008167820A JP5435532B2 (ja) 2007-07-17 2008-06-26 画像処理システム
US12/174,404 US7767980B2 (en) 2007-07-17 2008-07-16 Image processing system, image processing method and computer readable medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2007186198 2007-07-17
JP2007186198 2007-07-17
JP2008167820A JP5435532B2 (ja) 2007-07-17 2008-06-26 画像処理システム

Publications (2)

Publication Number Publication Date
JP2009039515A true JP2009039515A (ja) 2009-02-26
JP5435532B2 JP5435532B2 (ja) 2014-03-05

Family

ID=40440906

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008167820A Active JP5435532B2 (ja) 2007-07-17 2008-06-26 画像処理システム

Country Status (1)

Country Link
JP (1) JP5435532B2 (ja)

Cited By (50)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011062408A (ja) * 2009-09-18 2011-03-31 Fujifilm Corp 蛍光画像撮像装置
JP2011167349A (ja) * 2010-02-18 2011-09-01 Olympus Medical Systems Corp 画像処理装置及び画像処理方法
JP2012213552A (ja) * 2011-04-01 2012-11-08 Fujifilm Corp 内視鏡システム、内視鏡システムのプロセッサ装置、及び画像処理方法
JP2013255813A (ja) * 2013-07-17 2013-12-26 Fujifilm Corp 蛍光画像撮像装置
US9262687B2 (en) 2012-12-19 2016-02-16 Olympus Corporation Image processing apparatus and method of operation of image processing appartus
JP2017184861A (ja) * 2016-04-01 2017-10-12 富士フイルム株式会社 画像処理装置及びその作動方法並びに内視鏡用プロセッサ装置及びその作動方法
JP2021509831A (ja) * 2017-12-28 2021-04-08 エシコン エルエルシーEthicon LLC レーザ光及び赤色−緑色−青色着色を使用した、後方散乱光の特性の決定
CN114469008A (zh) * 2022-03-09 2022-05-13 浙江大学 基于血管近红外成像的血管穿刺难易智能分级装置
US11589932B2 (en) 2017-12-28 2023-02-28 Cilag Gmbh International Usage and technique analysis of surgeon / staff performance against a baseline to optimize device utilization and performance for both current and future procedures
US11589915B2 (en) 2018-03-08 2023-02-28 Cilag Gmbh International In-the-jaw classifier based on a model
US11589865B2 (en) 2018-03-28 2023-02-28 Cilag Gmbh International Methods for controlling a powered surgical stapler that has separate rotary closure and firing systems
US11601371B2 (en) 2017-12-28 2023-03-07 Cilag Gmbh International Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs
US11648022B2 (en) 2017-10-30 2023-05-16 Cilag Gmbh International Surgical instrument systems comprising battery arrangements
US11659023B2 (en) 2017-12-28 2023-05-23 Cilag Gmbh International Method of hub communication
US11666331B2 (en) 2017-12-28 2023-06-06 Cilag Gmbh International Systems for detecting proximity of surgical end effector to cancerous tissue
US11672605B2 (en) 2017-12-28 2023-06-13 Cilag Gmbh International Sterile field interactive control displays
US11678881B2 (en) 2017-12-28 2023-06-20 Cilag Gmbh International Spatial awareness of surgical hubs in operating rooms
US11696760B2 (en) 2017-12-28 2023-07-11 Cilag Gmbh International Safety systems for smart powered surgical stapling
US11701139B2 (en) 2018-03-08 2023-07-18 Cilag Gmbh International Methods for controlling temperature in ultrasonic device
US11701185B2 (en) 2017-12-28 2023-07-18 Cilag Gmbh International Wireless pairing of a surgical device with another device within a sterile surgical field based on the usage and situational awareness of devices
US11707293B2 (en) 2018-03-08 2023-07-25 Cilag Gmbh International Ultrasonic sealing algorithm with temperature control
US11737668B2 (en) 2017-12-28 2023-08-29 Cilag Gmbh International Communication hub and storage device for storing parameters and status of a surgical device to be shared with cloud based analytics systems
US11744604B2 (en) 2017-12-28 2023-09-05 Cilag Gmbh International Surgical instrument with a hardware-only control circuit
US11751872B2 (en) 2019-02-19 2023-09-12 Cilag Gmbh International Insertable deactivator element for surgical stapler lockouts
US11751958B2 (en) 2017-12-28 2023-09-12 Cilag Gmbh International Surgical hub coordination of control and communication of operating room devices
US11771487B2 (en) 2017-12-28 2023-10-03 Cilag Gmbh International Mechanisms for controlling different electromechanical systems of an electrosurgical instrument
US11775682B2 (en) 2017-12-28 2023-10-03 Cilag Gmbh International Data stripping method to interrogate patient records and create anonymized record
US11779337B2 (en) 2017-12-28 2023-10-10 Cilag Gmbh International Method of using reinforced flexible circuits with multiple sensors to optimize performance of radio frequency devices
US11786245B2 (en) 2017-12-28 2023-10-17 Cilag Gmbh International Surgical systems with prioritized data transmission capabilities
US11786251B2 (en) 2017-12-28 2023-10-17 Cilag Gmbh International Method for adaptive control schemes for surgical network control and interaction
US11801098B2 (en) 2017-10-30 2023-10-31 Cilag Gmbh International Method of hub communication with surgical instrument systems
US11818052B2 (en) 2017-12-28 2023-11-14 Cilag Gmbh International Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs
US11832899B2 (en) 2017-12-28 2023-12-05 Cilag Gmbh International Surgical systems with autonomously adjustable control programs
US11844579B2 (en) 2017-12-28 2023-12-19 Cilag Gmbh International Adjustments based on airborne particle properties
US11857152B2 (en) 2017-12-28 2024-01-02 Cilag Gmbh International Surgical hub spatial awareness to determine devices in operating theater
US11864728B2 (en) 2017-12-28 2024-01-09 Cilag Gmbh International Characterization of tissue irregularities through the use of mono-chromatic light refractivity
US11871901B2 (en) 2012-05-20 2024-01-16 Cilag Gmbh International Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage
US11890065B2 (en) 2017-12-28 2024-02-06 Cilag Gmbh International Surgical system to limit displacement
US11896443B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Control of a surgical system through a surgical barrier
US11896322B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Sensing the patient position and contact utilizing the mono-polar return pad electrode to provide situational awareness to the hub
US11903587B2 (en) 2017-12-28 2024-02-20 Cilag Gmbh International Adjustment to the surgical stapling control based on situational awareness
US11903601B2 (en) 2017-12-28 2024-02-20 Cilag Gmbh International Surgical instrument comprising a plurality of drive systems
US11911045B2 (en) 2017-10-30 2024-02-27 Cllag GmbH International Method for operating a powered articulating multi-clip applier
US11925350B2 (en) 2019-02-19 2024-03-12 Cilag Gmbh International Method for providing an authentication lockout in a surgical stapler with a replaceable cartridge
US11931027B2 (en) 2018-03-28 2024-03-19 Cilag Gmbh Interntional Surgical instrument comprising an adaptive control system
US11937769B2 (en) 2017-12-28 2024-03-26 Cilag Gmbh International Method of hub communication, processing, storage and display
US11969142B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Method of compressing tissue within a stapling device and simultaneously displaying the location of the tissue within the jaws
US11969216B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Surgical network recommendations from real time analysis of procedure variables against a baseline highlighting differences from the optimal solution
US11998193B2 (en) 2017-12-28 2024-06-04 Cilag Gmbh International Method for usage of the shroud as an aspect of sensing or controlling a powered surgical device, and a control algorithm to adjust its default operation
US12009095B2 (en) 2017-12-28 2024-06-11 Cilag Gmbh International Real-time analysis of comprehensive cost of all instrumentation used in surgery utilizing data fluidity to track instruments through stocking and in-house processes

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1997024066A1 (fr) * 1995-12-27 1997-07-10 Toa Medical Electronics Co., Ltd. Appareil pour examen sanguin non invasif
JPH10165365A (ja) * 1996-12-10 1998-06-23 Fuji Photo Film Co Ltd 内視鏡
JP2001170009A (ja) * 1999-12-20 2001-06-26 Olympus Optical Co Ltd 被検体観察装置
JP2002034893A (ja) * 2000-07-27 2002-02-05 Olympus Optical Co Ltd 内視鏡装置
JP2002107291A (ja) * 2000-10-03 2002-04-10 Sysmex Corp 非侵襲生体計測装置とその方法
JP2003290126A (ja) * 2002-03-29 2003-10-14 Olympus Optical Co Ltd センチネルリンパ節検出装置及びその方法
JP2004181096A (ja) * 2002-12-05 2004-07-02 Olympus Corp 画像処理方法
JP2006138860A (ja) * 1995-08-01 2006-06-01 Medispectra Inc 光学的微細プローベ及び材料のスペクトル分析方法
JP2006341078A (ja) * 2005-05-12 2006-12-21 Olympus Medical Systems Corp 生体観測装置
JP2007313169A (ja) * 2006-05-29 2007-12-06 Olympus Corp 病変抽出装置および病変抽出方法

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006138860A (ja) * 1995-08-01 2006-06-01 Medispectra Inc 光学的微細プローベ及び材料のスペクトル分析方法
WO1997024066A1 (fr) * 1995-12-27 1997-07-10 Toa Medical Electronics Co., Ltd. Appareil pour examen sanguin non invasif
JPH10165365A (ja) * 1996-12-10 1998-06-23 Fuji Photo Film Co Ltd 内視鏡
JP2001170009A (ja) * 1999-12-20 2001-06-26 Olympus Optical Co Ltd 被検体観察装置
JP2002034893A (ja) * 2000-07-27 2002-02-05 Olympus Optical Co Ltd 内視鏡装置
JP2002107291A (ja) * 2000-10-03 2002-04-10 Sysmex Corp 非侵襲生体計測装置とその方法
JP2003290126A (ja) * 2002-03-29 2003-10-14 Olympus Optical Co Ltd センチネルリンパ節検出装置及びその方法
JP2004181096A (ja) * 2002-12-05 2004-07-02 Olympus Corp 画像処理方法
JP2006341078A (ja) * 2005-05-12 2006-12-21 Olympus Medical Systems Corp 生体観測装置
JP2007313169A (ja) * 2006-05-29 2007-12-06 Olympus Corp 病変抽出装置および病変抽出方法

Cited By (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011062408A (ja) * 2009-09-18 2011-03-31 Fujifilm Corp 蛍光画像撮像装置
JP2011167349A (ja) * 2010-02-18 2011-09-01 Olympus Medical Systems Corp 画像処理装置及び画像処理方法
JP2012213552A (ja) * 2011-04-01 2012-11-08 Fujifilm Corp 内視鏡システム、内視鏡システムのプロセッサ装置、及び画像処理方法
US11871901B2 (en) 2012-05-20 2024-01-16 Cilag Gmbh International Method for situational awareness for surgical network or surgical network connected device capable of adjusting function based on a sensed situation or usage
US9262687B2 (en) 2012-12-19 2016-02-16 Olympus Corporation Image processing apparatus and method of operation of image processing appartus
JPWO2014097758A1 (ja) * 2012-12-19 2017-01-12 オリンパス株式会社 画像処理装置
JP2013255813A (ja) * 2013-07-17 2013-12-26 Fujifilm Corp 蛍光画像撮像装置
US10986980B2 (en) 2016-04-01 2021-04-27 Fujifilm Corporation Image processing device, method for operating same, endoscope processor device, and method for operating same
JP2017184861A (ja) * 2016-04-01 2017-10-12 富士フイルム株式会社 画像処理装置及びその作動方法並びに内視鏡用プロセッサ装置及びその作動方法
US11696778B2 (en) 2017-10-30 2023-07-11 Cilag Gmbh International Surgical dissectors configured to apply mechanical and electrical energy
US11911045B2 (en) 2017-10-30 2024-02-27 Cllag GmbH International Method for operating a powered articulating multi-clip applier
US11925373B2 (en) 2017-10-30 2024-03-12 Cilag Gmbh International Surgical suturing instrument comprising a non-circular needle
US11819231B2 (en) 2017-10-30 2023-11-21 Cilag Gmbh International Adaptive control programs for a surgical system comprising more than one type of cartridge
US11801098B2 (en) 2017-10-30 2023-10-31 Cilag Gmbh International Method of hub communication with surgical instrument systems
US11793537B2 (en) 2017-10-30 2023-10-24 Cilag Gmbh International Surgical instrument comprising an adaptive electrical system
US11648022B2 (en) 2017-10-30 2023-05-16 Cilag Gmbh International Surgical instrument systems comprising battery arrangements
US11759224B2 (en) 2017-10-30 2023-09-19 Cilag Gmbh International Surgical instrument systems comprising handle arrangements
US11771487B2 (en) 2017-12-28 2023-10-03 Cilag Gmbh International Mechanisms for controlling different electromechanical systems of an electrosurgical instrument
US11779337B2 (en) 2017-12-28 2023-10-10 Cilag Gmbh International Method of using reinforced flexible circuits with multiple sensors to optimize performance of radio frequency devices
US12009095B2 (en) 2017-12-28 2024-06-11 Cilag Gmbh International Real-time analysis of comprehensive cost of all instrumentation used in surgery utilizing data fluidity to track instruments through stocking and in-house processes
US11678881B2 (en) 2017-12-28 2023-06-20 Cilag Gmbh International Spatial awareness of surgical hubs in operating rooms
US11696760B2 (en) 2017-12-28 2023-07-11 Cilag Gmbh International Safety systems for smart powered surgical stapling
US11666331B2 (en) 2017-12-28 2023-06-06 Cilag Gmbh International Systems for detecting proximity of surgical end effector to cancerous tissue
US11998193B2 (en) 2017-12-28 2024-06-04 Cilag Gmbh International Method for usage of the shroud as an aspect of sensing or controlling a powered surgical device, and a control algorithm to adjust its default operation
US11701185B2 (en) 2017-12-28 2023-07-18 Cilag Gmbh International Wireless pairing of a surgical device with another device within a sterile surgical field based on the usage and situational awareness of devices
US11969216B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Surgical network recommendations from real time analysis of procedure variables against a baseline highlighting differences from the optimal solution
US11712303B2 (en) 2017-12-28 2023-08-01 Cilag Gmbh International Surgical instrument comprising a control circuit
US11737668B2 (en) 2017-12-28 2023-08-29 Cilag Gmbh International Communication hub and storage device for storing parameters and status of a surgical device to be shared with cloud based analytics systems
US11744604B2 (en) 2017-12-28 2023-09-05 Cilag Gmbh International Surgical instrument with a hardware-only control circuit
US11969142B2 (en) 2017-12-28 2024-04-30 Cilag Gmbh International Method of compressing tissue within a stapling device and simultaneously displaying the location of the tissue within the jaws
US11751958B2 (en) 2017-12-28 2023-09-12 Cilag Gmbh International Surgical hub coordination of control and communication of operating room devices
US11659023B2 (en) 2017-12-28 2023-05-23 Cilag Gmbh International Method of hub communication
US11601371B2 (en) 2017-12-28 2023-03-07 Cilag Gmbh International Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs
US11775682B2 (en) 2017-12-28 2023-10-03 Cilag Gmbh International Data stripping method to interrogate patient records and create anonymized record
US11903601B2 (en) 2017-12-28 2024-02-20 Cilag Gmbh International Surgical instrument comprising a plurality of drive systems
US11786245B2 (en) 2017-12-28 2023-10-17 Cilag Gmbh International Surgical systems with prioritized data transmission capabilities
US11786251B2 (en) 2017-12-28 2023-10-17 Cilag Gmbh International Method for adaptive control schemes for surgical network control and interaction
JP7234238B2 (ja) 2017-12-28 2023-03-07 エシコン エルエルシー レーザ光及び赤色-緑色-青色着色を使用した、後方散乱光の特性の決定
US11937769B2 (en) 2017-12-28 2024-03-26 Cilag Gmbh International Method of hub communication, processing, storage and display
US11818052B2 (en) 2017-12-28 2023-11-14 Cilag Gmbh International Surgical network determination of prioritization of communication, interaction, or processing based on system or device needs
JP2021509831A (ja) * 2017-12-28 2021-04-08 エシコン エルエルシーEthicon LLC レーザ光及び赤色−緑色−青色着色を使用した、後方散乱光の特性の決定
US11832899B2 (en) 2017-12-28 2023-12-05 Cilag Gmbh International Surgical systems with autonomously adjustable control programs
US11672605B2 (en) 2017-12-28 2023-06-13 Cilag Gmbh International Sterile field interactive control displays
US11918302B2 (en) 2017-12-28 2024-03-05 Cilag Gmbh International Sterile field interactive control displays
US11844579B2 (en) 2017-12-28 2023-12-19 Cilag Gmbh International Adjustments based on airborne particle properties
US11857152B2 (en) 2017-12-28 2024-01-02 Cilag Gmbh International Surgical hub spatial awareness to determine devices in operating theater
US11864845B2 (en) 2017-12-28 2024-01-09 Cilag Gmbh International Sterile field interactive control displays
US11864728B2 (en) 2017-12-28 2024-01-09 Cilag Gmbh International Characterization of tissue irregularities through the use of mono-chromatic light refractivity
US11589932B2 (en) 2017-12-28 2023-02-28 Cilag Gmbh International Usage and technique analysis of surgeon / staff performance against a baseline to optimize device utilization and performance for both current and future procedures
US11890065B2 (en) 2017-12-28 2024-02-06 Cilag Gmbh International Surgical system to limit displacement
US11896443B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Control of a surgical system through a surgical barrier
US11896322B2 (en) 2017-12-28 2024-02-13 Cilag Gmbh International Sensing the patient position and contact utilizing the mono-polar return pad electrode to provide situational awareness to the hub
US11903587B2 (en) 2017-12-28 2024-02-20 Cilag Gmbh International Adjustment to the surgical stapling control based on situational awareness
US11839396B2 (en) 2018-03-08 2023-12-12 Cilag Gmbh International Fine dissection mode for tissue classification
US11844545B2 (en) 2018-03-08 2023-12-19 Cilag Gmbh International Calcified vessel identification
US11589915B2 (en) 2018-03-08 2023-02-28 Cilag Gmbh International In-the-jaw classifier based on a model
US11707293B2 (en) 2018-03-08 2023-07-25 Cilag Gmbh International Ultrasonic sealing algorithm with temperature control
US11986233B2 (en) 2018-03-08 2024-05-21 Cilag Gmbh International Adjustment of complex impedance to compensate for lost power in an articulating ultrasonic device
US11701139B2 (en) 2018-03-08 2023-07-18 Cilag Gmbh International Methods for controlling temperature in ultrasonic device
US11678927B2 (en) 2018-03-08 2023-06-20 Cilag Gmbh International Detection of large vessels during parenchymal dissection using a smart blade
US11931027B2 (en) 2018-03-28 2024-03-19 Cilag Gmbh Interntional Surgical instrument comprising an adaptive control system
US11589865B2 (en) 2018-03-28 2023-02-28 Cilag Gmbh International Methods for controlling a powered surgical stapler that has separate rotary closure and firing systems
US11986185B2 (en) 2018-03-28 2024-05-21 Cilag Gmbh International Methods for controlling a surgical stapler
US11925350B2 (en) 2019-02-19 2024-03-12 Cilag Gmbh International Method for providing an authentication lockout in a surgical stapler with a replaceable cartridge
US11751872B2 (en) 2019-02-19 2023-09-12 Cilag Gmbh International Insertable deactivator element for surgical stapler lockouts
CN114469008A (zh) * 2022-03-09 2022-05-13 浙江大学 基于血管近红外成像的血管穿刺难易智能分级装置

Also Published As

Publication number Publication date
JP5435532B2 (ja) 2014-03-05

Similar Documents

Publication Publication Date Title
JP5435532B2 (ja) 画像処理システム
JP5278854B2 (ja) 画像処理システムおよびプログラム
JP5257891B2 (ja) 画像処理システムおよびプログラム
US7767980B2 (en) Image processing system, image processing method and computer readable medium
US8633976B2 (en) Position specifying system, position specifying method, and computer readable medium
JP2018514349A (ja) 血流及び灌流の画像化及び定量化を行うマルチスペクトルレーザ画像化(msli)方法及びシステム
JP2008522761A (ja) 規準化された蛍光又は生物発光撮像のためのシステムと方法
JP2008173290A (ja) 蛍光観察装置および蛍光観察方法
JP7190597B2 (ja) 内視鏡システム
JP6319449B2 (ja) イメージング装置
WO2009120228A1 (en) Image processing systems and methods for surgical applications
EP3945986A1 (en) Near-infrared fluorescence imaging for blood flow and perfusion visualization and related systems and computer program products
US20230283742A1 (en) Imaging system having structural data enhancement for non-visible spectra
JP6485275B2 (ja) イメージング装置
JP2018128294A (ja) 関心領域追跡装置
AU2012236545B2 (en) Apparatus and method for identifying one or more amyloid beta plaques in a plurality of discrete OCT retinal layers
US20190239749A1 (en) Imaging apparatus
JP5087771B2 (ja) 撮像システム、内視鏡システム、およびプログラム
JP2018126234A (ja) 時間強度曲線測定装置
JP6850358B2 (ja) 医療画像処理システム、内視鏡システム、診断支援装置、及び医療業務支援装置
JP6721939B2 (ja) 蛍光画像解析装置
EP4181758A1 (en) Image-based determination of a property of a fluorescing substance
WO2024039586A1 (en) Systems and methods for detecting and mitigating extraneous light at a scene

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101221

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120911

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120913

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121112

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131018

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131112

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131204

R150 Certificate of patent or registration of utility model

Ref document number: 5435532

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250