JP2004187711A - Endoscopic equipment - Google Patents

Endoscopic equipment Download PDF

Info

Publication number
JP2004187711A
JP2004187711A JP2002355609A JP2002355609A JP2004187711A JP 2004187711 A JP2004187711 A JP 2004187711A JP 2002355609 A JP2002355609 A JP 2002355609A JP 2002355609 A JP2002355609 A JP 2002355609A JP 2004187711 A JP2004187711 A JP 2004187711A
Authority
JP
Japan
Prior art keywords
observation
processing
image
unit
optical system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002355609A
Other languages
Japanese (ja)
Inventor
Kiyoshi Miyake
清士 三宅
Mitsuo Obata
光男 小畑
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2002355609A priority Critical patent/JP2004187711A/en
Publication of JP2004187711A publication Critical patent/JP2004187711A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Endoscopes (AREA)
  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide endoscopic equipment capable of processing such a display that a substance in an extremely near point region becoming the obstruction of visibility is doubly observed at the time of observation of a stereoscopic image or a high brightness display so as to exert no effect on an observer and easy to observe the stereoscopic image. <P>SOLUTION: The endoscopic equipment is provided with a judge part 117 for forming both observation images from the observation windows 108L and 108R of a direct vision binocular adaptor 100a3 as stereoscopic image data and judging whether the display of the stereoscopic image on display three-dimensional glass 49 is able to construct, and a video processing indication part 214 and a graphic processing indication part 215 both of which process the observation image unable to construct the stereoscopic image at the time of input of construction unable data on the basis of the judge result from the judge part 117 not to be displayed. <P>COPYRIGHT: (C)2004,JPO&NCIPI

Description

【0001】
【発明の属する技術分野】
本発明は、左右2つの観察光学系からの両方の観察像から立体画像情報を構築し、表示する内視鏡装置に関する。
【0002】
【従来の技術】
一般に、内視鏡の先端部に左右2つの観察光学系を備え、左右2つの観察光学系の両方の観察像から立体画像情報を構築し、表示する内視鏡装置が従来から開発されている。例えば、特許文献1には内視鏡の先端部に2つの観察光学系を設け、その2つの観察光学系の眼の視差を利用して立体観察する技術が示されている。そして、この立体観察の技術と、鉗子等の処置具の操作とを組み合わせて、異物回収などの操作を行なう技術が示されている。
【0003】
また、特許文献2には、3次元眼鏡による眼鏡型ディスプレイ装置(3次元グラス)が示されている。
【0004】
【特許文献1】
特開平8−215142号公報
【0005】
【特許文献2】
特開2002−112290号公報
【0006】
【発明が解決しようとする課題】
上記従来構成の内視鏡では、立体表示の際に、2つの観察光学系から得られる観察像の焦点位置よりも観察光学系に接近した極近点位置に物体面が配置されている場合には、2つの観察光学系から得られる観察像の視差に対して物体面の距離が近すぎるために、表示部に表示される観察像を立体状態に再構築することが難しい。そのため、表示部に表示される観察像は、極近点に位置する物体が2重に見える現象が生じるので、この部分が観察の妨げになる。その結果、操作者に誤解を与えたり、疲労の原因となるなど内視鏡による検査効率が低下する問題がある。
【0007】
また、極近点に物体が配置されている状態で、反射光によるハレーションが発生する場合には、その反射光がさらに2重となる。そのため、この場合にはより観察に不具合が生じる。さらに、物体面の輝度が高く、白色にしか見えない場合には、立体情報を喪失し、正確に立体表示できないという不具合がある。
【0008】
本発明は上記事情に着目してなされたもので、その目的は、立体画像の観察時に視認の妨げとなる極近点領域の物体が2重に観察されてしまう表示や、高輝度の表示を観察者の観察に影響を与えないように処理することができ、立体画像が観察しやすい内視鏡装置を提供することにある。
【0009】
【課題を解決するための手段】
請求項1の発明は、左右2つの観察光学系を有する双眼観察光学系と、上記左右2つの観察光学系からの両方の観察像を立体画像情報として構築し、表示する表示手段とを有する内視鏡装置において、上記表示手段への立体画像表示の構築可不可を判別する判別手段と、この判別手段からの判別結果に基いて構築不可情報の入力時に上記立体画像表示の構築不可の観察画像が表示されないように処理する処理手段とを設けたことを特徴とする内視鏡装置である。
そして、本請求項1の発明では、左右2つの観察光学系の観察像を立体画像情報として構築可不可を判別手段によって判別し、構築不可情報を処理手段によって立体画像表示の構築不可の観察画像が表示されないように処理することにより、操作者に誤解を与えたり、疲労の原因となる不適切な情報を排除するようにしたものである。
【0010】
請求項2の発明は、上記判別手段は上記双眼観察光学系から得られる観察像に対する3角測量による被写体距離を測定する手段であることを特徴とする請求項1に記載の内視鏡装置である。
そして、本請求項2の発明では、双眼観察光学系から得られる観察像に対し、3角測量による被写体距離を測定し、その測定データにより立体画像の構築可不可を判別するようにしたものである。
【0011】
請求項3の発明は、上記判別手段は上記双眼観察光学系から得られる観察像中の高輝度部を抽出する高輝度部抽出手段であることを特徴とする請求項1に記載の内視鏡装置である。
そして、本請求項3の発明では、双眼観察光学系から得られる観察像中の高輝度部を高輝度部抽出手段によって抽出し、その測定データにより立体画像の構築可不可を判別するようにしたものである。
【0012】
請求項4の発明は、上記処理手段は上記双眼観察光学系から得られる観察像の焦点位置よりも上記双眼観察光学系に接近した極近点領域で得られた上記立体画像表示の構築不可の観察画像を加工処理する加工処理手段であることを特徴とする請求項1に記載の内視鏡装置である。
そして、本請求項4の発明では、処理手段による処理時には双眼観察光学系から得られる観察像の焦点位置よりも双眼観察光学系に接近した極近点領域で得られた立体画像表示の構築不可の観察画像を加工処理手段によって加工処理して表示されないようにしたものである。
【0013】
請求項5の発明は、上記処理手段は上記双眼観察光学系から得られる観察像の焦点位置よりも上記双眼観察光学系に接近した極近点領域で得られた上記立体画像表示の構築不可の高輝度観察画像を加工処理する高輝度画像の加工処理手段であることを特徴とする請求項1に記載の内視鏡装置である。
そして、本請求項5の発明では、処理手段による処理時には双眼観察光学系から得られる観察像の焦点位置よりも双眼観察光学系に接近した極近点領域で得られた立体画像表示の構築不可の高輝度観察画像を高輝度画像の加工処理手段によって加工処理して表示されないようにしたものである。
【0014】
請求項6の発明は、上記加工処理手段は上記極近点領域で得られた高輝度観察画像の高輝度部分をマスクするマスク手段であることを特徴とする請求項4または請求項5に記載の内視鏡装置である。
そして、本請求項6の発明では、処理手段による処理時には極近点領域で得られた高輝度観察画像の高輝度部分をマスク手段によってマスクして表示されないようにしたものである。
【0015】
請求項7の発明は、上記処理手段は上記双眼観察光学系から得られる観察像の焦点位置よりも上記双眼観察光学系に接近した極近点領域で得られた上記立体画像表示の構築不可の観察画像を加工処理する加工処理手段と、この加工処理手段からの加工情報を生成する加工情報生成手段と、この加工情報生成手段から前記加工情報を出力する加工情報出力手段とを具備することを特徴とする請求項1に記載の内視鏡装置である。
そして、本請求項7の発明では、処理手段による処理時には双眼観察光学系から得られる観察像の焦点位置よりも双眼観察光学系に接近した極近点領域で得られた立体画像表示の構築不可の観察画像を加工処理手段によって加工処理し、この加工情報を加工情報生成手段によって生成し、さらに加工情報出力手段によってこの加工情報を出力するようにしたものである。
【0016】
請求項8の発明は、上記処理手段は上記双眼観察光学系から得られる観察像の焦点位置よりも上記双眼観察光学系に接近した極近点領域で得られた上記立体画像表示の構築不可の高輝度観察画像を加工処理する加工処理手段と、この加工処理手段からの加工情報を生成する加工情報生成手段とを具備することを特徴とする請求項1に記載の内視鏡装置である。
そして、本請求項8の発明では、処理手段による処理時には双眼観察光学系から得られる観察像の焦点位置よりも双眼観察光学系に接近した極近点領域で得られた立体画像表示の構築不可の高輝度観察画像を加工処理手段によって加工処理し、この加工処理手段からの加工情報を加工情報生成手段によって生成するようにしたものである。
【0017】
請求項9の発明は、上記処理手段は上記双眼観察光学系から得られる観察像の焦点位置よりも上記双眼観察光学系に接近した極近点領域で得られた上記立体画像表示の構築不可の観察画像を排除する排除手段であることを特徴とする請求項1に記載の内視鏡装置である。
そして、本請求項9の発明では、処理手段による処理時には双眼観察光学系から得られる観察像の焦点位置よりも双眼観察光学系に接近した極近点領域で得られた立体画像表示の構築不可の観察画像を排除手段によって排除するようにしたものである。
【0018】
【発明の実施の形態】
以下、本発明の第1の実施の形態を図1乃至図14(A),(B)を参照して説明する。図1は本実施の形態の工業用内視鏡装置1を示すものである。この内視鏡装置1には内視鏡の構成要素を一体的に組み付けた組み付けユニット2と、この組み付けユニット2を着脱可能に収納する内視鏡収納ケース3とが設けられている。
【0019】
また、図2(A)に示すように内視鏡収納ケース3には上面が開口された箱型のケース本体3aと、このケース本体3aの上面開口部を開閉する蓋3bとが設けられている。この蓋3bは図示しないヒンジ部を介してケース本体3aの上面開口部の一側部に回動可能に連結されている。そして、図1では内視鏡収納ケース3内に組み付けユニット2を収納した状態で、ケース本体3aの蓋3bを開いた状態を示している。
【0020】
また、図2(B)は内視鏡装置1の組み付けユニット2の分解斜視図を示すものである。この組み付けユニット2にはスコープ部4と、固定ユニット5と、収納部6とが互いに着脱可能に設けられている。
【0021】
さらに、スコープ部4は少なくとも検査対象空間内に挿入される可撓性を有する細長い挿入部4aと、中間連結部4bと、ユニバーサルケーブル4cと、ベースユニット(挿入部4aの駆動機構部)4dとを有している。ここで、挿入部4aは、最先端位置に配置され、観察用の観察光学系や、照明光学系などが組み込まれたヘッド部4a1と、遠隔的に湾曲操作可能な湾曲部4a2と、細長い可撓管部4a3とから構成されている。そして、ヘッド部4a1と可撓管部4a3との間に湾曲部4a2が介設されている。
【0022】
また、図3に示すようにヘッド部4a1の先端面には略半円形状の突設部41が形成されている。この突設部41には観察光学系106が配設されている。図4に示すようにこの観察光学系106には光学レンズ群42と、この光学レンズ群42によって結像される観察像を撮像する固体撮像素子であるCCD43とが設けられている。
【0023】
さらに、ヘッド部4a1の先端面には挿入部4aの内部に軸心方向に沿って延設された内部チャンネル33の先端開口部101が配設されている。この先端開口部101の両側には照明光学系の照明窓104がそれぞれ形成されている。
【0024】
また、図4に示すように、本内視鏡装置1のヘッド部4a1の先端部には、光学アダプタ装着部44が設けられている。この光学アダプタ装着部44には、例えばバヨネット式、スクリュー式などの適宜の構成のマウント部が設けられている。そして、この光学アダプタ装着部44には複数種類の光学アダプタ、例えば図3(A)に示すように直視アダプタ100a1が着脱自在に取り付けられている。
【0025】
さらに、ヘッド部4a1の光学アダプタ装着部44には直視アダプタ100a1の他に、図3(B)に示す側視アダプタ100a2や、図3(C)に示す3次元表示可能な双眼タイプの直視双眼アダプタ(双眼観察光学系)100a3および図3(D)に示す側視双眼アダプタ(双眼観察光学系)100a4などが必要に応じて適宜、選択的に着脱自在に取り付けられる構成となっている。
【0026】
さらに、各光学アダプタ100a1〜100a4には、アダプタ観察光学系107と、アダプタ照明窓105と、アダプタ開口部103とがそれぞれ設けられている。そして、各光学アダプタ100a1〜100a4がヘッド部4a1の光学アダプタ装着部44に装着された状態で、ヘッド部4a1の観察光学系106と、アダプタ観察光学系107とが連結され、同様にヘッド部4a1の2つの照明窓104とアダプタ照明窓105とが連結され、さらにヘッド部4a1の先端開口部101とアダプタ開口部103とが連結されるようになっている。
【0027】
また、図3(A)に示す直視アダプタ100a1および図3(B)に示す側視アダプタ100a2の各アダプタ観察光学系107には1つの観察窓108のみが設けられている。そして、このアダプタ観察光学系107の1つの観察窓108からの観察像がヘッド部4a1の観察光学系106を介してCCD43に結像されるようになっている。そのため、この場合には2次元画像の観察像が表示されるようになっている。
【0028】
また、図3(C)に示すステレオ計測用の直視双眼アダプタ100a3および図3(D)に示す側視双眼アダプタ100a4の各アダプタ観察光学系107にはそれぞれ左右2つの観察窓(観察光学系)108L,108Rが設けられている。なお、図4はヘッド部4a1にステレオ計測用の直視双眼アダプタ100a3が装着された状態を示している。
【0029】
そして、アダプタ観察光学系107の2つの観察窓108L,108Rからの観察像がヘッド部4a1の観察光学系106を介して2つの光学経路にて1つのCCD43に結像されるようになっている。なお、アダプタ観察光学系107の2つの観察窓108L,108Rに対応する2つのCCD43をヘッド部4a1に設ける構成にしてもよい。
【0030】
また、ヘッド部4a1の光学アダプタ装着部44には、アダプタ認識端子45が設けられている。このアダプタ認識端子45には一対の接点が設けられている。さらに、アダプタ認識端子45にはケーブル46の一端が接続されている。このケーブル46の他端は後述するアダプタ認識用I/F(AD認識用I/F)207(図5参照)に接続されている。
【0031】
また、3次元表示可能な双眼タイプの直視双眼アダプタ100a3および側視双眼アダプタ100a4にはアダプタ認識端子45の一対の接点間を導通させる導通板119が設けられている。そして、光学アダプタ装着部44に直視双眼アダプタ100a3、または側視双眼アダプタ100a4を取り付けた場合には、直視双眼アダプタ100a3、側視双眼アダプタ100a4の導通板119によりアダプタ認識端子45の一対の接点間が導通状態となる。この導通状態がケーブル46を介してアダプタ認識部115によって検知されるようになっている。
【0032】
また、挿入部4aの可撓管部4a3の基端部には中間連結部4bの先端部が連結されている。この中間連結部4bには図3(A)に示すように使用者が片手で把持可能なグリップ部4b1が設けられている。このグリップ部4b1の後端部にはチャンネルポート部4b2とユニバーサルケーブル4cの先端部との連結部とが並設されている。
【0033】
ここで、チャンネルポート部4b2には挿入部4aの内部に軸心方向に沿って延設された内部チャンネル33の鉗子口(基端側開口端)35が配設されている。さらに、ユニバーサルケーブル4cの連結部は挿入部4aの軸心方向に対して斜めに傾斜させた状態で配置されている。
【0034】
なお、中間連結部4bの先端側には挿入部4aの急激な曲げを防止する挿入部保護ゴム38、基端側にはユニバーサルケーブル4cの急激な曲げを防止するユニバーサルケーブル保護ゴム39がそれぞれ設けられている。
【0035】
また、ユニバーサルケーブル4cの基端部はベースユニット4dに連結されている。このベースユニット4dには、図5に示すようにユニットケース4d1の内部に電動湾曲装置51と、この電動湾曲装置51の動作を制御する電動湾曲制御部52とカメラコントロールユニット(CCU)53などが内蔵されている。
【0036】
電動湾曲装置51には上下湾曲操作用及び左右湾曲操作用にそれぞれ対応する2つのモータユニット55a,55bが設けられている。各モータユニット55a,55bは、出力軸55a1,55b1と、駆動力を発生させる駆動源となるモータ部55a2,55b2と、出力軸55a1,55b1の回転量を検出するポテンショメータ104a,104bとが設けられている。
【0037】
したがって、電動湾曲装置51の上下湾曲操作用のモータユニット55aにより上下湾曲操作用の2本のアングルワイヤが牽引動作され、また、左右湾曲操作用のモータユニット55bによって左右湾曲操作用の2本のアングルワイヤが牽引動作されることにより、湾曲部4a2が上下方向、左右方向の4方向、およびこれらを組み合わせた任意の方向に遠隔にて湾曲動作を行なうようになっている。このとき、各ポテンショメータ104a,104bによって各出力軸55a1,55b1の各スプロケット58a,58bの回転位置を検知し、ポテンショメータ104a,104bによる各アングルワイヤの位置制御により湾曲部4a2の湾曲動作の制御を行なっている。
【0038】
また、電動湾曲制御部52には、マイクロコンピュータ(以下マイコンと略記する)107と、D/Aコンバータ108と、アンプ109と、ポテンショメータ用AD変換部110とが設けられている。ここで、マイコン107はリモコン用A/D変換部106と通信ケーブルによって電気的に接続されている。そして、このマイコン107ではリモコン16からの湾曲指示信号に対応するデジタルの駆動信号を生成するようになっている。このマイコン107から出力されるデジタルの駆動信号はD/Aコンバータ108に入力され、アナログの駆動信号に変換されるようになっている。さらに、D/Aコンバータ108の出力側はアンプ109を介してモータ部55a2,55b2に接続されている。そして、D/Aコンバータ108で変換されたアナログの駆動信号をアンプ109によって増幅処理し、各モータ部55a2,55b2に出力するようになっている。
【0039】
さらに、マイコン107は、CPU、プログラムが記憶されているROM、RAMを有すると共に、差分演算部111と、ポテンショメータ用AD変換部110とを有している。ポテンショメータ用AD変換部110の入力側は各ポテンショメータ104a,104b、出力側は差分演算部111にそれぞれ接続されている。そして、ポテンショメータ用AD変換部110は各ポテンショメータ104a,104bの回転位置を示す抵抗値をA/D変換するようになっている。また、差分演算部111にはポテンショメータ用AD変換部110からの出力信号が入力され、各ポテンショメータ104a,104bで検知した各スプロケット58a,58bの回転量をリモコン用A/D変換部106からの湾曲指示信号との差分を取ってフィードバック制御を行なうようになっている。
【0040】
さらに、図2のようにベースユニット4dのユニットケース4d1の端面には、ライトガイド接続コネクタ部4d2が突設されている。このライトガイドコネクタ部4d2にはユニバーサルケーブル4c側から延出されるライトガイドの基端部が連結されている。
【0041】
また、ベースユニット4dのユニットケース4d1の側板には固定ユニット5との連結時にベースユニット4dの移動をガイドする上下2段の突起状の着脱ガイド4d3が略水平方向に沿って延設されている。さらに、このユニットケース4d1の端面には、複数の固定金具4d4が突設されている。そして、ベースユニット4dと固定ユニット5との連結時にはこれらの固定金具4d4を固定ユニット5側の図示しない受け部に係脱可能に係止させることにより、ベースユニット4dを固定ユニット5に固定するようになっている。
【0042】
また、固定ユニット5には電源ユニット7と、光源装置8と、記録ユニット9とが設けられている。ここで、電源ユニット7には電源コネクタ7aと電源カバー7bとが設けられている。電源コネクタ7aには、電源ケーブル7cが接続されている。さらに、電源ユニット7はスイッチ7dを介して主電源供給部7eに接続されている。
【0043】
また、記録ユニット9には板金製のフロントパネル9a上に複数の記録媒体、例えばコンパクトフラッシュカード(メモリーカード)などを挿入する挿入孔(記録媒体スロット)9bが形成されている。さらに、この記録ユニット9の側板9cにはベースユニット4dの移動をガイドする上下2段の凹陥状のガイド溝9dが略水平方向に沿って延設されている。これらのガイド溝9dにはスコープ部4のベースユニット4dの着脱ガイド4d3が係脱可能に係合するようになっている。
【0044】
また、図2(B)に示すように光源装置8の外装カバー8aの内部には図示しない光源ランプを有するランプボックスと、中継基板と、ランプライン基板と、ELコネクタ基板と、ILスイッチと、バラストと、ファンなどがそれぞれ設けられている。
【0045】
さらに、光源装置8の外装カバー8aにはスコープ部4のベースユニット4dとの接合面にベースユニット4dのライトガイド接続コネクタ部4d2と係脱可能に係合する図示しない受部が設けられている。
【0046】
そして、固定ユニット5の光源装置8とスコープ部4のベースユニット4dとの連結時には記録ユニット9のガイド溝9dにスコープ部4のベースユニット4dの着脱ガイド4d3が挿入される状態で係合するようになっている。この状態でガイド溝9dに沿って着脱ガイド4d3がスライド移動しながら固定ユニット5の光源装置8にスコープ部4のベースユニット4dが着脱可能に連結されるようになっている。このとき、ベースユニット4dのライトガイド接続コネクタ部4d2が光源装置8の図示しない受部に係脱可能に係合するとともに、第1の接続機構10の固定金具4d4が固定ユニット5側の図示しない受部に係脱可能に係止されて固定ユニット5の光源装置8とスコープ部4のベースユニット4dとが連結されるようになっている。
【0047】
さらに、この固定ユニット5とスコープ部4のベースユニット4dとの連結時には電気接点を介して主電源供給部7eと、電動湾曲制御部52およびカメラコントロールユニット53との間が接続されるようになっている。このとき、カメラコントロールユニット53にはベースユニット4dと固定ユニット5との間の電気接点を介して後述するLCDモニタ13cが接続され、スコープ部4のCCDで撮像された内視鏡観察像がこのLCDモニタ13cに表示されるようになっている。
【0048】
また、光源装置8の外装カバー8aの上面にはリモコンコネクタ112と、BNCコネクタ113と、表示装置13とが設けられている。ここで、表示装置13には円柱状のモノボッド13aの上部にヒンジ機構13bを介して例えばLCDモニタ13cが取付けられている。そして、LCDモニタ13cはヒンジ機構13bを介して開閉可能に支持されている。
【0049】
さらに、光源装置8の外装カバー8aの側面には図2(B)に示すようにランプ交換窓14が配設されているとともに、収納部6の取付け用の複数の取付けピン15が突設されている。
【0050】
また、収納部6は、室内が複数、本実施の形態では2つに仕切られ、幅広のスコープ収納ボックス(挿入部収納部)6aと、幅狭のリモコン収納部(ケーブル収納部)6bとが形成されている。ここで、スコープ収納ボックス6aにはスコープ部4の挿入部4aと、中間連結部4bと、ユニバーサルケーブル4cとを略リング状に丸めた形状で束ねた状態で収納できるようになっている。さらに、収納部6にはスコープ収納ボックス6aの上面開口部を開閉する収納ボックス蓋6cが設けられている。
【0051】
また、リモコン収納部6bにはスコープ部4のベースユニット4dを操作するリモコン(入力部)16と、このリモコン16に一端が接続された可撓性のケーブル17とが収納されるようになっている。ここで、ケーブル17の他端部にはコネクタ17aが連結されている。このコネクタ17aは固定ユニット5のリモコンコネクタ112に着脱可能に接続されている。
【0052】
また、リモコン16には図5に示すように少なくともスコープ部4の湾曲部4a2の湾曲方向を上下左右方向に遠隔的に湾曲操作するための指示入力手段であるジョイスティック19と、パワーボタン20とが設けられている。パワーボタン20は電源ユニット7のスイッチ7dに接続されている。
【0053】
また、ジョイスティック19は基端部が回動支点を介して回動可能に支持されている。さらに、リモコン16には、可変抵抗器19cと、AD変換部106とが設けられている。可変抵抗器19cは、ジョイスティック19の傾き方向及び角度に応じて抵抗値が変化する。さらに、AD変換部106は、可変抵抗器19cの抵抗値から電圧変換されるアナログの電圧値をA/D変換する。
【0054】
このリモコン用A/D変換部106は、固定ユニット5内の電動湾曲制御部52に電気的に接続されている。そして、リモコン用A/D変換部106でデジタル化された湾曲指示信号が電動湾曲制御部52に送信されるようになっている。
【0055】
さらに、収納部6における固定ユニット5側への取付け面には光源装置8の取付けピン15と対応する位置に図示しないピン挿入孔が形成されている。そして、光源装置8の取付けピン15を収納部6のピン挿入孔に挿入することにより、収納部6が光源装置8の外装カバー8aの側面に着脱可能に連結されている。
【0056】
また、収納部6が光源装置8の外装カバー8aの側面に連結された状態で、略L字状のスコープ収納ボックス押え部材21が固定ユニット5側にねじ止め固定されている。
【0057】
さらに、本実施の形態の内視鏡装置1では組み付けユニット2を内視鏡収納ケース3に対して着脱する際に使用する2つの取っ手23a、23bと、ショルダーベルト24とが固定されている。ここで、1つの取っ手23aは固定ユニット5における記録ユニット9の上部、他方の取っ手23bは光源装置8の外装カバー8aの上部にそれぞれ取付けられている。同様にショルダーベルト24の一端部は固定ユニット5における記録ユニット9の上部、他端部は光源装置8の外装カバー8aの上部にそれぞれ固定されている。なお、組み付けユニット2の底部には複数のゴム脚25が固定されている。
【0058】
なお、本内視鏡装置では、図5に示すように直視双眼アダプタ100a3、側視双眼アダプタ100a4と組合わせて使用する3次元グラス(表示手段)49を有している。これは、LCDモニタ13cの代わりに使用しても、補助的に使用しても良く、LCDモニタ13cの映像出力コネクタ47や、リモコン16に設けたリモコン映像出力コネクタ48に取り付けてもよい。
【0059】
また、固定ユニット5には画像処理部131が設けられている。この画像処理部131は図6に示すように主制御部であるCPU201を備えている。このCPU201のバスにはROM202と、RAM203と、画像処理手段204と、グラフィック処理手段205と、記録ユニット9と、記録ユニットI/F(インターフェース)206と、AD認識用I/F207と、リモコンI/F208とが接続される。
【0060】
CPU201はROM202に記録されたプログラムによって起動し、RAM203をワーク領域として使用することでシステム全体の制御を行う。画像処理手段204はカメラコントロールユニット53からの映像信号をA/D変換し、図示しないフレームメモリに記憶することで画像をフリーズ・フリーズ解除する。また、カメラコントロールユニット53からの映像信号を後述する画像処理を施した上でグラフィック処理手段205に出力する。
【0061】
グラフィック処理手段205は、現在時刻や、画像記録、再生時における当該画像のファイル名、メニューなどグラフィック情報を重畳し、D/A変換により映像信号に変換して出力する。
【0062】
また、CPU201はリモコン16上の各種スイッチ操作によって画像の記録・再生指示が発生すると、記録ユニットI/F206を介して記録ユニット9に記録・再生指示を出す。記録ユニットI/F206は例えばRS−232Cである。
【0063】
記録ユニット9はカメラコントロールユニット53からの映像信号をA/D変換し、JPEGなどに圧縮した上で、記録媒体スロット9bに挿入されている記録媒体、例えばコンパクトフラッシュカードなどに記録する。
【0064】
また、アダプタ認識端子45からの信号はAD認識用I/F207を介して入力される。AD認識用I/F207は例えばI/Oポートである。さらに、リモコン16からの操作信号はリモコンI/F208を介して入力される。リモコンI/F208は例えばRS−232Cである。
【0065】
また、図7は固定ユニット5のソフトウエアブロックの構成である。図7中で、210はシステム制御部である。このシステム制御部210はシステム全体の制御をつかさどる。このシステム制御部210には操作検知部211と、立体画像合成指示部212と、立体視判別部213と、カメラコントロールユニット53からの画像情報上に3次元グラス49への立体画像表示の構築可不可を判別する判別部(判別手段)117と、この判別部117からの判別結果に基いて構築不可情報の入力時に立体画像表示の構築不可の観察画像が表示されないように処理する処理手段であるビデオ加工指示部214およびグラフィック加工指示部215と、記録・再生指示部216と、アダプタ認識部115とがそれぞれ接続されている。ここで、判別部117は双眼観察光学系から得られる観察像の焦点位置よりも双眼観察光学系に接近した極近点領域で得られた立体画像表示の構築不可の観察画像が含まれているか否かを判別する機能を有する。さらに、ビデオ加工指示部214およびグラフィック加工指示部215は極近点画像などの立体画像表示の構築不可の観察画像が表示されないように画像処理する機能を有する。
【0066】
さらに、操作検知部211にはリモコン16が接続されている。また、立体画像合成指示部212には画像処理手段204が接続されている。アダプタ認識部115にはAD認識用I/F207が接続されている。ビデオ加工指示部214には画像処理手段204が接続されている。グラフィック加工指示部215にはグラフィック処理手段205が接続されている。記録・再生指示部216には記録ユニットI/F206が接続されている。
【0067】
そして、操作検知部211はリモコン16などの操作を受け付け、システム制御部210に通知する。さらに、システム制御部210は操作検知部211を介して検知した立体画像合成指示を立体画像合成指示部212に通知する。このとき、立体画像合成指示部212は画像処理手段204に立体画像合成を指示する。(立体画像合成自体の構成・作用は特開2002−112290を参照。)
さらに、AD認識用I/F207からはアダプタ認識端子45からの信号が入力され、直視、または側視の双眼アダプタ100a3、100a4が接続されているか否かを認識し、システム制御部210に通知する。例えばアダプタ認識端子45からの信号がHighであれば直視、または側視の双眼アダプタ100a3、100a4が接続され、Lowであれば接続されていないことを意味する。
【0068】
また、判別部117は観察対象物が極近点に位置するか否かを判別し、システム制御部210に通知する。立体視判別部213は3次元表示されているか否かの情報をTRUE(3次元表示)またはFALSE(2次元表示)の立体視判別フラグとして保持している。
【0069】
ここで、システム起動時はFALSEに初期化されている。システム制御部210は操作検知部211を介して検知した画像加工指示をビデオ加工指示部214に通知し、ビデオ加工指示部214は画像処理手段204に後述のビデオ加工を指示する。
【0070】
さらに、システム制御部210は操作検知部211を介して検知した画像加工指示をグラフィック加工指示部215に通知し、グラフィック加工指示部215はグラフィック処理手段205に後述のグラフィック加工を指示する。
【0071】
また、システム制御部210は操作検知部211を介して検知した記録・再生指示を記録・再生指示部216に通知し、記録・再生指示部216は記録ユニット9に画像の記録または再生を指示する。
【0072】
次に、上記構成の作用について説明する。本実施の形態の工業用内視鏡装置1の使用時にはスコープ部4のヘッド部4a1に必要に応じて各種の光学アダプタが着脱可能に装着される。例えば、2次元画像による観察時には図3(A)に示す直視アダプタ100a1や、図3(B)に示す側視アダプタ100a2がヘッド部4a1の光学アダプタ装着部44に取り付けられる。また、3次元画像による観察時には図3(C)に示す3次元表示可能な双眼タイプの直視双眼アダプタ100a3および図3(D)に示す側視双眼アダプタ100a4がヘッド部4a1の光学アダプタ装着部44に取り付けられる。
【0073】
ここでは、図4に示すようにヘッド部4a1の光学アダプタ装着部44に図3(C)に示す直視双眼アダプタ100a3を取付けた場合の内視鏡観察について説明する。
【0074】
まず、図4のヘッド部4a1に直視双眼アダプタ100a3を取り付けた状態で、スコープ部4の挿入部4aが被検体の検査対象空間内に挿入される。ここでは図9に示すように検査対象物はタービンブレード221とし、図9はそのタービンブレード221に異物222が付着している状態を示している。
【0075】
そして、スコープ部4の挿入部4aが検査対象のタービンブレード221の近傍位置まで挿入される。このとき、タービンブレード221に対して適切な距離を確保できる位置にスコープ部4の先端を位置させる。例えば、計測を主に行なう場合には、タービンブレード221との間隔を計測精度が最も良いとされる15mm〜30mm前後の間隔に保つ。
【0076】
この状態で、タービンブレード221の内視鏡観察が開始される。そして、直視双眼アダプタ100a3の左右2つの観察窓108L,108Rからはその際の内視鏡観察画像が取り込まれる。このとき、直視双眼アダプタ100a3の2つのアダプタ観察窓108R、108Lを通して得られる画像は、LCDモニタ13c上では図11(A)に示すように表示される。この状態では、LCDモニタ13cの一つの画面上に、右眼アダプタ観察窓108Rの画像IRが右側に、左眼アダプタ観察窓108Lの画像ILが左側にそれぞれ並設状態で映し出される。
【0077】
同じく、3次元グラス49上に2次元表示した場合には、図11(A)の両方の画像IR,ILが個別に表示される。
【0078】
これを3次元グラス49上で、3次元表示とする場合には、この2つの画像IR,ILを処理し、1つの画像で立体像として認識できるようにする。この場合、図11(A)に示す左右の画像IR,ILは図11(B)のように立体像として表示される。
【0079】
このときの立体画像の合成について図8に示すフローチャートを参照して説明する。(特開2002−112290を参照。)まず、ステップS1で立体画像合成指示の有無が判断される。ここで、立体画像合成指示が有りと判断された場合にはステップS2に進む。
【0080】
このステップS2ではアダプタ認識端子45からの出力信号がHighであるか否かが判断される。このステップS2でアダプタ認識端子45からの出力信号がHighである場合には直視、または側視の双眼アダプタ100a3、100a4が接続されていると判断され、次のステップS3に進む。なお、ステップS2でアダプタ認識端子45からの出力信号がHighでない場合には直視、または側視の双眼アダプタ100a3、100a4が接続されていない状態と判断され、そのまま処理が終了する。
【0081】
また、ステップS3では立体視判別フラグがFALSE(2次元表示)であるか否かが判断される。このステップS3で立体視判別フラグがFALSEである場合には次のステップS4に進む。このステップS4では立体画像合成指示部212に立体画像合成が指示される。その後、ステップS5で立体視判別フラグがTRUE(3次元表示)として保持される。
【0082】
また、ステップS3で立体視判別フラグがFALSEでない場合には次のステップS6に進む。このステップS6では立体画像合成指示部212に立体画像合成解除が指示される。その後、ステップS7で立体視判別フラグがFALSE(2次元表示)として保持される。
【0083】
そして、この3次元観察状態で、タービンブレード221上の異物222を回収するために、図9に示すようにチャンネルポート部4b2から鉗子114を挿入する。この鉗子114には細長い可撓性の挿入部114aの先端部に把持部114bが設けられている。そして、図10に示すようにアダプタ開口部103から鉗子114の先端部の把持部114bを突出させる。
【0084】
この時、2次元表示では図12(A)に示すようにLCDモニタ13cの一つの画面上に、右眼アダプタ観察窓108Rからの鉗子114の画像IRが右側に、左眼アダプタ観察窓108Lからの鉗子114の画像ILが左側にそれぞれ並設状態で映し出される。これを3次元グラス49上で3次元表示すると通常では図12(B)に示すように、鉗子114の根元が2重にダブって見えてしまう。
【0085】
これは、観察対象物が直視双眼アダプタ100a3の2つのアダプタ観察窓108R、108Lの極近点に位置する場合、ピントが合う位置を基準として画像を再構築し、3次元画像として表示する為、ピントが合わない極近点の画像についてはずれが生じ、正確な画像表示がされないことでこの現象が生じる。
【0086】
そこで、まず、ヘッド部4a1に設けたアダプタ認識端子45にて直視双眼アダプタ100a3が取り付けられたことをケーブル46を介してAD認識用I/F207に伝達させる。すると、AD認識用I/F207では、極近点位置の画像をマスク処理するビデオ加工指示部214およびグラフィック加工指示部215をスタンバイ状態にする。
【0087】
次に、判別部117にて画像が図11(B)か図12(B)かどうかの判別を行なう。つまり、図10に示すようにアダプタ開口部103から鉗子114が突出された状態では、図12(B)のような極近点での画像が得られる。この場合には、判別部117にてその画像があると判別し、ビデオ加工指示部214およびグラフィック加工指示部215は、それぞれ画像処理手段204およびグラフィック処理手段205に加工処理を指示する。
【0088】
このとき、画像処理手段204は、該当部分に以下のマスク加工処理を行う。例えば、図13(A)に示すように、極近点領域の該当部分に塗りつぶし処理を施した塗りつぶし処理部231を設けてもよい。或いは、図13(B)に示すように該当部分をカットしたカット処理部232を設けてもよい。
【0089】
また、図14(A)に示すように3次元グラス49の立体表示画像内にグラフィックメニュー233を表示している場合は、グラフィック処理手段205により図14(B)に示すようにメニュー233の表示位置をカット処理部232に移動させてもよい。
【0090】
また、グラフィック処理手段205が、図13(C)に示すように、該当部分上に文字情報234を表示することでマスク処理してもよい。
【0091】
なお、この判別部117での立体画像表示の構築可不可の判別は次のように行なう。
【0092】
直視双眼アダプタ100a3、または側視双眼アダプタ100a4からは2つのアダプタ観察窓108R、108Lを通して、視差のある画像情報を取得できる。この画像情報に基づき3角測量の原理から被写体までの距離を測定することができる。判別部117では上記被写体からの距離を計算し、極近点位置に被写体が存在するか否かを判別する。
【0093】
たとえば、計測精度が最も良いとされる15mm〜30mmよりも近点に上記被写体が位置するか否かを判別部117で判別し、該当部分に上述したマスク加工処理を行う。
【0094】
また、リモコン16のスイッチあるいはLCDモニタ13c上のメニューに表示される図示しないタッチパネル上のSWを押して、それを操作検知部211が検知し、システム制御部210を介して判別部117に通知する。つまり操作者の指示により極近点位置に被写体が存在するか否かを判別してもよい。そして、極近点位置に被写体が存在する場合は、該当部分に上述したビデオおよびグラフィックの加工処理を行う。
【0095】
そこで、上記構成のものにあっては次の効果を奏する。すなわち、本実施の形態ではカメラコントロールユニット53からの画像情報上に3次元グラス49への立体画像表示の構築可不可を判別する判別部117と、この判別部117からの判別結果に基いて構築不可情報の入力時に立体画像表示の構築不可の観察画像が表示されないように処理するビデオ加工指示部214およびグラフィック加工指示部215とを設けている。そして、3次元の立体観察時に、立体表示画面上に生じた不適切な画像、例えばピントが合わない極近点の画像を画面上から排除する処理を行なうことにより、観察時の邪魔を排除でき、検査効率が上がるという効果がある。
【0096】
また、例えばピントが合わない極近点の画像などの不適切な画像を排除することで立体情報のノイズを除き、適切な立体画像を構築することができる。
【0097】
一般的に、3次元の立体観察時に、特に立体表示画面上に2重の画像や、ゆがんだ画像がある場合には、立体感を十分に掴めず、その効果を十分に得られずに逆に検査効率が低下する可能性がある。これに対して、本発明では、立体表示画面上に生じた2重の画像や、ゆがんだ画像などの不適切な画像を画面上から排除することにより、立体感を十分に掴めなくなる状態を回避でき、安全かつ確実な検査を行なうことができる。
【0098】
また、図15乃至図17は本発明の第2の実施の形態を示すものである。本実施の形態は第1の実施の形態(図1乃至図14(A),(B)参照)の工業用内視鏡装置1における制御回路の構成を次の通り変更したものである。なお、これ以外の部分は第1の実施の形態の内視鏡装置1と同一構成になっており、第1の実施の形態の内視鏡装置1と同一部分には同一の符号を付してここではその説明を省略する。
【0099】
すなわち、本実施の形態では、固定ユニット5に、図15に示すように、アダプタ認識部115の他に、カメラコントロールユニット53からの画像情報上に極近点領域での高輝度画像が含まれているかを判別する輝度判別部241と、高輝度画像を画像処理する処理部242とを設けている。
【0100】
次に、上記構成の本実施の形態の作用について説明する。まず、ヘッド部4a1に設けたアダプタ認識端子45にて直視双眼アダプタ100a3が取り付けられた状態がケーブル46を介してAD認識用I/F207に伝達される。すると、AD認識用I/F207では、高輝度画像を加工処理するビデオ加工指示部214をスタンバイ状態にする。
【0101】
次に、輝度判別部241にて極近点画像に著しいハレーションかないどうかの判別を行なう。つまり、図10に示すようにアダプタ開口部103から鉗子114が突出された場合、図16に示すような極近点での画像を得た場合で、その画像に著しい高輝度部分、つまりハレーション235がある場合には、輝度判別部241にてその画像情報があると判別し、ビデオ加工指示部214は画像処理手段204に加工処理を指示する。
【0102】
その場合、このハレーション235の表示部分に図17(A)に示す塗りつぶし処理部236を設けてもよい。或いは、図17(B)に示すように該当部分をカットしたカット処理部237を設けてもよい。また、グラフィック処理手段205が、図17(C)に示すように、該当部分上に文字情報238を表示することでマスク処理してもよい。
【0103】
輝度判別部241での判別方法は以下の通りである。まず、直視双眼アダプタ100a3または側視双眼アダプタ100a4からの画像情報は画像処理手段204においてA/D変換の上、輝度信号と色差信号に分離されフレームメモリに記憶され、輝度信号のみが輝度判別部241に入力される。輝度判別部241では輝度信号の中でハレーションを起こす程度の高輝度画素を判別する。
【0104】
そして、フレームメモリ上の当該画素について上述のようにビデオの加工処理を行う。または当該画素についてグラフィックの加工処理を行う。
【0105】
そこで、本実施の形態では3次元の立体観察時に、立体表示画面上に生じた不適切な画像、例えば図16に示すような極近点での画像に著しい高輝度部分、つまりハレーション235が生じた不適切な画像を画面上から排除することにより、観察時の邪魔を排除でき、検査効率が上がるという効果がある。
【0106】
さらに、画像上に高輝度情報がある場合、低輝度情報が暗く表示され、傷や損傷などを暗くて確認しにくいという可能性があるが、それを回避できる効果がある。
【0107】
また、高輝度を排除することが立体情報のノイズを除き、適切な立体画像を構築することができる。
【0108】
なお、上記第1の実施の形態および第2の実施の形態において、極近点画像や極近点かつ高輝度画像がない部分が画像の中央に来るように、画像をシフトして表示してもよい。
【0109】
また、光学アダプタの認識を本実施の形態のように自動ではなく、リモコン16上に設けたアダプタ認識ボタン(図示しない)で、双眼アダプタを取り付けたことをAD認識用I/F207に伝達してもよい。また、リモコン16上の機械的なスイッチではなく、LCDモニタ13c上のメニューに表示されるタッチパネル上のSWを押してもよい。
【0110】
また、図18(A),(B)は本発明の第3の実施の形態を示すものである。本実施の形態は第1の実施の形態(図1乃至図14(A),(B)参照)の内視鏡装置1の鉗子114側に工夫をして、上記不具合を回避する例を示す。
【0111】
本実施の形態には図18(B)に示すように、複数のアーム123a間にそれぞれ関節122が配設された多自由度鉗子123が設けられている。この多自由度鉗子123の関節122はマイクロモータ124によって軸回りに回動し、各アーム123aを上下方向に回動駆動する。さらに、多自由度鉗子123の先端部には把持部123bが設けられている。
【0112】
次に、上記構成の本実施の形態の作用について説明する。本実施の形態では図18(A)に示すように、多自由度鉗子123の先端部の各アーム123aを屈曲させることにより、直視双眼アダプタ100a3の2つのアダプタ観察窓108R、108Lの視野範囲θの外側から鉗子123の先端部の把持部123bを視野範囲θ内に持ってくる(挿入する)ことにより、アダプタ観察窓108R、108Lの極近点領域の外で鉗子123を表示させることができる。そのため、直視双眼アダプタ100a3の2つのアダプタ観察窓108R、108Lの極近点領域で鉗子123が画像として入ることはない。
【0113】
そこで、上記構成の本実施の形態でも第1の実施の形態と同様に3次元の立体観察時に、立体表示画面上に生じた不適切な画像、例えばピントが合わない極近点の画像を画面上から排除する処理を行なうことができ、観察時の邪魔を排除して検査効率が上がるという効果がある。
【0114】
また、例えばピントが合わない極近点の画像などの不適切な画像を排除することで立体情報のノイズを除き、適切な立体画像を構築することができる。
【0115】
なお、多自由度鉗子123ではなく、形状記憶合金や人工筋肉等を利用し、端部を変位自在な鉗子類であっても同様の効果を有する。
【0116】
また、図19は本発明の第4の実施の形態を示すものである。本実施の形態は第1の実施の形態(図1乃至図14(A),(B)参照)の工業用内視鏡装置1におけるスコープ部4のヘッド部4a1に先端フード125を装着し、観察物体が直視双眼アダプタ100a3の極近接領域にはいることをこの先端フード125によって防止したものである。
【0117】
そこで、本実施の形態では3次元の立体観察時に、先端フード125によって直視双眼アダプタ100a3と観察物体との間の距離を極近接領域よりも大きく設定することができる。そのため、例えばピントが合わない直視双眼アダプタ100a3の極近点に観察物体が挿入されることがないので、立体表示画面上にピントが合わない不適切な画像が挿入されることを防止することができ、観察時の邪魔を排除して検査効率が上がるという効果がある。
【0118】
また、図20および図21は本発明の第5の実施の形態を示すものである。本実施の形態は第1の実施の形態(図1乃至図14(A),(B)参照)の内視鏡装置1における画像処理部131の構成を次の通り変更したものである。
【0119】
すなわち、本実施の形態では3次元グラス49側にマスキング回路(特開2002−112290参照)が具備されている。さらに、図20に示すように固定ユニット5の画像処理部131には加工情報出力I/F251が設けられている。この加工情報出力I/F251は3次元グラス49に対して加工情報を出力する。
【0120】
また、図21においてシステム制御部210には加工情報生成部252がさらに設けられている。この加工情報生成部252は加工情報出力I/F251に接続されている。
【0121】
次に、上記構成の作用について説明する。本実施の形態では第1の実施の形態と同様に直視双眼アダプタ100a3の極近点位置に被写体が存在する場合は、加工情報生成部252は該当部分を示す画面座標を算出し、加工情報出力I/F251より出力する。3次元グラス49では加工情報出力I/F251からの出力信号が受信される。そして、受信した画面座標部分を第1の実施の形態と同様にマスク加工処理する。
【0122】
そこで、上記構成のものにあっては次の効果がある。すなわち、第1の実施の形態では内視鏡装置1側で構築不可情報の入力時に立体画像表示の構築不可の観察画像が表示されないように加工処理を実現したが、本実施の形態ではこの加工処理を3次元グラス49側で実現することができる。そのため、第1の実施の形態で述べた効果に加え、内視鏡装置1自体のコストダウンになる。また、3次元グラス49側に不可欠の回路を使用することでコストダウンになる。
【0123】
さらに、本発明は上記実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲で種々変形実施できることは勿論である。
次に、本出願の他の特徴的な技術事項を下記の通り付記する。

(付記項1) 左右2つの観察光学系を有する双眼観察光学系と、該光学系の両方の観察像を立体画像情報として構築し表示する表示手段を有する内視鏡装置において、立体表示として構築可不可を判別する判別手段と、構築不可情報を処理する処理手段を設けたことを特徴とする内視鏡装置。
【0124】
(付記項2) 付記項1において、上記判別手段は上記双眼観察光学系から得られる観察像に対する3角測量による被写体距離測定手段であることを特徴とする内視鏡装置。
【0125】
(付記項3) 付記項1において、上記判別手段は上記双眼観察光学系から得られる観察像中の高輝度部抽出手段であることを特徴とする内視鏡装置。
【0126】
(付記項4) 付記項1において、構築不可の極近点領域で得られた観察画像を加工処理する加工処理手段を設けたことを特徴とする内視鏡装置。
【0127】
(付記項5) 付記項1において、構築不可の極近点領域で得られた高輝度観察画像を加工処理する加工処理手段を設けたことを特徴とする内視鏡装置。
【0128】
(付記項6) 付記項4、5において、加工処理手段は、極近点領域で得られた高輝度観察画像の高輝度部分をマスクするマスク手段であることを特徴とする内視鏡装置。
【0129】
(付記項7) 付記項1において、構築不可の極近点領域で得られた観察画像を加工処理する加工情報生成手段と加工情報出力手段を設けたことを特徴とする内視鏡装置。
【0130】
(付記項8) 付記項1において、構築不可の極近点領域で得られた高輝度観察画像を加工処理する加工情報生成手段を設けたことを特徴とする内視鏡装置。
【0131】
(付記項9) 左右2つの観察光学系を有する双眼観察光学系と、該光学系の両方の観察像を立体画像情報として構築し表示する表示手段を有する内視鏡装置において、立体表示として構築不可となる極近点物体を排除する排除手段を設けたことを特徴とする内視鏡装置。
【0132】
(付記項1〜9の従来技術) 従来の内視鏡では、特開平8−215142のように内視鏡先端部に2つの観察光学系(ここでは1つのCCDに結像)を有し、その2つの眼の視差を利用した3次元眼鏡による立体観察の技術、および鉗子等の処置具と組み合わせて、異物回収などが考えられる。
【0133】
また、特開2002−112290のように、眼鏡型ディスプレイ装置(3次元グラス)が記されている。
【0134】
(付記項1〜9が解決しようとする課題) しかし、立体表示の際に、極近点位置では、視差に対しての物体面の距離が近すぎるために、表示を立体状態に再構築するのにも限界があった。そのため、極近点に位置する物体に対しては物体が2重に見える現象が生じていた。
【0135】
その結果、観察の妨げになり、検査効率の低下などの問題があった。
【0136】
さらに、極近点に物体があり、反射光によるハレーションが発生する場合には、その反射光がさらに2重となることで、より観察に不具合が生じるほかに、輝度があまりにも高く、白色にしか見えない場合には、立体情報を喪失し、正確に立体表示できないという不具合があった。
【0137】
(付記項1〜9の目的) 物体が2重に観察してしまう極近点領域の表示や視認の妨げとなる高輝度の表示を以下のように処理することで、観察者の観察に影響を与えないようにする。
【0138】
・マスク
・2重部分以外の画像抽出
・輝度の高い部分の低輝度化
(付記項1〜9の課題を解決するための手段) 左右2つの観察光学系を有する双眼観察光学系と、該光学系の両方の観察像を立体画像情報として構築し表示する表示手段を有する内視鏡装置において、立体表示として構築可不可を判別する判別手段と、構築不可情報を処理する処理手段を設けた構成とする。
【0139】
(付記項1〜9の作用) 構築不可情報を処理することで、操作者に誤解を与えたり、疲労の原因となる不適切な情報を排除する作用がある。
【0140】
(付記項1〜9の効果) 画面上に生じた不適切な画像を画面上から排除することにより、観察時の邪魔を排除でき、検査効率が上がるという効果がある。また、不適切な画像を排除することで立体情報のノイズを除き、適切な立体画像を構築することができる。
【0141】
【発明の効果】
本発明によれば、立体画像の観察時に視認の妨げとなる極近点領域の物体が2重に観察されてしまう表示や、高輝度の表示を観察者の観察に影響を与えないように処理することができ、立体画像が観察しやすい内視鏡装置を提供することができる。
【図面の簡単な説明】
【図1】本発明の第1の実施の形態の工業用内視鏡装置における内視鏡収納ケースの蓋を開いた状態を示す工業用内視鏡装置全体の斜視図。
【図2】(A)は第1の実施の形態の工業用内視鏡装置における内視鏡収納ケースを示す斜視図、(B)は内視鏡装置本体の組み付けユニットの分解斜視図。
【図3】第1の実施の形態の工業用内視鏡装置の要部構成を示すもので、(A)は内視鏡のリモコンの周辺部分および挿入部の先端部から直視アダプタを取外した状態を示す斜視図、(B)は側視アダプタを示す斜視図、(C)は直視双眼アダプタを示す斜視図、(D)は側視双眼アダプタを示す斜視図。
【図4】第1の実施の形態の工業用内視鏡装置における挿入部の先端部分の内部構成を示す縦断面図。
【図5】第1の実施の形態の工業用内視鏡装置における制御回路全体の概略構成図。
【図6】第1の実施の形態の工業用内視鏡装置における制御回路の要部構成を示す概略構成図。
【図7】第1の実施の形態の工業用内視鏡装置における制御回路の要部構成を示すソフトウエアブロック図。
【図8】第1の実施の形態の工業用内視鏡装置における立体画像の合成を指示する動作を説明するためのフローチャート。
【図9】第1の実施の形態の工業用内視鏡装置における挿入部の先端部分を計測対象のタービンブレードに向けた状態で処置具を挿入する操作を説明するための斜視図。
【図10】第1の実施の形態の工業用内視鏡装置における内視鏡の処置具挿通チャンネル内に挿入した処置具が内視鏡の先端部から外部に突出された状態を示す斜視図。
【図11】(A)は第1の実施の形態の工業用内視鏡装置におけるモニタの一つの画面上に直視双眼アダプタの左右のアダプタ観察窓を通して得られる左右の各画像が映し出された状態を示す平面図、(B)は3次元グラス上に表示された3次元表示画像の1つの立体像の表示状態を示す平面図。
【図12】第1の実施の形態の工業用内視鏡装置における極近点領域で得られた処置具の先端部の観察画像を示すもので、(A)はモニタの一つの画面上に映し出された左右の各二次元表示画像を示す平面図、(B)は3次元グラス上に表示された3次元表示画像の1つの立体像の表示状態を示す平面図。
【図13】第1の実施の形態の工業用内視鏡装置における3次元表示画像の加工処理状態を示すもので、(A)は極近点領域の該当部分を塗りつぶし処理した画像を示す平面図、(B)は極近点領域の該当部分をカット処理した画像を示す平面図、(C)は極近点領域の該当部分上に文字情報を表示するマスク処理した画像を示す平面図。
【図14】第1の実施の形態の工業用内視鏡装置における3次元表示画像の加工処理状態の変形例を示すもので、(A)は立体表示画面上にグラフィックメニューを表示している画像を示す平面図、(B)は極近点領域の該当部分にメニューの表示位置を移動させた画像を示す平面図。
【図15】本発明の第2の実施の形態の工業用内視鏡装置における制御回路全体の概略構成図。
【図16】第2の実施の形態の工業用内視鏡装置における極近点領域で得られた処置具の先端部の観察画像にハレーションが表示されている立体像の表示状態を示す平面図。
【図17】第2の実施の形態の工業用内視鏡装置における3次元表示画像の加工処理状態を示すもので、(A)は極近点領域のハレーション部分を塗りつぶし処理した画像を示す平面図、(B)はハレーション部分をカット処理した画像を示す平面図、(C)はハレーション部分上に文字情報を表示するマスク処理した画像を示す平面図。
【図18】本発明の第3の実施の形態を示すもので、(A)は工業用内視鏡装置における挿入部の先端部分の内部構成を示す縦断面図、(B)は多自由度鉗子の要部構成を示す斜視図。
【図19】本発明の第4の実施の形態の工業用内視鏡装置の要部構成を示す斜視図。
【図20】本発明の第5の実施の形態の工業用内視鏡装置における制御回路全体の概略構成図。
【図21】第5の実施の形態の工業用内視鏡装置における制御回路の要部構成を示すソフトウエアブロック図。
【符号の説明】
49 3次元グラス(表示手段)
100a3 直視双眼アダプタ(双眼観察光学系)
100a4 側視双眼アダプタ(双眼観察光学系)
108L,108R 左右2つの観察窓(観察光学系)
117 判別部(判別手段)
214 ビデオ加工指示部(処理手段)
215 グラフィック加工指示部(処理手段)
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to an endoscope apparatus that constructs and displays stereoscopic image information from both observation images from two left and right observation optical systems.
[0002]
[Prior art]
2. Description of the Related Art In general, endoscope apparatuses that include two left and right observation optical systems at the distal end of an endoscope and that construct and display stereoscopic image information from both observation images of the two left and right observation optical systems have been developed. . For example, Patent Literature 1 discloses a technique in which two observation optical systems are provided at a distal end portion of an endoscope, and stereoscopic observation is performed using parallax between eyes of the two observation optical systems. In addition, there is disclosed a technique for performing an operation such as foreign substance collection by combining the technique of stereoscopic observation and the operation of a treatment tool such as forceps.
[0003]
Patent Document 2 discloses a glasses-type display device (three-dimensional glasses) using three-dimensional glasses.
[0004]
[Patent Document 1]
JP-A-8-215142
[0005]
[Patent Document 2]
JP 2002-112290 A
[0006]
[Problems to be solved by the invention]
In the endoscope having the above-described conventional configuration, in the case of stereoscopic display, when the object plane is located at a very near point closer to the observation optical system than the focal position of the observation image obtained from the two observation optical systems, However, it is difficult to reconstruct the observation image displayed on the display unit into a three-dimensional state because the distance of the object plane is too short for the parallax of the observation images obtained from the two observation optical systems. Therefore, in the observation image displayed on the display unit, a phenomenon occurs in which the object located at the closest point appears double, and this portion hinders observation. As a result, there is a problem in that the inspection efficiency with the endoscope is reduced, for example, giving a misunderstanding to the operator or causing fatigue.
[0007]
When halation due to reflected light occurs in a state where an object is arranged at a very near point, the reflected light is further doubled. For this reason, in this case, a problem occurs in observation. Further, when the brightness of the object surface is high and the object surface can be seen only in white, there is a problem that three-dimensional information is lost and a three-dimensional display cannot be performed accurately.
[0008]
The present invention has been made with a focus on the above circumstances, and its purpose is to provide a display in which an object in a very near point region which hinders visual recognition at the time of observing a stereoscopic image is doubly observed, or a display with high brightness. It is an object of the present invention to provide an endoscope apparatus which can perform processing so as not to affect an observer's observation, and can easily observe a stereoscopic image.
[0009]
[Means for Solving the Problems]
The invention according to claim 1 includes a binocular observation optical system having two left and right observation optical systems, and a display means for constructing and displaying both observation images from the two left and right observation optical systems as stereoscopic image information. In an endoscope apparatus, a discriminating means for discriminating whether or not construction of a stereoscopic image display on the display means is possible, and an observation image for which construction of the stereoscopic image display is impossible when inputting construction impossible information based on a discrimination result from the discriminating means. And a processing means for performing processing so as not to be displayed.
According to the first aspect of the present invention, it is determined by the determination unit that the observation images of the two left and right observation optical systems can be constructed as stereoscopic image information by the determination unit, and the non-construction information is processed by the processing unit. Is processed so as not to be displayed, thereby removing improper information that may give a misunderstanding to an operator or cause fatigue.
[0010]
The invention according to claim 2 is the endoscope apparatus according to claim 1, wherein the discriminating means is means for measuring a subject distance by triangulation with respect to an observation image obtained from the binocular observation optical system. is there.
According to the second aspect of the invention, a subject distance is measured by triangulation with respect to an observation image obtained from the binocular observation optical system, and it is determined whether or not a stereoscopic image can be constructed based on the measured data. is there.
[0011]
3. The endoscope according to claim 1, wherein the discriminating means is a high-luminance part extracting means for extracting a high-luminance part in an observation image obtained from the binocular observation optical system. Device.
According to the third aspect of the present invention, the high-brightness part in the observation image obtained from the binocular observation optical system is extracted by the high-brightness part extraction means, and it is determined whether or not a stereoscopic image can be constructed based on the measurement data. Things.
[0012]
According to a fourth aspect of the present invention, the processing means may not be able to construct the stereoscopic image display obtained in a very near point area closer to the binocular observation optical system than the focal position of the observation image obtained from the binocular observation optical system. The endoscope apparatus according to claim 1, wherein the endoscope apparatus is a processing unit that processes an observation image.
According to the fourth aspect of the present invention, it is not possible to construct a stereoscopic image display obtained in a very near point area closer to the binocular observation optical system than the focal position of the observation image obtained from the binocular observation optical system during processing by the processing means. Is processed by the processing means so as not to be displayed.
[0013]
The invention according to claim 5 is characterized in that the processing means cannot construct the stereoscopic image display obtained in a very near point area closer to the binocular observation optical system than the focal position of the observation image obtained from the binocular observation optical system. The endoscope apparatus according to claim 1, wherein the endoscope apparatus is a high-brightness image processing unit that processes a high-brightness observation image.
According to the fifth aspect of the present invention, it is not possible to construct a stereoscopic image display obtained in a very near point area closer to the binocular observation optical system than the focal position of the observation image obtained from the binocular observation optical system during processing by the processing means. The high-brightness observation image is processed by the high-brightness image processing means so as not to be displayed.
[0014]
According to a sixth aspect of the present invention, the processing means is a masking means for masking a high-brightness portion of a high-brightness observation image obtained in the very near point region. Is an endoscope device.
According to the sixth aspect of the present invention, at the time of processing by the processing means, the high-luminance portion of the high-luminance observation image obtained in the very near point area is masked by the mask means so as not to be displayed.
[0015]
The invention according to claim 7 is characterized in that the processing means cannot construct the stereoscopic image display obtained in a very near point area closer to the binocular observation optical system than the focal position of the observation image obtained from the binocular observation optical system. Processing means for processing the observation image; processing information generating means for generating processing information from the processing means; and processing information output means for outputting the processing information from the processing information generating means. The endoscope apparatus according to claim 1, wherein
According to the seventh aspect of the present invention, it is not possible to construct a stereoscopic image display obtained in a very near point area closer to the binocular observation optical system than the focal position of the observation image obtained from the binocular observation optical system during processing by the processing means. The processing image is processed by the processing means, the processing information is generated by the processing information generating means, and the processing information is output by the processing information output means.
[0016]
The invention according to claim 8 is characterized in that the processing means cannot construct the stereoscopic image display obtained in a very near point area closer to the binocular observation optical system than the focal position of the observation image obtained from the binocular observation optical system. 2. The endoscope apparatus according to claim 1, further comprising a processing unit that processes the high-intensity observation image, and a processing information generating unit that generates processing information from the processing unit.
According to the eighth aspect of the present invention, it is not possible to construct a stereoscopic image display obtained in a very near point area closer to the binocular observation optical system than the focal position of the observation image obtained from the binocular observation optical system during processing by the processing means. Is processed by the processing means, and the processing information from the processing means is generated by the processing information generating means.
[0017]
According to a ninth aspect of the present invention, the processing means may not be able to construct the stereoscopic image display obtained in a very near point area closer to the binocular observation optical system than the focal position of the observation image obtained from the binocular observation optical system. The endoscope apparatus according to claim 1, wherein the endoscope apparatus is an exclusion unit that eliminates an observation image.
According to the ninth aspect of the present invention, it is not possible to construct a stereoscopic image display obtained in a very near point area closer to the binocular observation optical system than the focal position of the observation image obtained from the binocular observation optical system during processing by the processing means. Are excluded by the exclusion means.
[0018]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, a first embodiment of the present invention will be described with reference to FIGS. 1 to 14A and 14B. FIG. 1 shows an industrial endoscope apparatus 1 according to the present embodiment. The endoscope apparatus 1 includes an assembling unit 2 in which components of the endoscope are integrally assembled, and an endoscope storage case 3 in which the assembling unit 2 is detachably stored.
[0019]
As shown in FIG. 2A, the endoscope housing case 3 is provided with a box-shaped case main body 3a having an upper surface opened and a lid 3b for opening and closing the upper surface opening of the case main body 3a. I have. The lid 3b is rotatably connected to one side of the upper opening of the case body 3a via a hinge (not shown). FIG. 1 shows a state in which the lid 3b of the case main body 3a is opened with the assembly unit 2 stored in the endoscope storage case 3.
[0020]
FIG. 2B is an exploded perspective view of the assembly unit 2 of the endoscope apparatus 1. The assembly unit 2 is provided with a scope unit 4, a fixed unit 5, and a storage unit 6 so as to be detachable from each other.
[0021]
Further, the scope section 4 includes at least a flexible elongated insertion section 4a inserted into the inspection target space, an intermediate connecting section 4b, a universal cable 4c, a base unit (a driving mechanism section of the insertion section 4a) 4d, and have. Here, the insertion portion 4a is disposed at the most advanced position, and a head portion 4a1 in which an observation optical system for observation, an illumination optical system, and the like are incorporated, a bending portion 4a2 that can be remotely operated to be bent, and And a flexible tube portion 4a3. A curved portion 4a2 is provided between the head portion 4a1 and the flexible tube portion 4a3.
[0022]
As shown in FIG. 3, a substantially semicircular projecting portion 41 is formed on the tip end surface of the head portion 4a1. An observation optical system 106 is provided on the protruding portion 41. As shown in FIG. 4, the observation optical system 106 is provided with an optical lens group 42 and a CCD 43 that is a solid-state imaging device that captures an observation image formed by the optical lens group 42.
[0023]
Further, a distal end opening 101 of an internal channel 33 extending along the axial direction inside the insertion portion 4a is provided on the distal end surface of the head portion 4a1. Illumination windows 104 of the illumination optical system are formed on both sides of the tip opening 101, respectively.
[0024]
As shown in FIG. 4, an optical adapter mounting section 44 is provided at a distal end of the head section 4 a 1 of the endoscope apparatus 1. The optical adapter mounting portion 44 is provided with a mount portion having an appropriate configuration such as a bayonet type or a screw type. A plurality of types of optical adapters, for example, a direct-view adapter 100a1 are detachably attached to the optical adapter mounting portion 44, as shown in FIG.
[0025]
Further, in addition to the direct-view adapter 100a1, the optical adapter mounting section 44 of the head section 4a1 has a side-view adapter 100a2 shown in FIG. 3B and a binocular direct-view binocular capable of three-dimensional display shown in FIG. An adapter (binocular observation optical system) 100a3 and a side-view binocular adapter (binocular observation optical system) 100a4 shown in FIG. 3D are selectively and detachably attached as needed.
[0026]
Further, each of the optical adapters 100a1 to 100a4 is provided with an adapter observation optical system 107, an adapter illumination window 105, and an adapter opening 103, respectively. Then, in a state where the optical adapters 100a1 to 100a4 are mounted on the optical adapter mounting section 44 of the head section 4a1, the observation optical system 106 of the head section 4a1 and the adapter observation optical system 107 are connected. The two illumination windows 104 and the adapter illumination window 105 are connected, and the distal end opening 101 and the adapter opening 103 of the head portion 4a1 are connected.
[0027]
Each of the adapter observation optical systems 107 of the direct-view adapter 100a1 shown in FIG. 3A and the side-view adapter 100a2 shown in FIG. 3B has only one observation window. The observation image from one observation window 108 of the adapter observation optical system 107 is formed on the CCD 43 via the observation optical system 106 of the head unit 4a1. Therefore, in this case, an observation image of a two-dimensional image is displayed.
[0028]
Further, each of the adapter observation optical systems 107 of the direct-view binocular adapter 100a3 for stereo measurement shown in FIG. 3C and the side-view binocular adapter 100a4 shown in FIG. 3D has two left and right observation windows (observation optical systems). 108L and 108R are provided. FIG. 4 shows a state in which the direct-view binocular adapter 100a3 for stereo measurement is attached to the head unit 4a1.
[0029]
Then, observation images from the two observation windows 108L and 108R of the adapter observation optical system 107 are formed on one CCD 43 through two optical paths via the observation optical system 106 of the head unit 4a1. . In addition, two CCDs 43 corresponding to the two observation windows 108L and 108R of the adapter observation optical system 107 may be provided in the head unit 4a1.
[0030]
Further, an adapter recognition terminal 45 is provided in the optical adapter mounting section 44 of the head section 4a1. The adapter recognition terminal 45 is provided with a pair of contacts. Further, one end of a cable 46 is connected to the adapter recognition terminal 45. The other end of the cable 46 is connected to an adapter recognition I / F (AD recognition I / F) 207 (to be described later) (see FIG. 5).
[0031]
The binocular direct-view binocular adapter 100a3 and the side-view binocular adapter 100a4 capable of three-dimensional display are provided with a conduction plate 119 for conducting between a pair of contacts of the adapter recognition terminal 45. Then, when the direct-view binocular adapter 100a3 or the side-view binocular adapter 100a4 is attached to the optical adapter mounting portion 44, the conductive plate 119 of the direct-view binocular adapter 100a3 and the side-view binocular adapter 100a4 connects the pair of contact points of the adapter recognition terminal 45. Becomes conductive. This conduction state is detected by the adapter recognition unit 115 via the cable 46.
[0032]
The distal end of the intermediate connecting part 4b is connected to the base end of the flexible tube part 4a3 of the insertion part 4a. As shown in FIG. 3 (A), the intermediate connecting portion 4b is provided with a grip portion 4b1 that can be held by the user with one hand. At the rear end of the grip portion 4b1, a connection portion between the channel port portion 4b2 and the distal end portion of the universal cable 4c is provided in parallel.
[0033]
Here, the channel port portion 4b2 is provided with a forceps port (a base end side opening end) 35 of the internal channel 33 extending in the axial direction inside the insertion portion 4a. Further, the connecting portion of the universal cable 4c is disposed so as to be obliquely inclined with respect to the axial direction of the insertion portion 4a.
[0034]
Note that an insertion portion protection rubber 38 for preventing sudden bending of the insertion portion 4a is provided on the distal end side of the intermediate connecting portion 4b, and a universal cable protection rubber 39 for preventing sudden bending of the universal cable 4c is provided on the base end side. Have been.
[0035]
The base end of the universal cable 4c is connected to the base unit 4d. As shown in FIG. 5, the base unit 4d includes an electric bending device 51, an electric bending control unit 52 for controlling the operation of the electric bending device 51, a camera control unit (CCU) 53, and the like inside the unit case 4d1. Built-in.
[0036]
The electric bending device 51 is provided with two motor units 55a and 55b corresponding to a vertical bending operation and a horizontal bending operation, respectively. Each of the motor units 55a and 55b is provided with output shafts 55a1 and 55b1, motor units 55a2 and 55b2 serving as driving sources for generating driving force, and potentiometers 104a and 104b for detecting the amount of rotation of the output shafts 55a1 and 55b1. ing.
[0037]
Therefore, the two angle wires for the vertical bending operation are pulled by the motor unit 55a for the vertical bending operation of the electric bending device 51, and the two angle wires for the horizontal bending operation are driven by the motor unit 55b for the horizontal bending operation. By the towing operation of the angle wire, the bending portion 4a2 remotely performs the bending operation in four directions of up and down, left and right, or any combination thereof. At this time, the rotational positions of the sprockets 58a, 58b of the output shafts 55a1, 55b1 are detected by the potentiometers 104a, 104b, and the bending operation of the bending portion 4a2 is controlled by the position control of the angle wires by the potentiometers 104a, 104b. ing.
[0038]
The electric bending control unit 52 includes a microcomputer (hereinafter abbreviated as “microcomputer”) 107, a D / A converter 108, an amplifier 109, and an A / D converter 110 for a potentiometer. Here, the microcomputer 107 is electrically connected to the remote control A / D converter 106 by a communication cable. The microcomputer 107 generates a digital drive signal corresponding to the bending instruction signal from the remote controller 16. The digital drive signal output from the microcomputer 107 is input to the D / A converter 108 and is converted into an analog drive signal. Further, the output side of the D / A converter 108 is connected to the motor units 55a2 and 55b2 via the amplifier 109. Then, the analog drive signal converted by the D / A converter 108 is amplified by the amplifier 109 and output to the motor units 55a2 and 55b2.
[0039]
Further, the microcomputer 107 has a CPU, a ROM and a RAM in which programs are stored, and also has a difference calculation unit 111 and a potentiometer AD conversion unit 110. The input side of the potentiometer AD converter 110 is connected to each of the potentiometers 104 a and 104 b, and the output side is connected to the difference calculator 111. The potentiometer AD converter 110 converts the resistance value indicating the rotational position of each of the potentiometers 104a and 104b from analog to digital. The output signal from the potentiometer A / D converter 110 is input to the difference calculator 111, and the rotation amount of each sprocket 58a, 58b detected by each of the potentiometers 104a, 104b is bent by the remote controller A / D converter 106. Feedback control is performed by taking a difference from the instruction signal.
[0040]
Further, as shown in FIG. 2, a light guide connection connector 4d2 is protruded from an end face of the unit case 4d1 of the base unit 4d. The proximal end of the light guide extending from the universal cable 4c is connected to the light guide connector 4d2.
[0041]
Also, a two-step upper and lower projecting detachable guide 4d3 that guides the movement of the base unit 4d at the time of connection with the fixed unit 5 is provided on the side plate of the unit case 4d1 of the base unit 4d so as to extend substantially in the horizontal direction. . Further, a plurality of fixing fittings 4d4 protrude from an end face of the unit case 4d1. When the base unit 4d and the fixed unit 5 are connected to each other, the base 4d is fixed to the fixed unit 5 by engaging and disengaging these fixing brackets 4d4 to a receiving portion (not shown) of the fixed unit 5 side. It has become.
[0042]
Further, the fixed unit 5 is provided with a power supply unit 7, a light source device 8, and a recording unit 9. Here, the power supply unit 7 is provided with a power supply connector 7a and a power supply cover 7b. A power cable 7c is connected to the power connector 7a. Further, the power supply unit 7 is connected to a main power supply 7e via a switch 7d.
[0043]
In the recording unit 9, an insertion hole (recording medium slot) 9b for inserting a plurality of recording media, for example, a compact flash card (memory card), is formed on a front panel 9a made of sheet metal. The side plate 9c of the recording unit 9 is provided with a two-step recessed guide groove 9d that guides the movement of the base unit 4d and extends substantially in the horizontal direction. A detachable guide 4d3 of the base unit 4d of the scope unit 4 is removably engaged with these guide grooves 9d.
[0044]
Also, as shown in FIG. 2B, a lamp box having a light source lamp (not shown), a relay board, a lamp line board, an EL connector board, an IL switch, and the like are provided inside an exterior cover 8a of the light source device 8. A ballast and a fan are provided.
[0045]
Further, the outer cover 8a of the light source device 8 is provided with a receiving portion (not shown) which is detachably engaged with the light guide connection connector portion 4d2 of the base unit 4d on the joint surface of the scope unit 4 with the base unit 4d. .
[0046]
When the light source device 8 of the fixed unit 5 is connected to the base unit 4 d of the scope unit 4, the light source device 8 is engaged with the guide groove 9 d of the recording unit 9 while the detachable guide 4 d 3 of the base unit 4 d of the scope unit 4 is inserted. It has become. In this state, the base unit 4d of the scope unit 4 is detachably connected to the light source device 8 of the fixed unit 5 while the detachable guide 4d3 slides along the guide groove 9d. At this time, the light guide connection connector portion 4d2 of the base unit 4d is engaged with a receiving portion (not shown) of the light source device 8 so as to be detachable, and the fixing bracket 4d4 of the first connection mechanism 10 is not shown on the fixing unit 5 side (not shown). The light source device 8 of the fixed unit 5 and the base unit 4d of the scope unit 4 are connected to each other so as to be detachably engaged with the receiving unit.
[0047]
Further, when the fixed unit 5 and the base unit 4d of the scope unit 4 are connected, the main power supply unit 7e, the electric bending control unit 52, and the camera control unit 53 are connected via electric contacts. ing. At this time, an LCD monitor 13c, which will be described later, is connected to the camera control unit 53 via an electrical contact between the base unit 4d and the fixed unit 5, and an endoscope observation image captured by the CCD of the scope unit 4 is displayed. The information is displayed on the LCD monitor 13c.
[0048]
A remote control connector 112, a BNC connector 113, and a display device 13 are provided on the upper surface of the exterior cover 8a of the light source device 8. Here, for example, an LCD monitor 13c is attached to the display device 13 via a hinge mechanism 13b above a cylindrical monopod 13a. The LCD monitor 13c is supported to be openable and closable via a hinge mechanism 13b.
[0049]
Further, as shown in FIG. 2B, a lamp replacement window 14 is provided on a side surface of the outer cover 8a of the light source device 8, and a plurality of mounting pins 15 for mounting the storage section 6 are protruded. ing.
[0050]
The storage unit 6 is divided into a plurality of rooms, two in this embodiment, and has a wide scope storage box (insertion storage unit) 6a and a narrow remote control storage unit (cable storage unit) 6b. Is formed. Here, the insertion portion 4a of the scope portion 4, the intermediate connection portion 4b, and the universal cable 4c can be stored in the scope storage box 6a in a state of being bundled in a substantially ring-shaped shape. Further, the storage section 6 is provided with a storage box lid 6c for opening and closing the upper opening of the scope storage box 6a.
[0051]
Further, a remote control (input unit) 16 for operating the base unit 4d of the scope unit 4 and a flexible cable 17 having one end connected to the remote control 16 are stored in the remote control storage unit 6b. I have. Here, a connector 17 a is connected to the other end of the cable 17. This connector 17a is detachably connected to the remote control connector 112 of the fixed unit 5.
[0052]
As shown in FIG. 5, the remote controller 16 includes a joystick 19 serving as an instruction input means for remotely bending at least the bending direction of the bending portion 4a2 of the scope portion 4 in the vertical and horizontal directions, and a power button 20. Is provided. The power button 20 is connected to the switch 7d of the power supply unit 7.
[0053]
The joystick 19 has a base end rotatably supported via a rotation fulcrum. Further, the remote controller 16 is provided with a variable resistor 19c and an AD converter 106. The resistance value of the variable resistor 19c changes according to the tilt direction and the angle of the joystick 19. Further, the AD converter 106 performs A / D conversion of an analog voltage value obtained by voltage conversion from the resistance value of the variable resistor 19c.
[0054]
The remote control A / D conversion unit 106 is electrically connected to the electric bending control unit 52 in the fixed unit 5. Then, the bending instruction signal digitized by the remote control A / D conversion unit 106 is transmitted to the electric bending control unit 52.
[0055]
Further, a pin insertion hole (not shown) is formed at a position corresponding to the mounting pin 15 of the light source device 8 on the mounting surface of the storage unit 6 on the fixed unit 5 side. Then, by inserting the mounting pin 15 of the light source device 8 into the pin insertion hole of the storage unit 6, the storage unit 6 is detachably connected to the side surface of the exterior cover 8 a of the light source device 8.
[0056]
Further, in a state where the storage unit 6 is connected to the side surface of the exterior cover 8a of the light source device 8, the substantially L-shaped scope storage box holding member 21 is screwed and fixed to the fixed unit 5 side.
[0057]
Further, in the endoscope apparatus 1 of the present embodiment, two handles 23a and 23b used for attaching and detaching the assembly unit 2 to and from the endoscope storage case 3 and a shoulder belt 24 are fixed. Here, one handle 23 a is attached to the upper part of the recording unit 9 in the fixed unit 5, and the other handle 23 b is attached to the upper part of the outer cover 8 a of the light source device 8. Similarly, one end of the shoulder belt 24 is fixed to the upper part of the recording unit 9 in the fixed unit 5, and the other end is fixed to the upper part of the outer cover 8 a of the light source device 8. A plurality of rubber legs 25 are fixed to the bottom of the assembly unit 2.
[0058]
The endoscope apparatus has a three-dimensional glass (display means) 49 used in combination with the direct-view binocular adapter 100a3 and the side-view binocular adapter 100a4 as shown in FIG. This may be used instead of the LCD monitor 13c, or may be used supplementarily, and may be attached to the video output connector 47 of the LCD monitor 13c or the remote control video output connector 48 provided on the remote controller 16.
[0059]
Further, the fixed unit 5 is provided with an image processing unit 131. The image processing unit 131 includes a CPU 201 as a main control unit as shown in FIG. The bus of the CPU 201 includes a ROM 202, a RAM 203, an image processing unit 204, a graphic processing unit 205, a recording unit 9, a recording unit I / F (interface) 206, an AD recognition I / F 207, and a remote control I / F 207. / F208 are connected.
[0060]
The CPU 201 is activated by a program recorded in the ROM 202 and controls the entire system by using the RAM 203 as a work area. The image processing unit 204 performs A / D conversion of the video signal from the camera control unit 53 and stores the image signal in a frame memory (not shown) to freeze or freeze the image. Further, the video signal from the camera control unit 53 is subjected to image processing described later, and then output to the graphic processing unit 205.
[0061]
The graphic processing unit 205 superimposes graphic information such as a current time, a file name of the image at the time of image recording and reproduction, and a menu, converts the image into a video signal by D / A conversion, and outputs the video signal.
[0062]
Further, when an instruction to record / reproduce an image is generated by operating various switches on the remote controller 16, the CPU 201 issues a recording / reproduction instruction to the recording unit 9 via the recording unit I / F 206. The recording unit I / F 206 is, for example, RS-232C.
[0063]
The recording unit 9 A / D converts the video signal from the camera control unit 53, compresses the video signal into JPEG or the like, and records it on a recording medium inserted into the recording medium slot 9b, for example, a compact flash card.
[0064]
The signal from the adapter recognition terminal 45 is input via the AD recognition I / F 207. The AD recognition I / F 207 is, for example, an I / O port. Further, an operation signal from the remote controller 16 is input via a remote controller I / F 208. The remote control I / F 208 is, for example, RS-232C.
[0065]
FIG. 7 shows a software block configuration of the fixed unit 5. In FIG. 7, reference numeral 210 denotes a system control unit. The system control unit 210 controls the entire system. The system control unit 210 includes an operation detection unit 211, a stereoscopic image synthesis instructing unit 212, a stereoscopic vision determination unit 213, and a stereoscopic image display on a three-dimensional glass 49 based on image information from the camera control unit 53. A discriminating unit (discriminating means) 117 for discriminating the improperness, and processing means for processing based on the discrimination result from the discriminating unit 117 so as to prevent the display of an unconstructed observation image of a three-dimensional image display when the disabling information is input. The video processing instruction unit 214, the graphic processing instruction unit 215, the recording / playback instruction unit 216, and the adapter recognition unit 115 are connected to each other. Here, the discriminating unit 117 determines whether or not an observation image that cannot be constructed for a stereoscopic image display obtained in a very near point area closer to the binocular observation optical system than the focal position of the observation image obtained from the binocular observation optical system is included. It has a function of determining whether or not it is not. Further, the video processing instructing unit 214 and the graphic processing instructing unit 215 have a function of performing image processing such that an observation image in which a stereoscopic image display cannot be constructed, such as a very near point image, is not displayed.
[0066]
Further, the remote controller 16 is connected to the operation detection unit 211. Further, the image processing unit 204 is connected to the stereoscopic image synthesis instructing unit 212. The AD recognition I / F 207 is connected to the adapter recognition unit 115. The image processing unit 204 is connected to the video processing instruction unit 214. Graphic processing means 205 is connected to the graphic processing instruction unit 215. The recording / reproduction instructing unit 216 is connected to a recording unit I / F 206.
[0067]
Then, the operation detection unit 211 receives an operation of the remote controller 16 and the like, and notifies the system control unit 210. Further, the system control unit 210 notifies the stereoscopic image synthesis instruction unit 212 of the stereoscopic image synthesis instruction detected via the operation detection unit 211. At this time, the three-dimensional image composition instructing unit 212 instructs the image processing means 204 to perform three-dimensional image composition. (Refer to JP-A-2002-112290 for the configuration and operation of the stereoscopic image synthesis itself.)
Further, a signal from the adapter recognition terminal 45 is input from the AD recognition I / F 207 to recognize whether the direct-view or side-view binocular adapters 100a3 and 100a4 are connected, and notify the system controller 210. . For example, if the signal from the adapter recognition terminal 45 is High, the binocular adapters 100a3 and 100a4 for direct or side viewing are connected, and if Low, it means that they are not connected.
[0068]
Further, the determination unit 117 determines whether the observation target is located at a very near point, and notifies the system control unit 210. The stereoscopic vision discriminating unit 213 holds information on whether or not three-dimensional display is performed, as a stereoscopic vision discrimination flag of TRUE (three-dimensional display) or FALSE (two-dimensional display).
[0069]
Here, when the system is started, it is initialized to FALSE. The system control unit 210 notifies the video processing instruction unit 214 of the image processing instruction detected via the operation detection unit 211, and the video processing instruction unit 214 instructs the image processing unit 204 to perform video processing described later.
[0070]
Further, the system control unit 210 notifies the graphic processing instruction unit 215 of the image processing instruction detected via the operation detection unit 211, and the graphic processing instruction unit 215 instructs the graphic processing unit 205 to perform graphic processing described later.
[0071]
Further, the system control unit 210 notifies the recording / reproduction instruction unit 216 of the recording / reproduction instruction detected via the operation detection unit 211, and the recording / reproduction instruction unit 216 instructs the recording unit 9 to record or reproduce an image. .
[0072]
Next, the operation of the above configuration will be described. When the industrial endoscope apparatus 1 according to the present embodiment is used, various optical adapters are detachably attached to the head section 4a1 of the scope section 4 as needed. For example, at the time of observation with a two-dimensional image, the direct-view adapter 100a1 shown in FIG. 3A and the side-view adapter 100a2 shown in FIG. 3B are attached to the optical adapter mounting section 44 of the head 4a1. Further, at the time of observation with a three-dimensional image, the binocular direct-view binocular adapter 100a3 capable of three-dimensional display shown in FIG. 3C and the side-view binocular adapter 100a4 shown in FIG. Attached to.
[0073]
Here, an endoscope observation in a case where the direct-view binocular adapter 100a3 shown in FIG. 3C is attached to the optical adapter mounting portion 44 of the head portion 4a1 as shown in FIG. 4 will be described.
[0074]
First, with the direct-view binocular adapter 100a3 attached to the head section 4a1 in FIG. 4, the insertion section 4a of the scope section 4 is inserted into the examination space of the subject. Here, as shown in FIG. 9, the inspection object is a turbine blade 221, and FIG. 9 shows a state in which foreign matter 222 is attached to the turbine blade 221.
[0075]
Then, the insertion section 4a of the scope section 4 is inserted to a position near the turbine blade 221 to be inspected. At this time, the tip of the scope unit 4 is located at a position where an appropriate distance from the turbine blade 221 can be secured. For example, in the case where measurement is mainly performed, the interval between the turbine blade 221 and the turbine blade 221 is maintained at an interval of about 15 mm to 30 mm, which is considered to have the best measurement accuracy.
[0076]
In this state, endoscope observation of the turbine blade 221 is started. Then, the endoscope observation image at that time is captured from the left and right two observation windows 108L and 108R of the direct-view binocular adapter 100a3. At this time, images obtained through the two adapter observation windows 108R and 108L of the direct-view binocular adapter 100a3 are displayed on the LCD monitor 13c as shown in FIG. In this state, on one screen of the LCD monitor 13c, the image IR of the right-eye adapter observation window 108R is displayed on the right side, and the image IL of the left-eye adapter observation window 108L is displayed on the left side.
[0077]
Similarly, when two-dimensionally displayed on the three-dimensional glass 49, both images IR and IL of FIG. 11A are individually displayed.
[0078]
If this is to be displayed three-dimensionally on the three-dimensional glass 49, the two images IR and IL are processed so that one image can be recognized as a three-dimensional image. In this case, the left and right images IR and IL shown in FIG. 11A are displayed as stereoscopic images as shown in FIG. 11B.
[0079]
The synthesis of the stereoscopic image at this time will be described with reference to the flowchart shown in FIG. (Refer to JP-A-2002-112290.) First, in step S1, it is determined whether or not there is a stereoscopic image synthesis instruction. Here, when it is determined that there is a stereoscopic image synthesis instruction, the process proceeds to step S2.
[0080]
In this step S2, it is determined whether or not the output signal from the adapter recognition terminal 45 is High. If the output signal from the adapter recognition terminal 45 is High in step S2, it is determined that the direct-view or side-view binocular adapters 100a3 and 100a4 are connected, and the process proceeds to the next step S3. If the output signal from the adapter recognition terminal 45 is not High in step S2, it is determined that the direct-view or side-view binocular adapters 100a3 and 100a4 are not connected, and the process ends.
[0081]
In step S3, it is determined whether the stereoscopic vision determination flag is FALSE (two-dimensional display). If the stereoscopic vision determination flag is FALSE in step S3, the process proceeds to the next step S4. In step S4, the stereoscopic image synthesis instructing unit 212 is instructed to synthesize a stereoscopic image. Thereafter, in step S5, the stereoscopic vision determination flag is held as TRUE (three-dimensional display).
[0082]
If the stereoscopic vision discrimination flag is not FALSE in step S3, the process proceeds to the next step S6. In this step S6, the stereoscopic image synthesis instructing unit 212 is instructed to cancel the stereoscopic image synthesis. After that, in step S7, the stereoscopic vision determination flag is held as FALSE (two-dimensional display).
[0083]
Then, in this three-dimensional observation state, in order to collect the foreign matter 222 on the turbine blade 221, the forceps 114 are inserted from the channel port portion 4b2 as shown in FIG. The forceps 114 is provided with a grip portion 114b at a distal end of an elongated flexible insertion portion 114a. Then, as shown in FIG. 10, the grip portion 114b at the distal end of the forceps 114 is projected from the adapter opening 103.
[0084]
At this time, in the two-dimensional display, as shown in FIG. 12A, the image IR of the forceps 114 from the right eye adapter observation window 108R is displayed on one screen on the LCD monitor 13c, and the image IR from the left eye adapter observation window 108L is displayed on one screen. The image IL of the forceps 114 is displayed on the left side in a juxtaposed state. When this is three-dimensionally displayed on the three-dimensional glass 49, the root of the forceps 114 usually appears to be doubled as shown in FIG.
[0085]
This is because, when the observation target is located at the very near point of the two adapter observation windows 108R and 108L of the direct-view binocular adapter 100a3, the image is reconstructed based on the focused position and displayed as a three-dimensional image. This phenomenon occurs because an image at a very near point that is out of focus is displaced, and an accurate image is not displayed.
[0086]
Therefore, first, the fact that the direct-view binocular adapter 100a3 has been attached is transmitted to the AD recognition I / F 207 via the cable 46 at the adapter recognition terminal 45 provided on the head unit 4a1. Then, in the AD recognition I / F 207, the video processing instruction unit 214 and the graphic processing instruction unit 215 for masking the image at the closest point position are set to the standby state.
[0087]
Next, the determination unit 117 determines whether the image is FIG. 11B or FIG. 12B. That is, when the forceps 114 protrude from the adapter opening 103 as shown in FIG. 10, an image at a very near point as shown in FIG. 12B is obtained. In this case, the determination unit 117 determines that the image is present, and the video processing instruction unit 214 and the graphic processing instruction unit 215 instruct the image processing unit 204 and the graphic processing unit 205 to perform the processing.
[0088]
At this time, the image processing means 204 performs the following mask processing on the corresponding portion. For example, as shown in FIG. 13A, a filling processing unit 231 that applies a filling process to a corresponding portion of the extremely near point region may be provided. Alternatively, as shown in FIG. 13B, a cut processing unit 232 that cuts a corresponding portion may be provided.
[0089]
When the graphic menu 233 is displayed in the three-dimensional display image of the three-dimensional glass 49 as shown in FIG. 14A, the menu 233 is displayed by the graphic processing means 205 as shown in FIG. The position may be moved to the cut processing unit 232.
[0090]
Further, the graphic processing unit 205 may perform the masking process by displaying the character information 234 on the corresponding portion as shown in FIG.
[0091]
The determination as to whether the construction of the stereoscopic image display is possible or not in the determination unit 117 is performed as follows.
[0092]
Image information having parallax can be obtained from the direct-view binocular adapter 100a3 or the side-view binocular adapter 100a4 through the two adapter observation windows 108R and 108L. Based on this image information, the distance to the subject can be measured based on the principle of triangulation. The determination unit 117 calculates the distance from the subject, and determines whether or not the subject exists at the extremely near point position.
[0093]
For example, the determination unit 117 determines whether or not the subject is located at a point closer to 15 mm to 30 mm, which is considered to have the best measurement accuracy, and performs the above-described mask processing on the corresponding portion.
[0094]
Further, the user presses a switch on the remote controller 16 or a SW on a touch panel (not shown) displayed on a menu on the LCD monitor 13 c, and the operation detection unit 211 detects the switch, and notifies the determination unit 117 via the system control unit 210. That is, it may be determined whether or not the subject exists at the very near point position according to the instruction of the operator. If the subject exists at the very near point position, the above-described video and graphic processing is performed on the corresponding portion.
[0095]
Therefore, the above configuration has the following effects. That is, in the present embodiment, a determination unit 117 that determines whether or not a three-dimensional image can be displayed on the three-dimensional glass 49 on the image information from the camera control unit 53, and a configuration based on the determination result from the determination unit 117. A video processing instruction unit 214 and a graphic processing instruction unit 215 are provided for processing so that an observation image in which a stereoscopic image display cannot be constructed is not displayed at the time of input of the prohibition information. During the three-dimensional stereoscopic observation, by performing a process of eliminating an inappropriate image generated on the stereoscopic display screen, for example, an image of a very near point that is out of focus from the screen, obstruction at the time of observation can be eliminated. This has the effect of increasing inspection efficiency.
[0096]
In addition, by removing an inappropriate image such as an image at a very close point that is out of focus, it is possible to construct a proper stereoscopic image by removing noise of stereoscopic information.
[0097]
In general, during a three-dimensional stereoscopic observation, especially when there are double images or distorted images on a stereoscopic display screen, the stereoscopic effect cannot be sufficiently obtained, and the effect cannot be obtained sufficiently. Inspection efficiency may be reduced. On the other hand, in the present invention, a state in which a three-dimensional effect cannot be sufficiently grasped is avoided by eliminating an inappropriate image such as a double image or a distorted image generated on the three-dimensional display screen from the screen. And a safe and reliable inspection can be performed.
[0098]
15 to 17 show a second embodiment of the present invention. In the present embodiment, the configuration of the control circuit in the industrial endoscope apparatus 1 of the first embodiment (see FIGS. 1 to 14A and 14B) is changed as follows. The other portions have the same configuration as the endoscope device 1 of the first embodiment, and the same portions as those of the endoscope device 1 of the first embodiment are denoted by the same reference numerals. Here, the description is omitted.
[0099]
That is, in the present embodiment, as shown in FIG. 15, in addition to the adapter recognizing unit 115, the fixed unit 5 includes a high-brightness image in the very near point area on the image information from the camera control unit 53. And a processing unit 242 that performs image processing on a high-luminance image.
[0100]
Next, the operation of the present embodiment having the above configuration will be described. First, the state in which the direct-view binocular adapter 100a3 is attached is transmitted to the AD recognition I / F 207 via the cable 46 at the adapter recognition terminal 45 provided on the head unit 4a1. Then, the I / F 207 for AD recognition sets the video processing instruction unit 214 for processing the high-luminance image to the standby state.
[0101]
Next, the luminance determination unit 241 determines whether there is significant halation in the near-point image. That is, when the forceps 114 protrudes from the adapter opening 103 as shown in FIG. 10, when an image at a very near point as shown in FIG. 16 is obtained, a remarkably high luminance portion, that is, the halation 235 is included in the image. If there is, the luminance determination unit 241 determines that the image information is present, and the video processing instruction unit 214 instructs the image processing unit 204 to perform the processing.
[0102]
In that case, a fill processing unit 236 shown in FIG. 17A may be provided in the display portion of the halation 235. Alternatively, as shown in FIG. 17B, a cut processing unit 237 that cuts a corresponding portion may be provided. Further, the graphic processing unit 205 may perform the masking process by displaying the character information 238 on the corresponding portion as shown in FIG.
[0103]
The determination method in the brightness determination unit 241 is as follows. First, image information from the direct-view binocular adapter 100a3 or the side-view binocular adapter 100a4 is subjected to A / D conversion in the image processing unit 204, separated into a luminance signal and a color difference signal, and stored in a frame memory. 241 is input. The luminance discrimination unit 241 discriminates a high-luminance pixel that causes halation in the luminance signal.
[0104]
Then, video processing is performed on the pixel on the frame memory as described above. Alternatively, graphic processing is performed on the pixel.
[0105]
Therefore, in the present embodiment, at the time of three-dimensional stereoscopic observation, an inappropriate image generated on the stereoscopic display screen, for example, an image at a very near point as shown in FIG. By eliminating inappropriate images from the screen, obstruction during observation can be eliminated, and there is an effect that inspection efficiency increases.
[0106]
Further, when there is high luminance information on the image, the low luminance information is displayed darkly, and there is a possibility that scratches or damages are dark and difficult to confirm, but there is an effect that this can be avoided.
[0107]
In addition, eliminating high luminance can eliminate noise of stereoscopic information and construct an appropriate stereoscopic image.
[0108]
In the first and second embodiments, the image is shifted and displayed so that the near-point image or the portion without the near-point and high-luminance image is located at the center of the image. Is also good.
[0109]
Also, the recognition of the optical adapter is not automatically performed as in the present embodiment, but the fact that the binocular adapter is attached is transmitted to the AD recognition I / F 207 by an adapter recognition button (not shown) provided on the remote controller 16. Is also good. Further, instead of the mechanical switch on the remote controller 16, the SW on the touch panel displayed on the menu on the LCD monitor 13c may be pressed.
[0110]
FIGS. 18A and 18B show a third embodiment of the present invention. This embodiment shows an example of avoiding the above-mentioned problem by devising the forceps 114 side of the endoscope apparatus 1 of the first embodiment (see FIGS. 1 to 14A and 14B). .
[0111]
In this embodiment, as shown in FIG. 18B, a multi-degree-of-freedom forceps 123 in which a joint 122 is disposed between a plurality of arms 123a is provided. The joint 122 of the multi-degree-of-freedom forceps 123 is rotated around an axis by a micromotor 124, and drives each arm 123a in a vertical direction. Further, a grasping portion 123b is provided at the tip of the multi-degree-of-freedom forceps 123.
[0112]
Next, the operation of the present embodiment having the above configuration will be described. In the present embodiment, as shown in FIG. 18A, by bending each arm 123a at the distal end of the multi-degree-of-freedom forceps 123, the visual field range θ of the two adapter observation windows 108R and 108L of the direct-view binocular adapter 100a3. By bringing (inserting) the grip portion 123b at the distal end of the forceps 123 into the visual field range θ from outside, the forceps 123 can be displayed outside the extremely near point regions of the adapter observation windows 108R and 108L. . For this reason, the forceps 123 does not enter as an image in the very near point region of the two adapter observation windows 108R and 108L of the direct-view binocular adapter 100a3.
[0113]
Therefore, in the present embodiment having the above-described configuration, an inappropriate image generated on the stereoscopic display screen, for example, an image at a very near point that is out of focus during the three-dimensional stereoscopic observation is displayed on the screen as in the first embodiment. A process of eliminating from above can be performed, and there is an effect that obstruction at the time of observation is eliminated and inspection efficiency is increased.
[0114]
In addition, by removing an inappropriate image such as an image at a very close point that is out of focus, it is possible to construct a proper stereoscopic image by removing noise of stereoscopic information.
[0115]
It should be noted that the same effect can be obtained even with forceps whose end portion can be displaced using a shape memory alloy, artificial muscle, or the like instead of the multi-degree-of-freedom forceps 123.
[0116]
FIG. 19 shows a fourth embodiment of the present invention. In the present embodiment, a tip hood 125 is attached to the head section 4a1 of the scope section 4 in the industrial endoscope apparatus 1 of the first embodiment (see FIGS. 1 to 14A and 14B). The tip hood 125 prevents the observation object from entering the extremely close area of the direct-view binocular adapter 100a3.
[0117]
Thus, in the present embodiment, at the time of three-dimensional stereoscopic observation, the distance between the direct-view binocular adapter 100a3 and the observation object can be set to be larger than the extremely close area by the tip hood 125. For this reason, for example, the observation object is not inserted at the very close point of the direct-view binocular adapter 100a3 that is out of focus, so that it is possible to prevent an inappropriate image that is out of focus from being inserted on the stereoscopic display screen. This has the effect of eliminating obstructions during observation and increasing inspection efficiency.
[0118]
FIG. 20 and FIG. 21 show a fifth embodiment of the present invention. In the present embodiment, the configuration of the image processing unit 131 in the endoscope apparatus 1 of the first embodiment (see FIGS. 1 to 14A and 14B) is changed as follows.
[0119]
That is, in the present embodiment, a masking circuit (see JP-A-2002-112290) is provided on the three-dimensional glass 49 side. Further, as shown in FIG. 20, the image processing section 131 of the fixed unit 5 is provided with a processing information output I / F 251. The processing information output I / F 251 outputs processing information to the three-dimensional glass 49.
[0120]
In FIG. 21, the system control unit 210 is further provided with a processing information generation unit 252. The processing information generation unit 252 is connected to the processing information output I / F 251.
[0121]
Next, the operation of the above configuration will be described. In the present embodiment, as in the first embodiment, when the subject exists at the very near point position of the direct-view binocular adapter 100a3, the processing information generation unit 252 calculates the screen coordinates indicating the corresponding part, and outputs the processing information. Output from I / F 251. The three-dimensional glass 49 receives an output signal from the processing information output I / F 251. Then, the received screen coordinate portion is subjected to mask processing in the same manner as in the first embodiment.
[0122]
Therefore, the above configuration has the following effects. That is, in the first embodiment, the endoscope apparatus 1 implements the processing so that an observation image in which the stereoscopic image display cannot be constructed is not displayed when the non-construction information is input, but in the present embodiment, this processing is performed. The processing can be realized on the three-dimensional glass 49 side. Therefore, in addition to the effects described in the first embodiment, the cost of the endoscope apparatus 1 itself is reduced. In addition, the cost can be reduced by using an indispensable circuit on the three-dimensional glass 49 side.
[0123]
Furthermore, the present invention is not limited to the above-described embodiment, and it goes without saying that various modifications can be made without departing from the spirit of the present invention.
Next, other characteristic technical matters of the present application will be additionally described as follows.
Record
(Additional Item 1) A binocular observation optical system having two left and right observation optical systems and an endoscope apparatus having display means for constructing and displaying both observation images of the optical systems as stereoscopic image information are constructed as stereoscopic display. An endoscope apparatus comprising: a determination unit for determining whether or not the configuration is possible; and a processing unit for processing the configuration disable information.
[0124]
(Additional Item 2) The endoscope apparatus according to Additional Item 1, wherein the discriminating means is a subject distance measuring means by triangulation with respect to an observation image obtained from the binocular observation optical system.
[0125]
(Additional Item 3) The endoscope apparatus according to Additional Item 1, wherein the discriminating means is a high-luminance portion extracting means in an observation image obtained from the binocular observation optical system.
[0126]
(Additional Item 4) An endoscope apparatus according to Additional Item 1, further comprising a processing means for processing an observation image obtained in a very near point region where construction is impossible.
[0127]
(Additional Item 5) An endoscope apparatus according to Additional Item 1, further comprising processing means for processing a high-brightness observation image obtained in a very near point region where construction is impossible.
[0128]
(Additional Item 6) The endoscope apparatus according to Additional Items 4 and 5, wherein the processing means is a mask means for masking a high-brightness portion of a high-brightness observation image obtained in a very near point region.
[0129]
(Additional Item 7) An endoscope apparatus according to Additional Item 1, further comprising a processing information generating means and a processing information output means for processing an observation image obtained in a very near point area where construction is impossible.
[0130]
(Additional Item 8) An endoscope apparatus according to Additional Item 1, further comprising processing information generating means for processing a high-brightness observation image obtained in a very near point region where construction is impossible.
[0131]
(Supplementary Item 9) In an endoscope apparatus having a binocular observation optical system having two left and right observation optical systems and a display means for constructing and displaying both observation images of the optical systems as stereoscopic image information, the stereoscopic display is constructed. An endoscope apparatus comprising an exclusion unit for excluding an extremely near point object that cannot be used.
[0132]
(Prior art of Supplementary items 1 to 9) A conventional endoscope has two observation optical systems (here, image formation on one CCD) at the end of the endoscope as disclosed in JP-A-8-215142. It is conceivable to collect foreign matter or the like by combining the technique of three-dimensional observation with three-dimensional glasses using the parallax of the two eyes and a treatment tool such as forceps.
[0133]
Further, as in Japanese Patent Application Laid-Open No. 2002-112290, a glasses-type display device (three-dimensional glasses) is described.
[0134]
(Problems to be Solved by Additional Items 1 to 9) However, at the time of stereoscopic display, the distance from the object plane to the parallax is too short at a very near point position, so that the display is reconstructed into a stereoscopic state. But there was a limit. For this reason, there has been a phenomenon in which an object appears to be doubled with respect to an object located at a very near point.
[0135]
As a result, observation is hindered, and there is a problem such as a decrease in inspection efficiency.
[0136]
Furthermore, if there is an object at a very near point and halation due to reflected light occurs, the reflected light will be further doubled, which will cause problems in observation, and will have a too high brightness and white color When only the image can be seen, the stereoscopic information is lost and there is a problem that the stereoscopic display cannot be accurately performed.
[0137]
(Purpose of Supplementary Items 1 to 9) The display of the very near point area where the object is observed twice and the display of high luminance which hinders the visual recognition are affected as follows, thereby affecting the observer's observation. Not give.
[0138]
·mask
・ Image extraction other than double part
・ Low brightness in high brightness areas
(Means for solving the problems described in Additional Items 1 to 9) A binocular observation optical system having two left and right observation optical systems, and a display means for constructing and displaying both observation images of the optical systems as stereoscopic image information In the endoscope apparatus, a configuration is provided in which a determination unit that determines whether or not construction is possible as a three-dimensional display and a processing unit that processes construction-impossible information are provided.
[0139]
(Operation of Supplementary Items 1 to 9) By processing the non-construction information, there is an operation of giving a misunderstanding to an operator or eliminating inappropriate information that causes fatigue.
[0140]
(Effects of Additional Items 1 to 9) By eliminating an inappropriate image generated on the screen from the screen, it is possible to eliminate obstruction at the time of observation and to increase the inspection efficiency. In addition, by removing improper images, noise of stereoscopic information can be eliminated, and appropriate stereoscopic images can be constructed.
[0141]
【The invention's effect】
Advantageous Effects of Invention According to the present invention, a display in which an object in a very near point region which hinders visual recognition when observing a stereoscopic image is double-viewed or a high-luminance display is processed so as not to affect the observer's observation It is possible to provide an endoscope apparatus in which a stereoscopic image can be easily observed.
[Brief description of the drawings]
FIG. 1 is a perspective view of an entire industrial endoscope apparatus showing a state in which a lid of an endoscope storage case in an industrial endoscope apparatus according to a first embodiment of the present invention is opened.
FIG. 2A is a perspective view showing an endoscope storage case in the industrial endoscope apparatus according to the first embodiment, and FIG. 2B is an exploded perspective view of an assembling unit of the endoscope apparatus main body.
FIG. 3 shows a main part configuration of the industrial endoscope apparatus according to the first embodiment. FIG. 3A shows a direct-view adapter removed from a peripheral portion of a remote controller of the endoscope and a distal end portion of an insertion portion. FIG. 2 is a perspective view showing a state, FIG. 2 (B) is a perspective view showing a side-view adapter, FIG. 2 (C) is a perspective view showing a direct-view binocular adapter, and FIG. 2 (D) is a perspective view showing a side-view binocular adapter.
FIG. 4 is a longitudinal sectional view showing the internal configuration of the distal end portion of the insertion section in the industrial endoscope device according to the first embodiment.
FIG. 5 is a schematic configuration diagram of an entire control circuit in the industrial endoscope apparatus according to the first embodiment.
FIG. 6 is a schematic configuration diagram illustrating a main configuration of a control circuit in the industrial endoscope apparatus according to the first embodiment;
FIG. 7 is a software block diagram illustrating a main configuration of a control circuit in the industrial endoscope apparatus according to the first embodiment.
FIG. 8 is a flowchart illustrating an operation of instructing synthesis of a stereoscopic image in the industrial endoscope apparatus according to the first embodiment.
FIG. 9 is a perspective view for explaining an operation of inserting the treatment tool with the distal end portion of the insertion section in the industrial endoscope apparatus according to the first embodiment facing the turbine blade to be measured.
FIG. 10 is a perspective view showing a state in which the treatment tool inserted into the treatment tool insertion channel of the endoscope in the industrial endoscope apparatus according to the first embodiment is projected outside from the distal end portion of the endoscope. .
FIG. 11A shows a state in which left and right images obtained through left and right adapter observation windows of a direct-view binocular adapter are projected on one screen of a monitor in the industrial endoscope apparatus according to the first embodiment. (B) is a plan view showing a display state of one stereoscopic image of a three-dimensional display image displayed on a three-dimensional glass.
12A and 12B show observation images of the distal end portion of the treatment tool obtained in a very near point region in the industrial endoscope apparatus according to the first embodiment. FIG. FIG. 4B is a plan view showing projected left and right two-dimensional display images, and FIG. 4B is a plan view showing a display state of one three-dimensional image of the three-dimensional display image displayed on the three-dimensional glass.
13A and 13B illustrate a processing state of a three-dimensional display image in the industrial endoscope apparatus according to the first embodiment, in which FIG. 13A is a plane illustrating an image obtained by painting a corresponding portion of a very near point area; FIG. 3B is a plan view showing an image obtained by cutting a corresponding portion of the very near point region, and FIG. 3C is a plan view showing a mask processed image for displaying character information on the corresponding portion of the very near point region.
14A and 14B show a modification of a processing state of a three-dimensional display image in the industrial endoscope apparatus according to the first embodiment, in which FIG. 14A shows a graphic menu on a three-dimensional display screen. FIG. 3B is a plan view showing an image, and FIG. 4B is a plan view showing an image in which the display position of the menu has been moved to a corresponding portion of the very near point region.
FIG. 15 is a schematic configuration diagram of an entire control circuit in the industrial endoscope apparatus according to the second embodiment of the present invention.
FIG. 16 is a plan view showing a display state of a three-dimensional image in which halation is displayed on an observation image of a distal end portion of a treatment tool obtained in a very near point region in the industrial endoscope apparatus according to the second embodiment. .
17A and 17B illustrate a processing state of a three-dimensional display image in the industrial endoscope apparatus according to the second embodiment, in which FIG. 17A is a plane illustrating an image obtained by painting a halation portion in a very near point area; FIG. 3B is a plan view showing an image obtained by cutting a halation portion, and FIG. 3C is a plan view showing a masked image displaying character information on the halation portion.
FIGS. 18A and 18B show a third embodiment of the present invention, in which FIG. 18A is a longitudinal sectional view showing an internal configuration of a distal end portion of an insertion portion in an industrial endoscope apparatus, and FIG. FIG. 3 is a perspective view showing a configuration of a main part of the forceps.
FIG. 19 is a perspective view showing a configuration of a main part of an industrial endoscope apparatus according to a fourth embodiment of the present invention.
FIG. 20 is a schematic configuration diagram of an entire control circuit in an industrial endoscope apparatus according to a fifth embodiment of the present invention.
FIG. 21 is a software block diagram illustrating a main configuration of a control circuit in an industrial endoscope apparatus according to a fifth embodiment.
[Explanation of symbols]
49 Three-dimensional glass (display means)
100a3 Direct-view binocular adapter (binocular observation optical system)
100a4 Side-view binocular adapter (binocular observation optical system)
108L, 108R Right and left two observation windows (observation optical system)
117 determination unit (determination means)
214 Video processing instruction unit (processing means)
215 Graphic processing instruction unit (processing means)

Claims (9)

左右2つの観察光学系を有する双眼観察光学系と、上記左右2つの観察光学系からの両方の観察像を立体画像情報として構築し、表示する表示手段とを有する内視鏡装置において、
上記表示手段への立体画像表示の構築可不可を判別する判別手段と、
この判別手段からの判別結果に基いて構築不可情報の入力時に上記立体画像表示の構築不可の観察画像が表示されないように処理する処理手段と
を設けたことを特徴とする内視鏡装置。
A binocular observation optical system having two left and right observation optical systems, and an endoscope apparatus having display means for constructing and displaying both observation images from the two left and right observation optical systems as stereoscopic image information,
Determining means for determining whether or not construction of a stereoscopic image display on the display means is possible;
An endoscope apparatus provided with processing means for performing processing based on a result of the discrimination from the discriminating means so as not to display an unconstructed observation image of the three-dimensional image display when the non-construction information is input.
上記判別手段は上記双眼観察光学系から得られる観察像に対する3角測量による被写体距離を測定する手段であることを特徴とする請求項1に記載の内視鏡装置。2. The endoscope apparatus according to claim 1, wherein said discriminating means is means for measuring a subject distance by triangulation with respect to an observation image obtained from said binocular observation optical system. 上記判別手段は上記双眼観察光学系から得られる観察像中の高輝度部を抽出する高輝度部抽出手段であることを特徴とする請求項1に記載の内視鏡装置。The endoscope apparatus according to claim 1, wherein the discriminating means is a high-luminance part extracting means for extracting a high-luminance part in an observation image obtained from the binocular observation optical system. 上記処理手段は上記双眼観察光学系から得られる観察像の焦点位置よりも上記双眼観察光学系に接近した極近点領域で得られた上記立体画像表示の構築不可の観察画像を加工処理する加工処理手段であることを特徴とする請求項1に記載の内視鏡装置。The processing means is a processing for processing an unconstructable observation image of the stereoscopic image display obtained in a very near point area closer to the binocular observation optical system than the focal position of the observation image obtained from the binocular observation optical system. The endoscope apparatus according to claim 1, wherein the endoscope apparatus is a processing unit. 上記処理手段は上記双眼観察光学系から得られる観察像の焦点位置よりも上記双眼観察光学系に接近した極近点領域で得られた上記立体画像表示の構築不可の高輝度観察画像を加工処理する高輝度画像の加工処理手段であることを特徴とする請求項1に記載の内視鏡装置。The processing means processes a high-brightness observation image that cannot be constructed for the stereoscopic image display obtained in a very near point area closer to the binocular observation optical system than the focal position of the observation image obtained from the binocular observation optical system. 2. The endoscope apparatus according to claim 1, wherein the endoscope apparatus is a high-brightness image processing unit. 上記加工処理手段は上記極近点領域で得られた高輝度観察画像の高輝度部分をマスクするマスク手段であることを特徴とする請求項4または請求項5に記載の内視鏡装置。6. The endoscope apparatus according to claim 4, wherein the processing means is a mask means for masking a high-brightness portion of the high-brightness observation image obtained in the very near point region. 上記処理手段は上記双眼観察光学系から得られる観察像の焦点位置よりも上記双眼観察光学系に接近した極近点領域で得られた上記立体画像表示の構築不可の観察画像を加工処理する加工処理手段と、この加工処理手段からの加工情報を生成する加工情報生成手段と、この加工情報生成手段から前記加工情報を出力する加工情報出力手段とを具備することを特徴とする請求項1に記載の内視鏡装置。The processing means is a processing for processing an unconstructable observation image of the stereoscopic image display obtained in a very near point area closer to the binocular observation optical system than the focal position of the observation image obtained from the binocular observation optical system. 2. The apparatus according to claim 1, further comprising: a processing unit; a processing information generating unit configured to generate processing information from the processing unit; and a processing information output unit configured to output the processing information from the processing information generating unit. The endoscope device according to claim 1. 上記処理手段は上記双眼観察光学系から得られる観察像の焦点位置よりも上記双眼観察光学系に接近した極近点領域で得られた上記立体画像表示の構築不可の高輝度観察画像を加工処理する加工処理手段と、この加工処理手段からの加工情報を生成する加工情報生成手段とを具備することを特徴とする請求項1に記載の内視鏡装置。The processing means processes a high-brightness observation image that cannot be constructed for the stereoscopic image display obtained in a very near point area closer to the binocular observation optical system than the focal position of the observation image obtained from the binocular observation optical system. 2. The endoscope apparatus according to claim 1, further comprising: a processing unit that performs processing, and a processing information generating unit that generates processing information from the processing unit. 上記処理手段は上記双眼観察光学系から得られる観察像の焦点位置よりも上記双眼観察光学系に接近した極近点領域で得られた上記立体画像表示の構築不可の観察画像を排除する排除手段であることを特徴とする請求項1に記載の内視鏡装置。The processing means is an exclusion means for excluding an unconstructable observation image of the stereoscopic image display obtained in a very near point area closer to the binocular observation optical system than the focal position of the observation image obtained from the binocular observation optical system. The endoscope apparatus according to claim 1, wherein
JP2002355609A 2002-12-06 2002-12-06 Endoscopic equipment Pending JP2004187711A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002355609A JP2004187711A (en) 2002-12-06 2002-12-06 Endoscopic equipment

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002355609A JP2004187711A (en) 2002-12-06 2002-12-06 Endoscopic equipment

Publications (1)

Publication Number Publication Date
JP2004187711A true JP2004187711A (en) 2004-07-08

Family

ID=32756255

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002355609A Pending JP2004187711A (en) 2002-12-06 2002-12-06 Endoscopic equipment

Country Status (1)

Country Link
JP (1) JP2004187711A (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010057619A (en) * 2008-09-02 2010-03-18 Olympus Medical Systems Corp Stereoscopic image capturing and displaying system
JP2011170276A (en) * 2010-02-22 2011-09-01 Olympus Corp Endoscope device and program
WO2011118287A1 (en) * 2010-03-24 2011-09-29 オリンパス株式会社 Endoscope device
JP2011227132A (en) * 2010-04-15 2011-11-10 Olympus Corp Guide tube apparatus and endoscope system
JP2012223446A (en) * 2011-04-21 2012-11-15 Canon Inc Stereoscopic endoscope apparatus
JP2012245056A (en) * 2011-05-25 2012-12-13 Canon Inc Endoscope
JP2013047935A (en) * 2011-07-22 2013-03-07 Hitachi Consumer Electronics Co Ltd Video processing device, video display device, and video processing method
EP2762057A1 (en) * 2013-02-04 2014-08-06 Canon Kabushiki Kaisha Stereo endoscope apparatus and image processing method
JP2016095458A (en) * 2014-11-17 2016-05-26 オリンパス株式会社 Endoscope device
WO2018047465A1 (en) * 2016-09-09 2018-03-15 オリンパス株式会社 Endoscope device
JP2019098005A (en) * 2017-12-06 2019-06-24 国立大学法人千葉大学 Endoscope image processing program, endoscope system, and endoscope image processing method

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05108819A (en) * 1991-03-26 1993-04-30 Olympus Optical Co Ltd Picture processor
JPH0847001A (en) * 1994-08-01 1996-02-16 Minolta Co Ltd Steroscopic television camera
JPH08194275A (en) * 1995-01-17 1996-07-30 Olympus Optical Co Ltd Stereoscopic image pickup device
JPH0974573A (en) * 1995-06-29 1997-03-18 Matsushita Electric Ind Co Ltd Stereoscopic cg image generator
JP2002336188A (en) * 2001-05-21 2002-11-26 Olympus Optical Co Ltd Endoscope system for measurement

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH05108819A (en) * 1991-03-26 1993-04-30 Olympus Optical Co Ltd Picture processor
JPH0847001A (en) * 1994-08-01 1996-02-16 Minolta Co Ltd Steroscopic television camera
JPH08194275A (en) * 1995-01-17 1996-07-30 Olympus Optical Co Ltd Stereoscopic image pickup device
JPH0974573A (en) * 1995-06-29 1997-03-18 Matsushita Electric Ind Co Ltd Stereoscopic cg image generator
JP2002336188A (en) * 2001-05-21 2002-11-26 Olympus Optical Co Ltd Endoscope system for measurement

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010057619A (en) * 2008-09-02 2010-03-18 Olympus Medical Systems Corp Stereoscopic image capturing and displaying system
JP2011170276A (en) * 2010-02-22 2011-09-01 Olympus Corp Endoscope device and program
CN102802498A (en) * 2010-03-24 2012-11-28 奥林巴斯株式会社 Endoscope device
WO2011118287A1 (en) * 2010-03-24 2011-09-29 オリンパス株式会社 Endoscope device
JP5771598B2 (en) * 2010-03-24 2015-09-02 オリンパス株式会社 Endoscope device
JP2011227132A (en) * 2010-04-15 2011-11-10 Olympus Corp Guide tube apparatus and endoscope system
JP2012223446A (en) * 2011-04-21 2012-11-15 Canon Inc Stereoscopic endoscope apparatus
JP2012245056A (en) * 2011-05-25 2012-12-13 Canon Inc Endoscope
JP2013047935A (en) * 2011-07-22 2013-03-07 Hitachi Consumer Electronics Co Ltd Video processing device, video display device, and video processing method
EP2762057A1 (en) * 2013-02-04 2014-08-06 Canon Kabushiki Kaisha Stereo endoscope apparatus and image processing method
JP2016095458A (en) * 2014-11-17 2016-05-26 オリンパス株式会社 Endoscope device
WO2018047465A1 (en) * 2016-09-09 2018-03-15 オリンパス株式会社 Endoscope device
JPWO2018047465A1 (en) * 2016-09-09 2019-03-07 オリンパス株式会社 Endoscope device
JP2019098005A (en) * 2017-12-06 2019-06-24 国立大学法人千葉大学 Endoscope image processing program, endoscope system, and endoscope image processing method

Similar Documents

Publication Publication Date Title
US5335662A (en) Image pickup system comprising signal processing device which uses exclusive adaptor in probes different in image pickup system from each other
JP5974188B2 (en) Endoscope system
CN104756093B (en) For mobile or network equipment interchangeable wireless sensing device
US4755873A (en) Endoscope system
JP2015221226A (en) Imaging device
JP2018519860A (en) Dynamic visual field endoscope
JP6329715B1 (en) Endoscope system and endoscope
JP2005169009A (en) Endoscope system and endoscope
WO2016108276A1 (en) Dental optical imaging apparatus
JP2004187711A (en) Endoscopic equipment
JP5942047B2 (en) Endoscope system
CN108185977A (en) Electronic endoscope system and the light source for endoscope
JP4297649B2 (en) MEDICAL DEVICE AND MEDICAL DEVICE CONTROL METHOD
JP6017198B2 (en) Endoscope apparatus and program
US10729309B2 (en) Endoscope system
WO2015146836A1 (en) Endoscope system
JP4916114B2 (en) Endoscope device
JPH0642644Y2 (en) Endoscopic bending device
JP3353949B2 (en) Imaging system
CN113905652A (en) Medical observation system, control device, and control method
JP2001017388A (en) Imaging device for endoscope
JPH10118006A (en) Endoscope apparatus
JP4436494B2 (en) Face-mounted image display device
US20220190524A1 (en) Cable and notification method
JP7456385B2 (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20051005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20081008

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20081021

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20081219

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090526

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20091006