JPH02296209A - Endoscope device for measuring - Google Patents

Endoscope device for measuring

Info

Publication number
JPH02296209A
JPH02296209A JP1117863A JP11786389A JPH02296209A JP H02296209 A JPH02296209 A JP H02296209A JP 1117863 A JP1117863 A JP 1117863A JP 11786389 A JP11786389 A JP 11786389A JP H02296209 A JPH02296209 A JP H02296209A
Authority
JP
Japan
Prior art keywords
point
image
specified
screen
cursor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1117863A
Other languages
Japanese (ja)
Other versions
JP2778739B2 (en
Inventor
Kazuo Sonobe
園部 和夫
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Optical Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Optical Co Ltd filed Critical Olympus Optical Co Ltd
Priority to JP1117863A priority Critical patent/JP2778739B2/en
Publication of JPH02296209A publication Critical patent/JPH02296209A/en
Application granted granted Critical
Publication of JP2778739B2 publication Critical patent/JP2778739B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Endoscopes (AREA)

Abstract

PURPOSE:To objectively recognize the recessed/projecting parts of a measuring object by calculating a distance from an object point to a reference plane based on a three-dimensional position of a specified reference plane and the object point. CONSTITUTION:The object point is specified by an object point specifying means 145 and the three-dimensional position of the object point is calculated by object point position calculating means 161 and 175. And an optional plane in the image plane of an endoscope 101 is specified as the reference plane by a reference plane specifying means 151. And the distance from the object point to the reference plane is calculated based on the three-dimensional position of the reference plane and the object point. Thus, the recessed/projecting parts of the object objectively are recognized.

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、計測対象点の位置を計測する計測用内視鏡装
置に関し、特に、対象物の凹凸の高さまたは深さを客観
的に認識できるようにした計測用内視鏡装置に関する。
[Detailed Description of the Invention] [Industrial Application Field] The present invention relates to a measurement endoscope device that measures the position of a measurement target point, and in particular, to a measurement endoscope device that measures the position of a measurement target point. The present invention relates to a measurement endoscope device that can be recognized.

[従来の技術] 近年、医療用分野及び工業用分野において、内視鏡が広
く用いられるようになった。
[Prior Art] In recent years, endoscopes have come to be widely used in the medical and industrial fields.

通常の内視鏡による観察像では、一般に対象物は平面的
なものとなり、凹凸等を認識しにくい。
In images observed using a normal endoscope, objects are generally flat, making it difficult to recognize irregularities.

このため、例えば本出願人は、特願昭62−18188
8号明細書において、内視鏡の先端部に2系統の対物レ
ンズを設番プて、この2系統の対物レンズにより得た2
つの画像をイメージガイドを通じて接眼部に導いて双眼
により立体的視野を得るようにした装置を提案していた
For this reason, for example, the present applicant
In the specification of No. 8, two systems of objective lenses are installed at the tip of the endoscope, and two systems of objective lenses are obtained by using these two systems of objective lenses.
They proposed a device that guided two images to the eyepiece through an image guide to obtain a stereoscopic field of view with binoculars.

このようにして得られる2つの画像を撮像して2つのモ
ニタに表示した場合、各モニタの画面上で互いに対応す
る点を指定することにより、対象物の1点を3次元的に
特定することができる。そして、その対象点までの距離
を求めることや、複数の対象点間の距離を求めること等
が可能になる。
When the two images obtained in this way are captured and displayed on two monitors, one point on the object can be identified three-dimensionally by specifying the mutually corresponding points on the screen of each monitor. I can do it. Then, it becomes possible to determine the distance to the target point, the distance between multiple target points, etc.

[発明が解決しようとする課題] ところで、***病変や陥凹病変等の対象物の凹凸の高さ
または深さを客観的に知りたいという要望がある。しか
しながら、前述のような対象物の1点を3次元的に特定
する手段や、対象点までの距離を求める手段や、複数の
対象点間の距離を求める手段等は、いずれも、直接、対
象物の凹凸の高さまたは深さを示すものではないので、
対象物の凹凸の高さまたは深さが客観的には判らないと
いう問題点がある。
[Problems to be Solved by the Invention] By the way, there is a desire to objectively know the height or depth of the unevenness of an object such as a raised lesion or a depressed lesion. However, the above-mentioned methods for three-dimensionally specifying a single point on a target, determining the distance to a target point, and determining the distance between multiple target points do not directly identify the target. It does not indicate the height or depth of the unevenness of the object, so
There is a problem in that the height or depth of the unevenness of the object cannot be determined objectively.

本発明は、上記事情に鑑みてなされたものであり、対象
物の凹凸を客観的に認識できるようにした計測用内視鏡
装、置を提供することを目的としている。
The present invention has been made in view of the above circumstances, and an object of the present invention is to provide a measuring endoscope device and apparatus that can objectively recognize the unevenness of an object.

[課題を解決するための手段] 本発明の計測用内視鏡装置は、内視鏡先端に対する計測
対象点の位置を計測する計測用内視鏡装置おいて、前記
計測対象点を指定する対象点指定手段と、前記計測対象
点の3次元的位置を演算する対象点位置演算手段と、内
視鏡画面内で任意の平面を指定する基準面指定手段と、
前記基準面指定手段により指定された基準面及び前記対
象点位置演算手段により演算された計測対象点の3次元
的位置に基づいて、前記計測対象点から前記基準面まで
の距離を演算する手段とを備えたものである。
[Means for Solving the Problems] A measurement endoscope device of the present invention is a measurement endoscope device that measures the position of a measurement target point with respect to the tip of an endoscope. a point specifying means, a target point position calculating means for calculating the three-dimensional position of the measurement target point, and a reference plane specifying means for specifying an arbitrary plane within the endoscope screen;
means for calculating the distance from the measurement target point to the reference plane based on the reference plane designated by the reference plane designation means and the three-dimensional position of the measurement target point calculated by the target point position calculation means; It is equipped with the following.

[作用] 本発明では、対象点指定手段により計測対象点が指定さ
れ、対象点位置演算手段により前記計測対象点の3次元
的位置が演算される。また、基準面指定手段により内視
鏡画面内の任意の平面が基準面として指定される。そし
て、前記基準面及び前記計測対象点の3次元的位置に基
づいて、計測対象点から基準面までの距離が演算される
[Operation] In the present invention, a measurement target point is specified by the target point specifying means, and a three-dimensional position of the measurement target point is calculated by the target point position calculation means. Further, an arbitrary plane within the endoscope screen is specified as a reference plane by the reference plane specifying means. Then, a distance from the measurement target point to the reference plane is calculated based on the three-dimensional position of the measurement target point and the reference plane.

[実施例コ 以下、図面を参照して本発明の詳細な説明する。[Example code] Hereinafter, the present invention will be described in detail with reference to the drawings.

第1図ないし第23図は本発明の一実施例に係り、第1
図は本実施例の概略の構成を示すブロック図、第2図は
内視鏡の挿入部先端部の説明図、第3図は計測用内視鏡
装置の構成を示すブロック図、第4図はポストコンピュ
ータの構成を示すブロック図、第5図は画像ファイルの
構成を示すブロック図、第6図は高さの求め方を示す原
理説明図、第7図(a)及び(b)は対象物におりる点
の位置表示を説明づるための説明図、第8図は複数の点
の高さを求める場合の説明図、第9図は突出した部分の
高さを求める場合の説明図、第10図は3次元座標の求
め方を示す原理説明図、第11図は画面上の位置と撮像
素子上の位置との変換を説明するための説明図、第12
図は案内線の求め方を示す原理説明図、第13図ないし
第23図は本実施例の動作を説明するための70−ヂヤ
ートである。
Figures 1 to 23 relate to one embodiment of the present invention;
Figure 2 is a block diagram showing the general configuration of this embodiment, Figure 2 is an explanatory diagram of the distal end of the insertion section of the endoscope, Figure 3 is a block diagram showing the configuration of the measurement endoscope device, and Figure 4. is a block diagram showing the configuration of the postcomputer, Figure 5 is a block diagram showing the configuration of the image file, Figure 6 is a principle explanatory diagram showing how to calculate the height, and Figures 7 (a) and (b) are the target An explanatory diagram for explaining the position display of points falling on an object, Fig. 8 is an explanatory diagram for calculating the height of multiple points, Fig. 9 is an explanatory diagram for calculating the height of a protruding part, Fig. 10 is an explanatory diagram of the principle showing how to obtain three-dimensional coordinates, Fig. 11 is an explanatory diagram to explain the conversion between the position on the screen and the position on the image sensor, and Fig. 12
The figure is a principle explanatory diagram showing how to obtain a guide line, and FIGS. 13 to 23 are 70-diameter diagrams for explaining the operation of this embodiment.

本実施例の計測用内視鏡装置は、第3図に示すように、
ステレオ式ビデオイメージエンドスコープ(以下、内視
鏡と記ず。)101と、この内視鏡101によって撮像
される右画像及び左画像の各画像信号を信号処理する右
画像用ビデオプロセッサ110R及び左画像用ビデオプ
ロセッサ11OLと、前記各ビデオプロセッサー10R
,11OLから出力される例えばRGB信号による各映
像信号を記憶する右画像用フレームメモリー12R及び
左画像用フレームメモリー12Lと、前記各フレームメ
モリー12R,112Lから出力される例えばRGB信
号による映像信号を入力して、右画像、左画像を表示す
る右画像用モニター30R及び左画像用モニター30L
と、前記各フレームメモリ1’12R,112Lに記憶
された画像を用いて、立体計測演算を行うホストコンピ
ュータ120と、前記ホストコンピューター20に接続
された画像ファイル140と、前記ホストコンピュータ
120に接続され、前記モニター 30R。
As shown in FIG. 3, the measurement endoscope device of this embodiment has the following features:
A stereo video image endoscope (hereinafter referred to as an endoscope) 101, a right image video processor 110R and a left image processor 110R that process image signals of the right image and left image captured by the endoscope 101. Image video processor 11OL and each of the video processors 10R
, 11OL, and a right image frame memory 12R and a left image frame memory 12L that store video signals, for example, RGB signals outputted from the frame memories 12R and 112L, and video signals outputted from the respective frame memories 12R, 112L, for example, are inputted. A right image monitor 30R and a left image monitor 30L display the right image and the left image.
a host computer 120 that performs stereoscopic measurement calculations using the images stored in each of the frame memories 1'12R and 112L; an image file 140 connected to the host computer 20; and an image file 140 connected to the host computer 120. , the Monitor 30R.

130Lに表示されるカーソルの操作や計測対象点の指
定等を行うマウス145とを備えている。
It also includes a mouse 145 for operating the cursor displayed on the screen 130L, specifying a point to be measured, and the like.

前記両ビデオプロセッサー10R,110Lは、互いに
同期した信号処理を行うようになっている。
Both video processors 10R and 110L are configured to perform mutually synchronized signal processing.

また、本実施例では、前記各フレームメモリー12R,
112Lは、R,G、B用の各メモリを複数組備えてお
り、1組には画像が記憶され、他の組にはカーソルが書
き込まれ、各組に書ぎ込まれた信号を足し合わせること
により、モニタの画面上に画像とカーソルとを表示でき
るようになっている。
Further, in this embodiment, each of the frame memories 12R,
112L is equipped with multiple sets of each memory for R, G, and B. Images are stored in one set, cursors are written in the other sets, and the signals written in each set are added. This makes it possible to display an image and a cursor on the monitor screen.

前記ホストコンピュータ120は、第4図に示すように
構成されている。
The host computer 120 is configured as shown in FIG.

すなわち、ポストコンピュータ120は、CPU12’
1.右フレームメモリインターフェース122R1左フ
レームメモリインターフエース122L、メインメモリ
1232画像ファイルインターフェース124.マウス
インターフェース125、キーボード126及びCRT
127を備え、これらは、バスによって互いに接続され
ている。
That is, the post computer 120 has a CPU 12'
1. Right frame memory interface 122R1, left frame memory interface 122L, main memory 1232, image file interface 124. Mouse interface 125, keyboard 126 and CRT
127, which are connected to each other by a bus.

また、前記右フレームメモリインターフェース122R
2左フレームメモリインターフエース1221−は、そ
れぞれ、前記右画像用フレームメモリ112R及び左画
像用フレームメモリ112Lに接続され、これらとの間
で画像データの送受を行うと共に、各インターフェース
122R,122Lを介して、前記フレームメモリ11
2R,112Lに対するカーソル制御を行うようになっ
ている。また、前記画像ファイルインターフェース12
4は、画像ファイル140に接続され、画像データ及び
対象点位置情報の送受を行うようになっている。また、
前記マウスインターフェース125は、マウス145に
接続されるようになっている。
In addition, the right frame memory interface 122R
The two left frame memory interfaces 1221- are connected to the right image frame memory 112R and the left image frame memory 112L, respectively, and transmit and receive image data therebetween, as well as transmit and receive image data between them. The frame memory 11
Cursor control is performed for 2R and 112L. Further, the image file interface 12
4 is connected to the image file 140 to send and receive image data and target point position information. Also,
The mouse interface 125 is adapted to be connected to a mouse 145.

前記画像ファイル140は、第5図に示すよう構成され
ている。
The image file 140 is structured as shown in FIG.

すなわち、画像ファイル140は、対象点の位置情報を
記憶し、ホストコンピュータ120と対象点位置情報の
送受を行う対象点位置情報用ファイル181と、ホスト
コンピュータ120と画像データの送受を行うステレオ
画像マネージャー182と、このスデレオ画像マネージ
p−182に連結され、左画像データを記憶する左用画
像ファイル183Lと、前記ステレオ画像マネージャー
182に連結され、右画像データを記憶する右用画像フ
ァイル183Rとを備えている。本実施例では、内視鏡
101で得たステレオ画像を左右2枚1組で取り扱って
おり、ホストコンピュータ120から2枚1組で送られ
て来たステレオ画像は、前記ステレオ画像マネージャー
182によって、左円、右用各画像ファイル1831.
183Rに振り分けられて、記録されるJ:うになって
いる。
That is, the image file 140 includes a target point position information file 181 that stores position information of a target point, transmits and receives target point position information to and from the host computer 120, and a stereo image manager that transmits and receives image data to and from the host computer 120. 182, a left image file 183L connected to the stereo image manager 182 and storing left image data, and a right image file 183R connected to the stereo image manager 182 and storing right image data. There is. In this embodiment, the stereo images obtained by the endoscope 101 are handled as a pair of left and right images, and the stereo images sent as a pair from the host computer 120 are processed by the stereo image manager 182. Image files for left circle and right circle 1831.
It is assigned to 183R and recorded as J: U.

また、前記ステレオ画像マネージャー182によって、
前記各画像ファイル1831.183Rに記録された画
像は、2枚1組で呼び出されるようになっている。
Additionally, the stereo image manager 182 may
The images recorded in each of the image files 1831.183R are recalled in sets of two.

次に、本実施例の概略の構成を第1図及び第2図を参照
して説明−4る。
Next, the general structure of this embodiment will be explained with reference to FIGS. 1 and 2.

内視鏡101は、第2図に示づ−ように、細長の挿入部
102を備え、この挿入部102の先端部には、複数の
、例えば2つの観察窓と、照明窓とが設けられている。
As shown in FIG. 2, the endoscope 101 includes an elongated insertion section 102, and the distal end of the insertion section 102 is provided with a plurality of observation windows, for example two, and an illumination window. ing.

前記各観察窓の内側には、互いに視差を有する位置に、
右眼用対物レンズ系103R,左眼用対物レンズ系10
3mが設りられている。各対物レンズ系103R,10
3Lの結像位置には、それぞれ、固体撮像素子を用いた
撮像手段104R,104mが配設されている。;した
、前記照明窓の内側には、配光レンズ105が設けられ
、この配光レンズ105の少端には、ファイババンドル
よりなるライトガイド106が連設されている。このラ
イトガイド106は、前記挿入部102内に挿通され、
入射端部は図示しない光源装置に接続されるようになっ
ている。そして、この光源装置から出力される照明光が
、前記ライトガイド106及び配光レンズ105を介し
て被写体に照剣されるようになっている。この被写体か
らの光は、前記対物レンズ系103R,103Lによっ
て、それぞれ右画像、左画像として、撮像手段104R
,104Lに結像されるようになっている。
Inside each of the observation windows, at positions having parallax from each other,
Right eye objective lens system 103R, left eye objective lens system 10
3m is provided. Each objective lens system 103R, 10
Imaging means 104R and 104m using solid-state imaging devices are arranged at the imaging positions 3L, respectively. A light distribution lens 105 is provided inside the illumination window, and a light guide 106 made of a fiber bundle is connected to a small end of the light distribution lens 105. This light guide 106 is inserted into the insertion section 102,
The incident end is connected to a light source device (not shown). Illumination light output from this light source device is illuminated onto the subject via the light guide 106 and the light distribution lens 105. The light from this object is captured by the objective lens systems 103R and 103L as a right image and a left image, respectively, by the imaging means 104R.
, 104L.

前記撮像手段104R,104Lによって撮像された各
画像信号は、それぞれ、ビデオプロセッサ110R,1
10mに入力され、映像信号処理が施されるようになっ
ている。前記各ビデオプロセッサ110R,ll0Lか
ら出力される各画像信号は、それぞれ、A/D変換器1
11R,111Lによりデジタル信号に変換された後、
画像メモリずなわら、各フレームメモリ112R,11
2Lのうちの画像用のメモリに記憶されるようになって
いる。
The image signals captured by the imaging means 104R, 104L are sent to video processors 110R, 1, respectively.
10m and is subjected to video signal processing. Each image signal output from each of the video processors 110R and 110L is sent to an A/D converter 1.
After being converted into digital signals by 11R and 111L,
Image memory, each frame memory 112R, 11
It is designed to be stored in the image memory of 2L.

前記画像メモリ112R,112Lから読み出された画
像信号は、それぞれ、ORゲート157R,157Lを
経て、D/A変換器158R,158Lにてアナログ信
号に変換され、モニタ130R,130Lに入力される
ようになっている。
The image signals read from the image memories 112R and 112L pass through OR gates 157R and 157L, and are converted into analog signals by D/A converters 158R and 158L, and are input to monitors 130R and 130L. It has become.

そして、このモニタ130R,130Lに、それぞれ、
右画像、左画像が表示されるようになっている。
Then, on these monitors 130R and 130L, respectively,
The right image and left image are displayed.

また、右画面にカーソルを表示させるカーソル表示手段
151Rと、左画面にカーソルを表示させるカーソル表
示手段1511とが設けられ、マウス145は、切換手
段150を介して、前記カーソル表示手段151R,1
51Lの一方に接続されるようになっており、各画面用
のカーソルの移動等の操作を行うことができるようにな
っている。前記カーソル表示手段151R,’151L
から出力されるカーソル表示用の信号は、前記ORゲー
ト157R,157mに入力されるようになつでおり、
これにより、モニタ130R,130Lの画面にカーソ
ルが重畳されるようになっている。
Further, cursor display means 151R for displaying a cursor on the right screen and cursor display means 1511 for displaying a cursor on the left screen are provided, and the mouse 145 is connected to the cursor display means 151R, 1 through the switching means 150.
51L, and operations such as moving the cursor for each screen can be performed. The cursor display means 151R, '151L
The cursor display signal output from the cursor display signal is input to the OR gates 157R and 157m,
As a result, the cursor is superimposed on the screens of the monitors 130R and 130L.

また、右画面用のカーソル表示手段151Rには、案内
線表示手段177が連結され、この案内線表示手段17
7は、右画面において対象点が指定されている場合には
、その対象点に対する左画面上での位置条件を演算し、
その位置条件に基づいて案内線表示用の信号を出力する
ようになっている。この案内線表示用の信号は、ORゲ
ート157Lに入ノjされるようになっており、これに
より、左画像用モニタ130Lの画面に案内線が重畳し
て表示されるようになっている。
Further, a guide line display means 177 is connected to the cursor display means 151R for the right screen.
7, if a target point is specified on the right screen, calculate the positional condition for the target point on the left screen,
Based on the positional conditions, a signal for displaying the guide line is output. This signal for displaying the guide line is input to the OR gate 157L, so that the guide line is displayed in a superimposed manner on the screen of the left image monitor 130L.

また、前記両カーソル表示手段151R,151Lには
、対象点位置算出手段161が連結されており、この対
象点位置算出手段161は、両画面において対象点が指
定されている場合には、その対象点の各画面における座
標より計測対象点の3次元座標を求めるようになってい
る。更に、前記対象点位置算出手段161は、位置記憶
先切換手段162を介して、複数、例えば4つの対象点
位置記憶手段171,172,173.17/Iの1つ
に選択的に連結されるようになっている。この各対象点
位置記憶手段171〜17I!Iには、前記対象点位置
算出手段161で粋出された複数の計測対象点の各位置
が記憶されるようになっている。前記各対象点位置記憶
手段171〜174は、高さ演算手段175に連結され
、この高さ演算手段175は、前記対象点位置記憶手段
171〜174に記憶された各計測対象点の位置に基づ
いて、対象物の凹凸の高さまたは深さを演算するにうに
なっている。この高さ演算手段175によって演算され
た対象物の凹凸の高さまたは深さは、例えば、各計測対
象点の位置関係と共に、モニタに表示されるようになっ
ている。
Further, a target point position calculation means 161 is connected to both the cursor display means 151R, 151L, and when a target point is specified on both screens, the target point position calculation means 161 The three-dimensional coordinates of the point to be measured are determined from the coordinates of the point on each screen. Further, the target point position calculation means 161 is selectively connected to one of a plurality of, for example, four target point position storage means 171, 172, 173.17/I, via a position storage destination switching means 162. It looks like this. These object point position storage means 171 to 17I! I stores the positions of a plurality of measurement target points selected by the target point position calculation means 161. Each of the target point position storage means 171 to 174 is connected to a height calculation means 175, and this height calculation means 175 calculates a value based on the position of each measurement target point stored in the target point position storage means 171 to 174. It is designed to calculate the height or depth of the unevenness of the object. The height or depth of the unevenness of the object calculated by the height calculating means 175 is displayed on a monitor together with, for example, the positional relationship of each measurement target point.

尚、本実施例では、前記切換手段150.力ソル表示手
段151R,151L、対象点位置算出手段1611位
置記憶先切換手段162.対象点位置記憶手段171〜
174.高さ演算手段175、及び案内線表示手段17
7は、前記ボストコンピュータ120を後述する手順で
動作させることにより達成される。
In this embodiment, the switching means 150. Force sol display means 151R, 151L, target point position calculation means 1611, position storage destination switching means 162. Target point position storage means 171~
174. Height calculation means 175 and guide line display means 17
7 is achieved by operating the boss computer 120 according to the procedure described below.

本実施例における立体計測システムの詳細な動作1作用
を説明する前に、以下に、対象物の凹凸の高さまたは深
さを求める場合の作用の概略を説明する。
Before explaining the detailed operation 1 of the three-dimensional measurement system in this embodiment, an outline of the operation when determining the height or depth of the unevenness of the object will be explained below.

(1)まず、内視鏡からの画像または画像ファイルから
の画像を選択する。
(1) First, select an image from an endoscope or an image from an image file.

(2)内視鏡からの画像を選択した揚台には、画像を記
録するか否かを選択し、記録する場合には、内視鏡から
のステレオの左右画像を、2枚1組で画像ファイル14
0に記録する。
(2) Select whether or not to record the image on the platform where you have selected the image from the endoscope. If you choose to record the image, select the left and right stereo images from the endoscope as a set of two images. Image file 14
Record to 0.

(3)一方、画像ファイルからの画像を選択した場合に
は、画像ファイル140からステレオ画像を1組選択し
、フレームメモリ112R,112Lへ呼び込む。
(3) On the other hand, when an image from the image file is selected, one set of stereo images is selected from the image file 140 and loaded into the frame memories 112R and 112L.

(4)次に、高さ計測を行う場合は、まず、対象物の凹
凸に対する基準面(平面)を特定するための3つの計測
対象点を指定する。この3つの計測対象点の指定の作用
は、次の通りである。
(4) Next, when performing height measurement, first, three measurement target points are specified for specifying a reference plane (plane) for the unevenness of the object. The effects of designating these three measurement target points are as follows.

1、対象点がすでに指定してあった場合には、左右画面
のカーソルを消J−0 2、右画面に、点の指定用に任意に動くカーソル(以下
、動カーソルと記す。)が表われる。
1. If the target point has already been specified, the cursors on the left and right screens will be deleted. 2. A cursor that can move arbitrarily (hereinafter referred to as a moving cursor) for specifying a point will appear on the right screen. be exposed.

3.7ウス145を操作し、指定したい点の上に動カー
ソルを移動する。
3.7 Operate mouse 145 to move the moving cursor over the point you want to specify.

4、マウス145を用いて指定を行うと、右画面に指定
カーソルが表われる。尚、この指定は、繰り返すことが
できる。
4. When a designation is made using the mouse 145, a designation cursor appears on the right screen. Note that this designation can be repeated.

5、マウス145を用いて指定点の確定を行う。5. Use the mouse 145 to confirm the specified point.

6、右画面の動カーソルが消え、指定カーソルが残る。6. The moving cursor on the right screen disappears and the specified cursor remains.

7、左画面に動カーソルが表われる。7. A moving cursor will appear on the left screen.

8、マウス145を操作し、指定したい点の上に動カー
ソルを移動する。
8. Operate the mouse 145 and move the moving cursor over the point you want to specify.

9、マウス145を用いて指定を行うと、左画面に指定
カーソルが表われる。尚、この指定は、繰り返すことが
できる。
9. When a designation is made using the mouse 145, a designation cursor appears on the left screen. Note that this designation can be repeated.

10、マウス145を用いて指定点の確定を行う。10. Use the mouse 145 to confirm the specified point.

11、左画面の動カーソルが消え、指定カーソルが残る
11. The moving cursor on the left screen disappears and the designated cursor remains.

12、指定された左右の各対象点に対応する計測対象点
の3次元座標が演算される。
12. The three-dimensional coordinates of the measurement target points corresponding to the specified left and right target points are calculated.

他の2点についても同様にして指定する。The other two points are specified in the same manner.

(5)次に、対象物の高さまたは深さを求めたい計測対
象点を指定する。この点の指定も、前述の(4)と同様
である。
(5) Next, specify the measurement target point at which you want to find the height or depth of the object. The specification of this point is also the same as in (4) above.

(6)このように指定した4つの計測対象点の3次元座
標を用いた演算により、対象物の高さまたは深さが求め
られる。また、前記4つの計測対象点、及び高さまたは
深さを求めたい点から基準面に降ろした垂線と前記基準
面との交点の計5点の位置関係が表示される。
(6) The height or depth of the object is determined by calculation using the three-dimensional coordinates of the four measurement target points specified in this way. Further, the positional relationships of a total of five points, including the four measurement target points and the intersection of the reference plane and a perpendicular line drawn from the point whose height or depth is to be determined, are displayed.

次に、第13図ないし第23図を参照して、本実施例に
おける立体計測システムの詳細な動作。
Next, detailed operations of the three-dimensional measurement system in this embodiment will be explained with reference to FIGS. 13 to 23.

作用について説明する。The effect will be explained.

まず、第13図を用いてメインルーチンを説明する。シ
ステムの動作を開始すると、ステップ5l−1(以下、
ステップは省略し、単に51−1のように記す。)で、
内視鏡からの画像か否かを判断づ−る。否(以下、NO
と記づ。また、肯定の場合はY E 、Sと記1′。)
の場合は、51−2で、画像ファイルからの画像か否か
を判断J−る。N’0の場合は、51−3で、終了か否
かを判断し、YESの場合は、終了する。前記81−1
で、内視鏡からの画像であると判断されIC場合(YE
S)は、51−4で、recordOというザブルーチ
ンを行い、51−1へ戻る。前記r e 、c o ’
rdは、内視鏡からのステレオ画像を2枚1組で画像フ
ァイルに記録覆るルーチンである。また、前記51−2
で、画像ファイルからの画像であると判断された場合(
YES)は、81−5で、measure ()という
サブルーチンを行い、S11へ戻る。前記me、asu
reは、画像ファイルから画像を呼び出し、後述する高
さ計測等の各種処理を行うルーチンである。また、前記
51−3でNOの場合も、51−1へ戻る。尚、前記r
ecordは第1/1図に、前記measuraは第1
5図に、それぞれ示している。尚、ルーチン名の最後の
0は、そのルーチンがサブルーチンであることを表す。
First, the main routine will be explained using FIG. When the system starts operating, step 5l-1 (hereinafter referred to as
Steps are omitted and simply written as 51-1. )in,
Determine whether the image is from an endoscope or not. No (hereinafter, NO
It is written. If affirmative, write Y E, S and 1'. )
In this case, it is determined in 51-2 whether the image is from an image file. In the case of N'0, it is determined in 51-3 whether or not to end, and in the case of YES, the process ends. Said 81-1
If it is determined that the image is from an endoscope and it is IC (YE
S) performs a subroutine called recordO in 51-4 and returns to 51-1. Said r e , co'
rd is a routine that records two sets of stereo images from an endoscope into an image file. In addition, the above 51-2
If the image is determined to be from an image file (
If YES), a subroutine called measure() is executed at 81-5, and the process returns to S11. Said me, asu
re is a routine that reads an image from an image file and performs various processes such as height measurement, which will be described later. Also, if the answer to 51-3 is NO, the process returns to 51-1. Furthermore, the above r
The echo is shown in Figure 1/1, and the measurea is shown in the first
Each is shown in Figure 5. Note that the 0 at the end of the routine name indicates that the routine is a subroutine.

また、0の中には、引数が入ることがある。Also, 0 may contain an argument.

このように、メインルーチンでは、キーボード126等
の操作手段ににす、内視鏡からの画像または画像ファイ
ルからの画像を選択するか、あるいは動作の終了を指示
するまで、前記$1−1ないし51−3が繰り返される
。尚、51−1と81−2の順番は任意である。
In this manner, in the main routine, the above $1-1 or 51-3 is repeated. Note that the order of 51-1 and 81-2 is arbitrary.

次に、第14図を用いて前記recorc1.0を説明
する。
Next, the recordorc1.0 will be explained using FIG. 14.

このルーチンが開始すると、まず、52−1で、画像記
録か否かを判断する。すなわち、ここで、フリーズする
タイミングをとる。Noの場合は、52−2で、終了か
否かを判断し、Y E ’Sの場合は、終了する。前記
52−1で画像記録と判断された場合(YES)は、5
2−3で、内視鏡からのステレオの左右画像を2枚1組
で画像ファイル140に記録し、52−1へ戻る。また
、前記52−2でNoの場合も、52−1へ戻る。この
ように、ステレオ画像を左右2枚1組で取り扱うことに
より、左画像と右画像を扱うのが容易になる。
When this routine starts, first, in 52-1, it is determined whether or not image recording is to be performed. In other words, here is the timing to freeze. In the case of No, it is determined whether or not to end in 52-2, and in the case of YE'S, the process ends. If it is determined as image recording in 52-1 above (YES), 5.
At 2-3, the left and right stereo images from the endoscope are recorded as a pair in the image file 140, and the process returns to 52-1. Also, if the answer in 52-2 is No, the process returns to 52-1. In this way, by handling stereo images as a pair of left and right images, it becomes easier to handle the left and right images.

次に、第15図を用いて前記measureOを説明す
るd このルーチンが開始すると、まず、$3−1で、画像フ
ァイル140の2枚1組でノア1イルされたステレオ画
像を1組選択する。次に、選択されICステレオ画像を
左右それぞれのフレームメモリ1121.112Rへ呼
び込む。次に、53−3でoadpo i nt ()
というザブルーチンを行う。このIoadpointは
、左右画面上での点指定位置が記録されていれば、その
位置にカーソルを表示し、その点の3次元座標を求める
ルーチンである。この3次元座標は、例えばモニタ13
0L、130RまたはCRT127に表示される。この
Ioadpointは、第19図に示している。次に、
53−4で、点1の指定か否かを判断し、Noの場合は
、53−5で、高さ計測か否かを判断し、Noの場合は
、53−6で、終了か否かを判断する。この53−6で
、YESの揚合は、53−7で、終了時の点位置を記録
するか否かを判断し、Noの場合は、そのまま終了し、
YESの場合は、53−8で、5avepo i nl
()というサブルーチンを行った後、終了する。
Next, measureO will be explained with reference to FIG. 15. When this routine starts, first, at $3-1, one set of stereo images that have been converted into two sets of image files 140 is selected. . Next, the selected IC stereo images are loaded into the left and right frame memories 1121 and 112R, respectively. Next, in 53-3 oadpoint ()
Perform the subroutine called. This Ioadpoint is a routine that displays a cursor at a specified position on the left and right screens, if it is recorded, and calculates the three-dimensional coordinates of that point. These three-dimensional coordinates can be obtained from the monitor 13, for example.
Displayed on 0L, 130R or CRT127. This Ioadpoint is shown in FIG. next,
In 53-4, it is determined whether or not point 1 is designated. If No, it is determined in 53-5 whether or not height measurement is to be performed. If No, in 53-6, it is determined whether or not to end. to judge. If the answer is YES in 53-6, it is determined in 53-7 whether or not to record the point position at the end of the process, and if the answer is No, the process ends as is.
If YES, 53-8, 5avepo inl
After executing the subroutine (), it ends.

前記5avepa i ntは、左右画面上での点指定
位置を画像ファイル140に記録するルーチンである。
The above-mentioned 5avepaint is a routine for recording specified point positions on the left and right screens in the image file 140.

このように、対象点の左右画面上での指定位置を、画像
に対応させて記録づることができるので、記録した対象
点は、何度も指定し直す必要がなくなる。この5ave
po i ntは、第20図に示している。
In this way, the specified positions of the target point on the left and right screens can be recorded in correspondence with the images, so there is no need to re-designate the recorded target point many times. This 5ave
The points are shown in FIG.

前記53−4で点1の指定であると判断された場合(Y
ES)は、83−9で、paintlOというサブルー
チンを行い、53−4へ戻る。
If it is determined that point 1 is specified in 53-4 above (Y
ES) executes a subroutine called paintlO in 83-9 and returns to 53-4.

このpo+nt1は、点1を左右画面で指定し、その3
次元座標を得るルーチンである。このpOi n t 
lは、第16図に示している。
This po+nt1 specifies point 1 on the left and right screens, and
This is a routine to obtain dimensional coordinates. This point
l is shown in FIG.

前記53−5で高さ目測であると判断された場合(YE
S)は、8.3−10で、heightOというサブル
ーチンを行い、53−4へ戻る、このhe i ght
は、対象物の凹凸の高さまたは深さを求めるルーチンで
ある。このh e i g h iは、第17図に示し
ている。
If it is determined that the height is an estimated height in 53-5 above (YE
S) executes a subroutine called heightO at 8.3-10 and returns to 53-4, this he i
is a routine to find the height or depth of irregularities on an object. This h e i g h i is shown in FIG.

また、前記53−6でNOの場合も、53−4へ戻る。Also, if the answer in 53-6 is NO, the process returns to 53-4.

尚、53−4と83−5の順番は任意である。Note that the order of 53-4 and 83-5 is arbitrary.

次に、第16図を用いて前記paintlNを説明する
Next, the paintlN will be explained using FIG. 16.

このルーチンが開始すると、まず、84−1で、点1が
指定されているか否かを判断する。Noの場合は、その
まま54−4へ進み、YESの場合は、54−2及び5
4−3を行った後、S 4 = i+1へ進む。前記5
4−2では、左右各画面について、点1カーソルを消し
、次に、54−3で、点1を無指定状態に戻す。
When this routine starts, first, in step 84-1, it is determined whether point 1 has been designated. If No, proceed directly to 54-4; if YES, proceed to 54-2 and 5.
After performing step 4-3, proceed to S 4 = i+1. Said 5
At step 4-2, the point 1 cursor is erased for each of the left and right screens, and then at step 54-3, point 1 is returned to the unspecified state.

次に、前記S 4−4 rは、RmovecurOとい
うサブルーチンを行う。このRm o v ecurは
、右画面での対象点の指定を行うルーチンであり、その
指定点のX、y座標を、(S  Rxi、 5−R1/
1)に得る。このRmovecurは第22図に示して
いる。
Next, the S4-4r executes a subroutine called RmovecurO. This Rm ov ecur is a routine that specifies the target point on the right screen, and the X, y coordinates of the specified point are (S Rxi, 5-R1/
1) Obtain. This Rmovecur is shown in FIG.

次に、54−5で、右画面において、点1カーソルを(
S  Rxl、 S  Ryl) (D位置に書く。
Next, at 54-5, on the right screen, move the point 1 cursor to (
S Rxl, S Ryl) (Write in position D.

次に、54−6で、案内線を書くか否かを判断する。N
Oの場合はそのまま$4−8へ進み、YESの場合は5
4−7で、Lgu ide □というサブルーチンを行
った後、前記54−8へ進む。
Next, in 54-6, it is determined whether or not to draw a guide line. N
If O, proceed directly to $4-8; if YES, proceed to 5
At step 4-7, a subroutine called L guide □ is executed, and then the process proceeds to step 54-8.

このLouideは、右画面での指定点のX、y座標(
S  Rx1. S−111)を基に、左画面上に、案
内線を引くルーチンである。このLQuicleは第2
3図に示している。
This Louide is the X, y coordinates of the specified point on the right screen (
S Rx1. This routine draws a guide line on the left screen based on S-111). This LQuicle is the second
It is shown in Figure 3.

前記54−8では、1movecur Oというサブル
ーチンを行う。このLmovecurは、左画面での点
指定を行うルーチンであり、その指定点のx、y座標を
、(S  Lxl、 5−Lyl)に得る。
In step 54-8, a subroutine called 1movecur O is performed. This Lmovecur is a routine that specifies a point on the left screen, and obtains the x and y coordinates of the specified point as (SLxl, 5-Lyl).

次に、54−9で、案内線は書いである否かを判断づる
。NOの場合はそのまま84−11へ進み、YESの場
合は84−10で、案内線を消した後、前記84−11
へ進む。1なわち、案内線が出ているときのみ消づ。
Next, in step 54-9, it is determined whether the guide line is drawn or not. If NO, proceed directly to 84-11; if YES, proceed to 84-10; after erasing the guide line, proceed to 84-11.
Proceed to. 1. In other words, it disappears only when the guide line is displayed.

前記54−11では、左画面において、点1カーソルを
(S  Lxl、 S  LVl)の位置に書く。
In step 54-11, the point 1 cursor is written at the position (S Lxl, S LVl) on the left screen.

次に、84−12で、左右各画面での指定点のx、y座
m<S  Rx1. S  RVl、 S 、Lxl、
 Sしyl)を引数として、3dpaintNというサ
ブルーチンを行い、終了する。この3dpOntは、左
右各画面での指定点を基に、2つの指定点に対応する計
測対象点(点1)の3次元座標の計算を行うルーチンで
あり、結果は、(SXi、 S  Yl、 S  21
) ニ帰すレル。コ(7) 3 d pOnt()は第
21図に示している。
Next, at 84-12, the x and y positions of the specified points on the left and right screens m<S Rx1. S RVl, S , Lxl,
A subroutine called 3dpaintN is executed with Syl) as an argument, and the process ends. This 3dpOnt is a routine that calculates the three-dimensional coordinates of the measurement target point (point 1) corresponding to the two specified points based on the specified points on the left and right screens, and the result is (SXi, S Yl, S21
) ni return rel. ko(7) 3 d pOnt() is shown in FIG.

このように、paintlでは、まず、右画面において
点1の指定を行い、これにより、必要ならば、左画面上
に案内線が表示され、この案内線上で左画面における点
1を指定する。この点1の指定により、点1の3次元座
標が計算される。尚、前記点1の3次元座標は、必要に
応じて、表示するようにしても良い。
In this way, in paintl, first, point 1 is specified on the right screen, and then, if necessary, a guide line is displayed on the left screen, and point 1 on the left screen is specified on this guide line. By specifying this point 1, the three-dimensional coordinates of point 1 are calculated. Note that the three-dimensional coordinates of the point 1 may be displayed as necessary.

また、このpointiでは、54−6で、案内線を出
すか出さないかを選択できるようになっている。これに
より、案内線が対象点を隠してしまい、対象点を指定し
ずらくするのを防止することができる。
Moreover, in this pointi, it is possible to select whether or not to put out a guide line at 54-6. This can prevent the guide line from hiding the target point and making it difficult to specify the target point.

次に、前記heiqhtOの説明の前に、第6図ないし
第9図を参照して、対象物の凹凸の高さまたは深さの求
め方の原理を説明する。
Next, before explaining heiqhtO, the principle of how to determine the height or depth of the unevenness of the object will be explained with reference to FIGS. 6 to 9.

第6図は、対象物の四部201を示している。FIG. 6 shows four parts 201 of the object.

本実施例では、前記凹部201の深さを求めるため、ま
ず、基準平面sqを、3つの計測対象点S。
In this embodiment, in order to obtain the depth of the recess 201, first, the reference plane sq is set to three measurement target points S.

el、e2によって特定する。次に、深さを求めたい計
測対象点m1を指定する。以上の4つの計測対象点の3
次元座標を用い、以下のような演算により、凹部201
の深さが求められる。
Specified by el and e2. Next, the measurement target point m1 whose depth is to be determined is specified. 3 of the above four measurement target points
Using the dimensional coordinates, the recess 201 is calculated by the following calculation.
depth is required.

3次元座標のX方向は、左右両対物レンズ系103R,
103mの中心を通る方向とし、2方向は内視鏡101
の先端面に垂直な方向とし、X方向はX方向と2方向の
いずれとも直交する方向とする。
In the X direction of the three-dimensional coordinates, both the left and right objective lens systems 103R,
The direction passing through the center of 103 m is the direction, and the two directions are the endoscope 101.
The direction is perpendicular to the tip surface of the X direction, and the X direction is perpendicular to the X direction and both of the two directions.

点s、e1.e2.m1の各3次元座標を、それぞれ、
(Xs、Ys、Zs)、(Xe1.Yel。
Points s, e1. e2. Each three-dimensional coordinate of m1 is
(Xs, Ys, Zs), (Xe1.Yel.

Zel)  、  (Xe2.  Ys2.  Zs2
)  、  (Xml、  Yml。
Zel), (Xe2. Ys2. Zs2
), (Xml, Yml.

Zllll)とする。また、点s、e1.e2を含む平
面をsqとし、点s、elを通る直線を01とし、点s
、e2を通る直線を92とする。
Zllll). Also, points s, e1. The plane containing e2 is sq, the straight line passing through points s and el is 01, and the point s
, e2 is assumed to be 92.

直線p1の方向ベクトルをJllとすると、−ン J) 1= (×e1−.XS、 Yel−Ys、 Z
el−Z s )・・・(1) となり、直線J12の方向ベクトルを、02とすると、
iV’i= <xe2−xs、 Ys2−Ys、 Zs
2−7s >・・・(2) となる。
If the direction vector of the straight line p1 is Jll, -NJ) 1= (×e1-.XS, Yel-Ys, Z
el-Z s )...(1), and if the direction vector of straight line J12 is 02,
iV'i= <xe2-xs, Ys2-Ys, Zs
2-7s>...(2).

ここで、直線fJ1と直線、G2とを含む平面sqに対
して、点m1から垂線を降ろし平面sqと交わる点を、
点J11とする。
Here, a perpendicular line is drawn from the point m1 to the plane sq including the straight line fJ1 and the straight line G2, and the point where it intersects with the plane sq is
Let it be point J11.

この点fJ1の3次元座標(Xρ1. Yj!1. Z
j!1)を、前記方向ベクトル、111.ρ2と、媒介
変数1−9Sを用いて表すと、次のようになる。
The three-dimensional coordinates of this point fJ1 (Xρ1.Yj!1.Z
j! 1) as the direction vector, 111. When expressed using ρ2 and the parameter 1-9S, it is as follows.

(Xj!+、 Yj!t、 Zj!+)=t−、l11
+5−92+ (Xs、Ys、Zs)・・・ (3) また、点m1から平面sqに降ろした垂線m1の方向ベ
クトルm1は、次のようになる。
(Xj!+, Yj!t, Zj!+)=t-, l11
+5-92+ (Xs, Ys, Zs)... (3) Also, the direction vector m1 of the perpendicular line m1 drawn from the point m1 to the plane sq is as follows.

−〉 ml−(Xml−XIll、 YIlll−Yll、 
Zml−Ztll)・・・  (!1.) ここで、jllとml、[2とmlは、それぞれ、直交
しているので、次の2式が成り立つ。
-> ml-(Xml-XIll, YIll-Yll,
Zml-Ztll)... (!1.) Here, since jll and ml and [2 and ml are orthogonal to each other, the following two equations hold true.

pl・ml−0・・・(5) Jl 2−ml =O−(6:) (5)式から導かれる関係式は、(1)、(2)(3)
、(4)式より、次のようになる。
pl・ml−0...(5) Jl 2−ml =O−(6:) The relational expressions derived from equation (5) are (1), (2), (3)
, from equation (4), we get the following.

((Xel−XS) 2 + (”y’e1−Ys) 
2.+ (ZeIZs)2 )t+ ((Xe1−Xs
)(Xe2−Xs)+ (Yel−Ys) (Ys2−
YS) +(Zel−Zs)’(Zs2−Zs))S = (Xe1=Xs )  (Xm1−Xs ) −1
−(Yel−Ys )(Y+++1−Ys)+ (Ze
l−Zs)(Zn+1−Zs)・・・(7) また、(6)式から導かれる関係式は、(1)。
((Xel-XS) 2 + ("y'e1-Ys)
2. + (ZeIZs)2 )t+ ((Xe1−Xs
)(Xe2-Xs)+ (Yel-Ys) (Ys2-
YS) +(Zel-Zs)'(Zs2-Zs))S = (Xe1=Xs) (Xm1-Xs) -1
-(Yel-Ys)(Y+++1-Ys)+ (Ze
l-Zs) (Zn+1-Zs) (7) Moreover, the relational expression derived from equation (6) is (1).

(2)、(3)、(4)式より、次のようになる。From equations (2), (3), and (4), it is as follows.

((Xe2−Xs )  (Xe1−Xs ) + (
Ys2−Ys )(Yel−、Ys) +(Zs2−Z
s) (Zel−Zs) )し−1−((Xe2−X 
s ) 2 +(Ys2−Ys ) 2 +(Zs2−
ZS)2  )S −(Xe2−Xs、)   (Xm1−Xs  )  
+  (Ys2−’y’s  )(Yn+1−Ys)+
 (Zs2−Zs)(Zml−Zs)・・・ (8) 上記(7)式におけるtの係数をkll、Sの係数をに
12、定数をk13と置(と、次のようになる。
((Xe2-Xs) (Xe1-Xs) + (
Ys2-Ys ) (Yel-, Ys) + (Zs2-Z
s) (Zel-Zs) )shi-1-((Xe2-X
s ) 2 + (Ys2-Ys) 2 + (Zs2-
ZS)2)S-(Xe2-Xs,) (Xm1-Xs)
+ (Ys2-'y's)(Yn+1-Ys)+
(Zs2-Zs) (Zml-Zs)... (8) In the above equation (7), the coefficient of t is set to kll, the coefficient of S is set to 12, and the constant is set to k13 (then, the following is obtained.

kllx t +’k12x s = k13    
 ’  −・(9)同様に、上記(8)式におけるtの
係数をに21、Sの係数をに22、定数をに23と置く
と、次のようになる。
kllx t +'k12x s = k13
' - (9) Similarly, if the coefficient of t in the above equation (8) is set to 21, the coefficient of S is set to 22, and the constant is set to 23, the following is obtained.

k21xt+に22xs=に23      −(10
)上記(9)、(10)式より、次の2式が成り立つ。
k21xt+ to 22xs=23 - (10
) From the above equations (9) and (10), the following two equations hold true.

以上より、点、111 (Xj!1. Ylt、 21
1)は、点S (X!3. Ys、zs> 、点e 1
(Xe1. Yel。
From the above, point, 111 (Xj!1. Ylt, 21
1) is the point S (X!3. Ys, zs> , point e 1
(Xe1. Yel.

Zel)、点e 2 (Xe2. Ys2. Zs2)
 、点m1(Xm1. Yml、’Zn+1)で表すこ
とができる。
Zel), point e 2 (Xe2. Ys2. Zs2)
, point m1 (Xm1.Yml, 'Zn+1).

ところで、本実施例では、前記点S (XS、 Ys’
、Zs)、点e 1: (X el、 Yei、Z e
l ) 、点e2 (Xe2. Ys2. Zs2) 
、点m l(Xm1. Yml。
By the way, in this embodiment, the point S (XS, Ys'
, Zs), point e 1: (X el, Yei, Z e
l ), point e2 (Xe2. Ys2. Zs2)
, point m l (Xm1. Yml.

zl)9点11 (Xj!1. Ylt1. Zl(7
)位置関係を、例えば第7図(a>に示づように表示す
るようにしているが、この表示を簡単にするために、前
記各点の座標系を、点Sを原点とづる極座標系に変換す
る。すなわち、第7図(a)に示すように、点e1を、
点Sから距11dselの点とし、点e2を、点Sから
距離dse2.直線seiに対する角度θe2の点とし
、点、01を、点Sから距離dS’J1.直線selに
対する角度θ11の点とし、点m1を、点J11から距
離dj!1mlの点として表す。
zl) 9 points 11 (Xj!1. Ylt1. Zl(7
) The positional relationships are displayed, for example, as shown in Figure 7 (a), but in order to simplify this display, the coordinate system of each point is changed to a polar coordinate system with point S as the origin. That is, as shown in FIG. 7(a), point e1 is converted into
Let the point be a point at a distance of 11 dsel from the point S, and set the point e2 at a distance from the point S by dse2. Let 01 be a point at an angle θe2 with respect to the straight line sei, and set the distance dS'J1.01 from the point S. Let the point m1 be at an angle θ11 with respect to the straight line sel, and the distance dj! from the point J11 to the point m1. Expressed as 1 ml points.

前記各距離は、各点の3次元座標から、次のように求め
られる。
Each distance is determined from the three-dimensional coordinates of each point as follows.

dsel= ((Xe1−Xs)2 + (Yel−Y
s)2+(Zel−Zs)2 )+72・(13)ds
e2= ((Xe2−Xs)2 + (Ys2−Ys)
2十(Zs2−Zs)2)1/2’   −(14)d
 5Rt= ((X*+−Xs > 2+ (Yzt=
Ys )2+ (Zll−ZS)2 )+/2    
  川(15)dj!1m1=((Xllll−Xj!
1)2 + (Yml−、Ylt1)2+ (Zml−
2j!l)2 )1ρ        −(16)上記
d111が、対象物の凹凸の高さまたは深さである。
dsel= ((Xe1-Xs)2 + (Yel-Y
s)2+(Zel-Zs)2)+72・(13)ds
e2= ((Xe2-Xs)2 + (Ys2-Ys)
20(Zs2-Zs)2)1/2'-(14)d
5Rt= ((X*+-Xs > 2+ (Yzt=
Ys )2+ (Zll-ZS)2 )+/2
River (15) dj! 1m1=((Xllll-Xj!
1)2 + (Yml-, Ylt1)2+ (Zml-
2j! l)2)1ρ-(16) The above d111 is the height or depth of the unevenness of the object.

次に、角度θIl+ 、θe2は、ベクトルの内積営・
甘−1首l 1’btI CO8θを用いて、次のよう
に求められる。
Next, the angles θIl+ and θe2 are the inner accumulation of the vector
It is determined as follows using Ama-1 Kubi l 1'btI CO8θ.

θl11 =cos−1((s、ll 1− sρ2)÷(ls、
l11買)l)) =cos−1[((Xe1−Xs)□1l−XS)+(
Yel−Ys)(Yll−Ys)+(Zel−Zs)(
Zj!1−ZS))÷((Xe1−XS)2+(Yel
Ys)2 + (Zel−Zs)2 )”÷((Xpl
xs ) 2−1− (Yll−Ys ) 2 +(,
111−zs )2)Lζ2 コ          
                         
  ・・・ (17)θe2 =cos−1((sel  −5e2)÷ (l  5
else2  l  )  ) =cos−1[((Xe1−Xs)(Xe2−Xs) 
+(Yel−Ys)(Ys2−’Ys)+ (Zel−
Zs)(Zs2−Zs)) ÷((Xe1−Xs)2+
(YelYS)2 +  (Zel−7s)2 )”÷
((Xe2xs ) 2 + (Ye2’−Ys) 2
−1− (Zs2−Zs) 2 )I/2]     
                ・・・(18)以上
のように求められた距離d sel、 d se2゜d
sj!1.dllml及び角度θI11 、θe2を用
いで、点S1点e1.点e29点mi、点、l11の位
置関係を、第7図(a)に示すように表示する。
θl11 = cos-1 ((s, ll 1- sρ2) ÷ (ls,
l11 buy) l)) =cos-1[((Xe1-Xs)□1l-XS)+(
Yel-Ys) (Yll-Ys) + (Zel-Zs) (
Zj! 1-ZS))÷((Xe1-XS)2+(Yel
Ys)2 + (Zel-Zs)2)”÷((Xpl
xs ) 2-1- (Yll-Ys ) 2 +(,
111-zs )2) Lζ2

... (17) θe2 = cos-1 ((sel -5e2) ÷ (l 5
else2 l ) ) = cos-1 [((Xe1-Xs)(Xe2-Xs)
+(Yel-Ys)(Ys2-'Ys)+(Zel-
Zs) (Zs2-Zs)) ÷ ((Xe1-Xs)2+
(YelYS)2 + (Zel-7s)2 )”÷
((Xe2xs) 2 + (Ye2'-Ys) 2
-1- (Zs2-Zs) 2)I/2]
...(18) Distance d sel, d se2゜d obtained as above
sj! 1. dllml and angles θI11 and θe2, point S1 point e1. The positional relationship between point e29, point mi, point l11 is displayed as shown in FIG. 7(a).

尚、第7図(b)に示すように、点S2点e1(または
点e2)2点m1.点f11を、同一平面に投影した状
態を表示しても良い。
Incidentally, as shown in FIG. 7(b), points S2, points e1 (or points e2), two points m1. The point f11 may be displayed projected onto the same plane.

このように本実施例では、3点の計測対象点S。In this way, in this embodiment, there are three measurement target points S.

el、e2を用いて基準平面sqを設定して、この基準
平面Sqに対する高ざまたは深さを求めるので、対象物
の凹凸が内視鏡101に対してどの方向を向いていても
、高さまたは深さを求めることができる。
Since the reference plane sq is set using el and e2 and the height or depth with respect to this reference plane Sq is determined, no matter which direction the unevenness of the object faces with respect to the endoscope 101, the height Or you can find the depth.

尚、高さまたは深さを求めたい計測対象点mの指定は、
複数個でも良く、第8図に示Jように、複数の点m1.
m2.・・・を指定することににす、対象物における複
数の点の高さまたは深さを求めることができる。この場
合、平面sqに対して点m2から垂線を降ろし平面sq
と交わる点を点刃2とし、この点、l12を、点Sから
距111dsj!2.直線Se1に対する角度θI12
の点とし、点m2を、点、Q2から距離dI12m2の
点として表す。
In addition, to specify the measurement target point m for which you want to find the height or depth,
A plurality of points may be used, and as shown in FIG. 8, a plurality of points m1.
m2. ... can be used to determine the height or depth of multiple points on an object. In this case, a perpendicular line is drawn from point m2 to plane sq, and plane sq
The point where it intersects is set as point edge 2, and this point, l12, is distanced from point S by 111dsj! 2. Angle θI12 with respect to straight line Se1
, and point m2 is expressed as a point at a distance dI12m2 from point Q2.

また、第9図に示すように、高さを求めたい計測対象点
mの指定は、平面sqよりも内視鏡101側に突出して
いる部分に対して行っても良い。
Further, as shown in FIG. 9, the measurement target point m whose height is to be determined may be specified for a portion that protrudes toward the endoscope 101 from the plane sq.

次に、以上の原理を用いて対象物の凹凸の高さまたは深
さを求めるhe i ght Oについて、第17図を
用いて説明する。
Next, using FIG. 17, a description will be given of he i ght O for determining the height or depth of the unevenness of the object using the above principle.

このルーチンが開始すると、まず、55−1で、高さ計
測はすでにされているか否かを判断し、NOの場合は、
そのまま55−4へ進み、YESの場合は、85−2.
85−3を行った後、55−4へ進む。前記55−2で
は、左右各画面において、点S2点el、点e29点m
1カーソルを消す。次に、55−3で、点S1点e1.
点e2゜点m1を無指定状態に戻り。
When this routine starts, first, in 55-1, it is determined whether the height measurement has already been performed, and if NO,
Proceed directly to 55-4, and if YES, proceed to 85-2.
After performing 85-3, proceed to 55-4. In the above 55-2, on each left and right screen, point S2 point el, point e29 point m
Delete 1 cursor. Next, at 55-3, point S1 point e1.
Point e2° Point m1 returns to unspecified state.

前記55−4では、po i nts Hというサブル
ーチンを行う。このpointsは、点Sを左右画面で
指定し、その3次元座標を得るルーチンテアリ、結果ハ
、(S  Xs、S  Ys、5−Zs)に帰される。
In step 55-4, a subroutine called points H is executed. These points are attributed to a routine that specifies the point S on the left and right screens and obtains its three-dimensional coordinates, resulting in (S Xs, S Ys, 5-Zs).

このpointsは、第18図に示している。These points are shown in FIG.

次に、55−5で、po i ntel ()というザ
ブルーチンを行う。このpointelは、点e1を左
右画面で指定し、その3次元座標を得るルーチンであり
、結果は、(S  Xe1. S  Yel。
Next, at 55-5, a subroutine called pointel() is executed. This pointel is a routine that specifies point e1 on the left and right screens and obtains its three-dimensional coordinates, and the result is (S Xe1. S Yel.

S  Zel)に帰される。S Zel).

次に、55−6で、po i nts2 ()というサ
ブルーチンを行う。このpo i nts2は、点e2
を左右画面で指定し、その3次元座標を得るルーチンで
あり、結果は、(S  Xe2. S  Ys2゜S 
 Xe2>に帰される。
Next, in 55-6, a subroutine called points2() is executed. This point 2 is the point e2
This is a routine that specifies on the left and right screens and obtains its three-dimensional coordinates, and the result is (S Xe2. S Ys2゜S
Xe2>.

このように、8.5−4ないし55−6では、高さまた
は深さを求める基準となる平面sqを設定覆るために、
3点s、e1.e2の3次元座標を求めている。
In this way, in 8.5-4 to 55-6, in order to set and cover the plane sq that is the reference for determining the height or depth,
3 points s, e1. The three-dimensional coordinates of e2 are being determined.

次に、S5−7r、po i ntml 0というサブ
ルーチンを行う。このpo in tmlは、点m1を
左右画面で指定し、その3次元座標を得るルーチンであ
り、結果は、(S  Xml、 S−Yml。
Next, a subroutine called S5-7r, pointml 0, is executed. This point tml is a routine that specifies the point m1 on the left and right screens and obtains its three-dimensional coordinates, and the result is (S Xml, S-Yml.

S−7II11)に帰される。S-7II11).

このように、55−7では、高さまたは深さを求めたい
点m1の3次元座標を求めている。
In this way, in step 55-7, the three-dimensional coordinates of the point m1 for which the height or depth is to be determined are determined.

次に、55−8で、(Xe1−Xs ) 2 + (Y
eIYS)、2 +(Zel−ZS)2を求め、kll
とする。
Next, in 55-8, (Xe1-Xs) 2 + (Y
eIYS), 2 + (Zel-ZS)2, and kll
shall be.

次に、55−9で、(Xe1=Xs)(Xe2−Xs)
   +   (Yel −Ys)    (¥e2−
Ys)   −)   (Z elzs>  (Xe2
−ZS)を求め、k12とする。
Next, in 55-9, (Xe1=Xs) (Xe2-Xs)
+ (Yel -Ys) (¥e2-
Ys) −) (Z elzs> (Xe2
−ZS) and set it as k12.

次に、85−.10F、(Xe1−Xs) (Xm1X
S)+ (Yel−YS、>(Yllll−YS)+ 
(Zel−Zs)(Zn+1−Zs)を求め、k13と
する。
Next, 85-. 10F, (Xe1-Xs) (Xm1X
S)+ (Yel-YS, >(Ylll-YS)+
(Zel-Zs) (Zn+1-Zs) is determined and set as k13.

このように、55−8ないしS 5710では、<7)
、(9)式に基づいて、媒介変数t、sを求めるための
定数を計算している。
Thus, for 55-8 to S 5710, <7)
, (9), constants for determining the parametric variables t and s are calculated.

次に、85−11で、(Xe2−XS) (Xel −
XS)+ (Ys2−Ys)(Yel−Ys)+ (2
62ZS)(Zel−Zs)を求め、k21とする。
Next, at 85-11, (Xe2-XS) (Xel −
XS)+ (Ys2-Ys)(Yel-Ys)+ (2
62ZS) (Zel-Zs) and set it as k21.

次に、35−12で、(Xe2−XS)2 + (、Y
s2−Ys)2 + (7e2−Zs)2を求め、k2
2とする。
Next, at 35-12, (Xe2-XS)2 + (, Y
s2-Ys)2 + (7e2-Zs)2, k2
Set it to 2.

次に、85−13で、(Xe2−Xs) (Xm1−X
S) +(Ys2−YS) (Yml−Ys) + (
Xe2−Zs)(Z+n1−Zs)を求め、k23とす
る。
Next, at 85-13, (Xe2-Xs) (Xm1-X
S) + (Ys2-YS) (Yml-Ys) + (
Xe2-Zs) (Z+n1-Zs) is determined and set as k23.

このように、85−11ないし85−13では、(8)
、(10)式に基づいて、媒介変数t、sを求めるため
の定数を計算している。
Thus, in 85-11 to 85-13, (8)
, (10), constants for determining the parametric variables t and s are calculated.

次に、85−14で、(k13x k22− k23x
 k12) / (k 11x k 2.2− k 2
1x k 12)を求め、tとする。すなわち、(12
)式に基づいて、媒介変数tを求めている。
Then, at 85-14, (k13x k22- k23x
k12) / (k11x k2.2- k2
1x k 12) and set it as t. That is, (12
) is used to determine the parameter t.

次に、85−15で、(k13x k21− k23x
 kll) / (k 21x k 12− k 11
x k 22)を求め、Sとする。すなわち、(11)
式に基づいて、媒介変数Sを求めている。
Then, at 85-15, (k13x k21- k23x
kll) / (k 21x k 12- k 11
x k 22) and set it as S. That is, (11)
The parameter S is determined based on the formula.

次に、85−16で、t (xel−xe) +5(X
e2−Xe)+Xsを求め、Xl11とづる。
Next, at 85-16, t (xel-xe) +5(X
Find e2-Xe)+Xs and write it as Xl11.

次に、85−17で、t (Yel−Ye) +5(Y
e2−Ye)+Ysを求め、Yflとする。
Next, at 85-17, t (Yel-Ye) +5(Y
e2-Ye)+Ys is determined and set as Yfl.

次に、85−18で、t (Zel−Ze) +5(Z
e2−Z、e)+ZSを求め、Z Atとする。
Next, at 85-18, t (Zel-Ze) +5(Z
Find e2-Z, e)+ZS and set it as Z At.

このように、S5−16ないしS’5−18では、(1
)、(2)、(3)式に基づいて、点m1より平面sq
に降ろした垂線と平面sqとの交点(点、01)の3次
元座標(XIlt、 Yj!1. Zll)を求めてい
る。
In this way, in S5-16 to S'5-18, (1
), (2), and (3), from the point m1 to the plane sq
The three-dimensional coordinates (XIlt, Yj!1.Zll) of the intersection (point, 01) of the perpendicular drawn to the plane sq and the plane sq are determined.

次に、85−19で、(17)式に基づいて、θ11を
求め、85−20で、(18)式に基づいて、θe2を
求める。
Next, in step 85-19, θ11 is determined based on equation (17), and in step 85-20, θe2 is determined based on equation (18).

次゛に、85−”21で、(13)式に基づいて、ds
elを求め、85−22で、(14)式に基づいて、d
se2を求め、85−23で、(15)式に基づいて、
dsj!1を求め、85−24で、(16)式に基づい
て、dβ1mlを求める。このcilimiが、対象物
の凹凸の高さまたは深さである。
Next, at 85-”21, based on equation (13), ds
Find el, and in 85-22, based on equation (14), d
Find se2, and in 85-23, based on equation (15),
dsj! 1, and in step 85-24, dβ1ml is determined based on equation (16). This cilimi is the height or depth of the unevenness of the object.

次に、85−25で、θj!i、θe2. dsel、
 dse2. d sll、 dj!1mlを用いて、
点S9点e1゜点e2.点m1.点fJ1の位置関係を
、第7図(a)または(b)に示すように表示し、終了
する。この表示用のモニタは、左右のモニタ130L、
130R,CRT127のいずれでも良い。
Next, at 85-25, θj! i, θe2. dsel,
dse2. d sll, dj! Using 1ml,
Point S9 point e1° point e2. Point m1. The positional relationship of point fJ1 is displayed as shown in FIG. 7(a) or (b), and the process ends. The monitors for this display are the left and right monitors 130L,
Either 130R or CRT127 may be used.

このhe i ghtが、第1図における高さ演算手段
175を実現する。
This he i gt realizes the height calculation means 175 in FIG.

また、このhe i ght中の85−4.85−5.
85−6.85−7が、それぞれ、第1図における対象
点位置記憶手段171,172,173.174を実覗
する共に、位置記憶先切換手段162を実現する。
Also, 85-4.85-5.
85-6, 85-7 respectively view the target point position storage means 171, 172, 173, and 174 in FIG. 1, and realize the position storage destination switching means 162.

次に、前記po + nts Hについて、第18図を
用いて説明する。
Next, the po + nts H will be explained using FIG. 18.

3に のルーチンが開始すると、まず、56−1で、Rmov
ecur ()というサブルーチンを行う。
When the routine in step 3 starts, first, in 56-1, Rmov
A subroutine called ecur() is executed.

このRmOveCurは、右画面での点指定を行うルー
チンであり、その指定点のX、y座標を、(S  Rx
s、 S−、Rys)に得る。このRmOVe!cur
は第22図に示している。
This RmOveCur is a routine that specifies a point on the right screen, and the X, y coordinates of the specified point are (S Rx
s, S-, Rys). This RmOVe! cur
is shown in FIG.

次に、56−2で、右画面においで、点Sカーソルを(
S  Rxs、 S  Rys)の位置に書く。
Next, at 56-2, on the right screen, move the point S cursor to (
Write in the position of S Rxs, S Rys).

次に、56−3で、1movecur Oというサブル
ーチンを行う。このLmovecurは、左画面での点
指定を行うルーチンであり、その指定点のx、y座標を
、(S  LXS、 S  14s)に得る。
Next, in 56-3, a subroutine called 1movecur O is performed. This Lmovecur is a routine that specifies a point on the left screen, and obtains the x and y coordinates of the specified point at (S LXS, S 14s).

次に、56−4で、左画面において、点Sカーソルを(
S  LxsyS  LVS)の位置に書く。
Next, at 56-4, on the left screen, move the point S cursor to (
SLxsyS LVS).

次に、56−5で、左右各画面での指定点のX。Next, at 56-5, mark the specified point X on each of the left and right screens.

y座標(S  RXS、 S  I’tvs、 S  
LXS、 S  1−ys)を引数として、3dpOi
 nt Nというサブルーチンを行う。この3dpo 
i ntば、左右各画面での指定点を基に、2つの指定
点に対応ずる計測対象点(点S)の3次元座標の計算を
行うルーチンテあり、結果は、(3Xs、 ’S  Y
s、 5Zs)に帰される。この3dpo i nt 
Nは第21図に示している。
y coordinate (S RXS, S I'tvs, S
LXS, S1-ys) as an argument, 3dpOi
A subroutine called nt N is executed. This 3dpo
If there is a routine that calculates the three-dimensional coordinates of the measurement target point (point S) corresponding to the two specified points based on the specified points on the left and right screens, the result is (3Xs, 'S Y
s, 5Zs). This 3dpoint
N is shown in FIG.

次に、86−6r、(S  Xs、 S  Ys、 S
  Zs)を親ルーチンへの戻り値として終了する。
Next, 86-6r, (S Xs, S Ys, S
Zs) as the return value to the parent routine.

尚、po i nteI N 、po i nts2 
N 。
In addition, po i nteI N, po i nts2
N.

po i ntml Nは、前記po i nts □
と略同様である。ただし、点Sに関する記述は、それぞ
れ、点e1.点e2.点m1の記述になる。
po i ntml N is the po i nts □
It is almost the same as. However, the description regarding point S is for point e1. Point e2. This is the description of point m1.

次に、Ioadpo + nt Nについて、第19図
を用いて説明する。
Next, Ioadpo + nt N will be explained using FIG. 19.

このルーチンが開始すると、まず、57−1で、点1の
指定点は記録されているか否かを判断する。
When this routine starts, first, in step 57-1, it is determined whether the specified point 1 has been recorded.

NOの場合は、終了する。YESの場合は、57−2で
、右画面での点1の指定点を対象点位置情報ファイル1
81から(S  R×1,5−RVl)へ復帰させる。
If NO, the process ends. If YES, in 57-2, the designated point of point 1 on the right screen is transferred to target point position information file 1.
81 to (SR×1,5-RVl).

次に、57−3で、左画面での点1の指定点を対象点位
置情報ファイル181から(S  LXI。
Next, in 57-3, the specified point 1 on the left screen is specified from the target point position information file 181 (S LXI.

S  LVI)へ復帰させる。S LVI).

次に、57−4で、右画面においで、点1カーソルを(
S  RXl、 S  R1/1)の位置に書ぎ、57
−5で、左画面において、点1カーソルを(SLxl、
 5−Lyl)の位置に古く。
Next, at 57-4, on the right screen, move the point 1 cursor to (
Write in the position of S RXl, S R1/1), 57
-5, on the left screen, move the point 1 cursor (SLxl,
5-Lyl) in position.

次に、57−6で、左右各画面での指定点のX。Next, in step 57-6, mark the specified point X on each of the left and right screens.

X座標(S  Rxl、S  RVl、S  Lxl、
S  Lyl)を引数としで、3dpo t nt N
というザブルーチンを行い終了する。前記3dpo +
 ntでは、2つの指定点に対応するKl測対象点(点
1)の3次元座標の計算を行い、結果は、(SX1゜S
  Yl、5−Zl)に帰される。
X coordinate (S Rxl, S RVl, S Lxl,
S Lyl) as an argument, 3dpo t nt N
This subroutine is performed and the process ends. Said 3dpo +
nt calculates the three-dimensional coordinates of the Kl measurement target point (point 1) corresponding to the two specified points, and the result is (SX1°S
Yl, 5-Zl).

次に、5avepo t nt Hについて、第20図
を用いて説明する。
Next, 5avepo t nt H will be explained using FIG. 20.

このルーチンが開始すると、まず、58−1で、点1は
指定されているか否かを判断づる。NOの場合は、終了
する。YESの場合は、58−2で、右画面での点1の
指定点(S  Rx1. S  RVl)を、対象点位
置情報ファイル181へ記録づる。
When this routine starts, it is first determined in step 58-1 whether point 1 has been designated. If NO, the process ends. If YES, the specified point (S Rx1.S RVl) of point 1 on the right screen is recorded in the target point position information file 181 in step 58-2.

次に、88−3で、左画面での点10指定点(S  L
xl、 S  Lyl)を、対象点位置情報ファイル1
81へ記録し、終了する。
Next, at 88-3, specify point 10 on the left screen (S L
xl, S Lyl) as the target point position information file 1
81 and exit.

次に、前記3dpo i nt Nの説明の前に、第1
0図及び第11図を参照して、計測対象点の3次元座標
の求め方の原理を説明する。
Next, before explaining the 3dpoint N, the first
The principle of how to obtain the three-dimensional coordinates of the point to be measured will be explained with reference to FIGS. 0 and 11.

右撮像素子上の指定点のxyX座標(CRX。The xyX coordinates (CRX) of the specified point on the right image sensor.

CRy)、左撮像素子上の指定点のxyX座標(CLX
、cLy)、計測対象点の3次元座標を(X、Y、Z)
とする。
CRy), xyX coordinates of the specified point on the left image sensor (CLX
, cLy), the three-dimensional coordinates of the measurement target point (X, Y, Z)
shall be.

まず、計測対象点の右眼中心3次元座標は、媒介変数t
を用いて、空間的な位置関係(相似)より、 x′−txcRx y−−txcRy Z′=txF と表される。尚、媒介変数tは、空間的な位置関係(相
似)より、 t=D/ (cLx−cR,x) となる。
First, the three-dimensional coordinates of the right eye center of the measurement target point are the parametric variable t
From the spatial positional relationship (similarity), it is expressed as x'-txcRx y--txcRy Z'=txF. Note that the parameter t becomes t=D/(cLx-cR,x) from the spatial positional relationship (similarity).

前記右眼中心3次元座標を、スコープ中心3次元座標に
変換すると、 X=X”+D/2=tXCRX+D/2Y=Y′   
 =txcRy Z=Z−−tXF となる。尚、前記スコープ中心3次元座標とは、左右の
結像手段の各中心の中間の点を原点とした3次元座標で
ある。
When the three-dimensional coordinates of the center of the right eye are converted to the three-dimensional coordinates of the center of the scope, X=X''+D/2=tXCRX+D/2Y=Y'
=txcRy Z=Z--tXF. The scope center three-dimensional coordinates are three-dimensional coordinates whose origin is a point midway between the centers of the left and right imaging means.

また、2つの計測対象点が指定されl〔場合、この2点
の3次元座標から2点間の距離が求められる。すなわち
、2点の3次元座標を(Xi 、 Yl、。
In addition, when two measurement target points are specified, the distance between the two points is determined from the three-dimensional coordinates of these two points. That is, the three-dimensional coordinates of two points are (Xi, Yl,.

Zt >、(X2.Y2.Z2 )とすると、2点間の
距@dは、次の式で与えられる。
When Zt >, (X2.Y2.Z2), the distance @d between two points is given by the following formula.

d= [(Xl−X’2 >2+ (Yt −Y2 )
2−1−(Zl−22) 21172 ところで、指定点は、左右各画面上の位置で指定される
ので、上記演算を行うためには、画面上の位置を撮像素
子上の位置に変換する必要がある。
d= [(Xl-X'2 >2+ (Yt-Y2)
2-1-(Zl-22) 21172 By the way, since the specified point is specified at a position on each of the left and right screens, in order to perform the above calculation, it is necessary to convert the position on the screen to a position on the image sensor. There is.

そこで、第11図を用いて、画面上の位置と撮像素子上
の位置との変換について説明づる。
Therefore, using FIG. 11, the conversion between the position on the screen and the position on the image sensor will be explained.

第11図(a)、(b)に示すように、左右各画面のx
yX座標原点を画面左上とすると共に、左右各画面にお
いて内視鏡像が表示される部分のX方向の画素数をR8
X、V方向の画素数をR8Yとし、左画面において内視
鏡像が表示される部分の最左端の画素のX座標をSXL
、最上端の画素のX座標をSYLとし、右画面において
内視鏡像が表示される部分の最左端の画素のX座標をS
XR,最上端の画素のX座標をSYRとする。
As shown in Fig. 11 (a) and (b),
Set the yX coordinate origin at the top left of the screen, and set the number of pixels in the X direction of the portion where the endoscopic image is displayed on the left and right screens as R8.
The number of pixels in the X and V directions is R8Y, and the X coordinate of the leftmost pixel of the part where the endoscopic image is displayed on the left screen is SXL.
, the X coordinate of the topmost pixel is SYL, and the X coordinate of the leftmost pixel of the part where the endoscopic image is displayed on the right screen is S.
XR, and the X coordinate of the topmost pixel is SYR.

また、第11図(c)、(d)に示すように、左右各撮
像素子のxyX座標原点を撮像素子の中心とすると共に
、各撮像素子のX方向の長さを5IZEX、V方向の長
さを5IZEYとする。
In addition, as shown in FIGS. 11(c) and (d), the xyX coordinate origin of each left and right image sensor is set as the center of the image sensor, and the length of each image sensor in the X direction is 5IZEX, and the length in the V direction is Let the value be 5IZEY.

また、左画面での指定点のxyX座標(LX。Also, the xyX coordinates (LX) of the specified point on the left screen.

lj/)、右画面での指定点のxyX座標(RX。lj/), xyX coordinates of the specified point on the right screen (RX.

Ry)、左撮像素子での指定点のxyX座標(CLX、
cLy)、右撮像素子での指定点のxyX座標(CRX
、cRy)とする。
Ry), xyX coordinates of the designated point on the left image sensor (CLX,
cLy), xyX coordinates of the specified point on the right image sensor (CRX
, cRy).

(l−x、Ly)と(CLX、CLV)の関係は、次の
式で表される。
The relationship between (l-x, Ly) and (CLX, CLV) is expressed by the following formula.

cLx−(Lx−(R8X/2+5XL))XS  I
  ZEX/R8X cLy−−1x  (Ly−(R8Y/2+5YL))
XSIZEY/R’SY 同様に、(Rx、Ry)と(cRX、cRy)の関係は
、次の式で表される。
cLx-(Lx-(R8X/2+5XL))XS I
ZEX/R8X cLy--1x (Ly-(R8Y/2+5YL))
XSIZEY/R'SY Similarly, the relationship between (Rx, Ry) and (cRX, cRy) is expressed by the following formula.

cRx= (Rx−(R8X/2+S’XR))XSI
ZEX/R8X cRy=−1x (Ry−(R8Y/2+5YR))X
SIZEY/R8Y 以上のような座標変換と、3次元座標の求め方の原理を
用いた前記3dpo i nt Oについて、第21図
を用いて、説明する。
cRx= (Rx-(R8X/2+S'XR))XSI
ZEX/R8X cRy=-1x (Ry-(R8Y/2+5YR))X
SIZEY/R8Y The above-mentioned coordinate transformation and the 3d point O using the principle of how to obtain three-dimensional coordinates will be explained using FIG. 21.

このルーチンでは、親ルーチン(pointlやpo 
: nts等)から引き渡された右画面の指定点のxy
座標(RX、RV)及び左画面の指定点のxy座標(L
x、Ly)を引数とする。
This routine uses parent routines (pointl, po
: xy of the specified point on the right screen passed from nts etc.)
Coordinates (RX, RV) and xy coordinates (L
x, Ly) as arguments.

このルーチンが開始覆ると、まず、59−1で、(Rx
−(R8X/2+5XR))’xs I ZEX/R8
Xを演算し、これを右指定点の撮像素子上のX座標cR
xとする。
When this routine starts, first, at 59-1, (Rx
-(R8X/2+5XR))'xs I ZEX/R8
Calculate
Let it be x.

次に、59−2で、−1X (RV−(R8Y/2+5
YR))XSIZEY/R8Yを演算し、これを右指定
点の撮像素子上のy座標CRYとする。
Next, at 59-2, -1X (RV-(R8Y/2+5
YR))XSIZEY/R8Y is calculated, and this is set as the y coordinate CRY on the image sensor of the right specified point.

次に、89−3で、(Lx−(R8X/2+5XL))
XS I ZEX/R8Xを演算し、これを左指定点の
撮像素子上のX座標cLxとする。
Next, at 89-3, (Lx-(R8X/2+5XL))
XS I ZEX/R8X is calculated, and this is set as the X coordinate cLx of the left specified point on the image sensor.

次に、59−4で、−1X (Ll/−(R8Y/2+
5YL))xs IZEY/R8Yを演韓し、これを左
指定点の撮像素子上のy座標CLyとする。
Next, at 59-4, -1X (Ll/-(R8Y/2+
5YL)) xs IZEY/R8Y is converted to the y-coordinate CLy of the left designated point on the image sensor.

すなわち、前記59−1ないし59−4では、前記変換
式に基づいて、画面上の位置を撮像素子上の位置に変換
している。
That is, in 59-1 to 59-4, a position on the screen is converted to a position on the image sensor based on the conversion formula.

次に、59−5で、CRX f=CL、 Xを判断する
Next, in 59-5, CRX f=CL, X is determined.

Noの場合、すなわち、cRx=cLxの場合は、計測
対象点が無限遠の場合であり、この場合は、終了する。
In the case of No, that is, in the case of cRx=cLx, the measurement target point is at an infinite distance, and in this case, the process ends.

一方、YESの場合は、59−6で、D/ (cox−
cRx)を演算し、媒介変数tとする。 次に、89−
7で、txcRx十D/2をXとし、txcRyをYと
し、tXFを7として、計測対象点の3次元座標を求め
る。
On the other hand, if YES, 59-6, D/ (cox-
cRx) is calculated and set as a parameter t. Next, 89-
In step 7, the three-dimensional coordinates of the point to be measured are determined by setting txcRx+D/2 to X, txcRy to Y, and tXF to 7.

次に89−8で、前記3次元座標(X、Y、’;l>を
親ルーチンへの戻り値として、終了する。
Next, in step 89-8, the three-dimensional coordinates (X, Y, ';l> are returned to the parent routine, and the process ends.

尚、この3dpoin’tが、第1図における対象点位
置算出手段161を実現する。
Note that this 3dpoint realizes the target point position calculation means 161 in FIG.

次に、第22図を用いて前記RmovecurOを説明
づる。
Next, the RmovecurO will be explained using FIG. 22.

このルーチンが開始すると、まず、810−1で、対象
画面を右画面に指定する。
When this routine starts, first, in 810-1, the target screen is designated as the right screen.

次に、810−2で、日動カーソルがあるか否か判断し
、Noの場合は、そのまま810−5へ進み、YESの
場合は、810−3及び5104を行った後、810−
5へ進む。前記5IO2でYESの場合は、810−3
で、日動カーソルを消し、次に、510−4で、新動カ
ーソルの位置を日動カーソルの位置に代入する。前記$
10、−5では、カーソル操作手段としてのマウス14
5の位置情報から、新動カーソルの位置を得る。
Next, in 810-2, it is determined whether or not there is a Nichido cursor, and if No, proceed directly to 810-5; if YES, after performing 810-3 and 5104, 810-
Proceed to step 5. If YES in 5IO2, 810-3
, the Nichido cursor is erased, and then, in 510-4, the position of the Nichido cursor is substituted for the Nichido cursor position. Said $
10, -5, the mouse 14 as a cursor operation means
The position of the new moving cursor is obtained from the position information in step 5.

次に、810−.6で、新動カーソルを書き込む。Next, 810-. 6, write a new cursor.

このように、810−2ないし810−6では、動カー
ソルに関し、消去、書き込みを行って、勤カーソルを移
動させている。
In this manner, in steps 810-2 to 810-6, the moving cursor is erased and written to move the moving cursor.

次に、810−7で、指定スイッチであるマウス145
のクリック1が入ったか否かを判断し、Noの場合は、
そのまま810−13へ進み、YESの場合は、次の8
10−8ないし310−12を行った後、810−13
へ進む。前記S1〇−7でYESの場合は、まず、81
0−8で、旧指定カーソルがあるか否かを判断し、No
の場合は、そのまま810−11へ進み、YESの場合
は、810−9及び510=10を行った後、510−
11へ進む。前記5IC)−8でYESの場合ハ、81
0−9で、旧指定カーンルを消し、次に、810−1o
で、新指定カーソルの位置を旧指定カーソルの位置に代
入する。前記810−11では、新動カーソルの位置を
新指定カーソルの位置へ代入する。次に、310−12
で、新指定カーソルを書き込む。
Next, at 810-7, the mouse 145, which is the designated switch,
Determine whether or not click 1 has been entered, and if No,
Proceed directly to 810-13, and if YES, proceed to the next 8
After performing 10-8 to 310-12, 810-13
Proceed to. If YES in S10-7, first, 81
0-8, determine whether there is an old specified cursor, and select No.
If YES, proceed to 810-11. If YES, proceed to 810-9 and 510=10, then proceed to 510-11.
Proceed to step 11. If YES in 5IC)-8 above, c, 81
0-9 erases the old designated Kanl, then 810-1o
Assigns the position of the new specified cursor to the position of the old specified cursor. In step 810-11, the position of the new moving cursor is assigned to the position of the newly specified cursor. Next, 310-12
Writes a new specified cursor.

このように、510=7ないし$−12では、クリック
1が入った場合に、動カーソルの位置を指定カーソルと
する。
In this way, when 510=7 to $-12, when click 1 is entered, the position of the moving cursor is set as the designated cursor.

次に、810−13で、新指定カーソルがあり、確定ス
イッチであるマウス145のクリック2がか入ったか否
かを判断し、NOの場合は、前記510−2へ戻り、Y
ESの場合は、5IO−14へ進む。前記810−’1
3でNoの場合に5102へ戻ることにより、点指定を
繰り返づことができるようになっている。前記810−
14では、新動カーソルを消し、次に、810−15で
新指定カーソルを消す。次に、810−16で、新指定
カーソルの位置をカーソルの確定位置どして、親ルーヂ
ンへの戻り値とし、終了する。すなわち、得たx、y座
標を親ルーヂン(pointlやpo 1 nts等〉
へ戻す。
Next, in 810-13, it is determined whether there is a newly specified cursor and click 2 of the mouse 145, which is a confirmation switch, has been made. If NO, the process returns to 510-2, and Y
In the case of ES, proceed to 5IO-14. Said 810-'1
If No in 3, the process returns to 5102 to allow point designation to be repeated. Said 810-
At step 14, the new moving cursor is deleted, and then at step 810-15, the newly specified cursor is deleted. Next, at 810-16, the position of the newly specified cursor is set as the fixed cursor position, and the return value is returned to the parent routine, and the process ends. In other words, the obtained x, y coordinates are used as parent routines (pointl, po 1 nts, etc.)
Return to.

このように、RmOVeCurで【よ、右画面での点指
定を行う。
In this way, use RmOVeCur to specify a point on the right screen.

尚、1−m0Vecurに)は、図示しないが、前記R
mO■ecurに)と基本的に同じものであり、右画面
ではなく左画面に対して処理を行うものである。
1-m0Vecur) is not shown, but the R
This is basically the same as (mO■ecur), and the processing is performed on the left screen instead of the right screen.

ここで、右画面における点の指定と左画面における点の
指定を、第1図及び第4図と関連づけて説明する。カー
ソル操作手段であるマウス145は、切換手段150を
実現するRmOVeCurによって、右画面用のカーソ
ル表示手段151R(これもRmovecurによって
実現される)に動作的に連結され、このとき初めて、右
画面に点指定のためのカーソルが表示される。右画面で
の点指定を確定すると、右画面から点指定のためのカー
ソルが消去される。次いで、前記マウス145は、前記
カーソル表示手段151Rとの連結が解除され、切換手
段150を実現するLmovecurによって、左画面
用のカーソル表示手段151L(これもLmove’c
u’rによ−)T実現される)に動作的に連結され、こ
のとき初めて、左画面に点指定のためのカーソルが表示
される。
Here, the designation of points on the right screen and the designation of points on the left screen will be explained in relation to FIGS. 1 and 4. The mouse 145, which is a cursor operation means, is operatively connected to the cursor display means 151R for the right screen (also realized by Rmovecur) by RmOVeCur, which implements the switching means 150, and only then points to the right screen. A cursor for specification is displayed. When the point designation on the right screen is confirmed, the cursor for point designation is deleted from the right screen. Next, the mouse 145 is disconnected from the cursor display means 151R, and Lmovecur, which implements the switching means 150, switches the mouse 145 to the left screen cursor display means 151L (also Lmovecur).
The cursor for specifying a point is displayed on the left screen for the first time.

左画面での点指定を確定すると、左画面から点指定のた
めのカーソルが消去される。
When the point designation on the left screen is confirmed, the cursor for point designation is deleted from the left screen.

第1図における切換手段150は、Rmovecurの
1ステツプ目の[対象画面を右画面に指定する。J  
(1−movecurも同様である。)が対応する。こ
の動作を、第4図で説明覆る。マウスインターフェース
125からのマウス位置情報ハ、CP’LJ121へ常
時取り込まれていて、前記ステップ[右画面に指定]に
にす、CPU121は、このマウス位置情報を右フレー
ムメモリインタフェース122Rを介して、右画像用フ
レームメモリ112Rに送り、カーソルを制御する。
The switching means 150 in FIG. 1 specifies the target screen as the right screen in the first step of Rmovecur. J
(The same applies to 1-movecur.) corresponds to this. This operation will be explained with reference to FIG. The mouse position information from the mouse interface 125 is always taken into the CP'LJ 121, and in the step [designate to the right screen], the CPU 121 transfers this mouse position information to the right frame memory interface 122R. The data is sent to the image frame memory 112R to control the cursor.

そして、右画像用フレームメモリ112Rで、力−ンル
が画像と重畳される。
Then, the image is superimposed on the image in the right image frame memory 112R.

Lmovecurにも同様に、1スデツプ目に、「対象
画面を左画面に指定する。」ステップがあり、このLm
ovecurに入ると、マウス145の位置情報は、左
フレームメモリインタフェース122Lへ送られる。
Similarly, Lmovecur has a step "Specify the target screen as the left screen" in the first step, and this Lm
Once in overcur, the position information of mouse 145 is sent to left frame memory interface 122L.

このように、1つのマウス145がCPU121のフロ
ーにより、右画面上でのカーソル移動を行わせたり、左
画面上でのカーソル移動を行わせたり、切り換えられる
。つまり、CPU1.21は、マウス145を右画像用
フレームメモリ112Rと左画像用フレームメモリ11
2Lとに選択的に動作的連結を行う機能を備えている。
In this way, one mouse 145 is switched between moving the cursor on the right screen and moving the cursor on the left screen according to the flow of the CPU 121. In other words, the CPU 1.21 moves the mouse 145 to the right image frame memory 112R and the left image frame memory 11R.
It has a function of selectively operatively connecting with 2L.

そして、この切換は、以下の条件で行われる。This switching is performed under the following conditions.

まず、Rmovecurの1ステツプ目で、マウス14
5は、右画面用フレームメモリ112Rに連結され、8
10−13の1新指定カーソルがあり、クリック2は入
ったか?」の判断ステップでクリック2を確認するまで
、810−2ないし810−13のループを回る。そし
て、クリック2が入ると、RmOVecUrを終了し、
点1カーソルを(S−Rx1. S  Ryl)の位置
に書き(paintlの場合)、l−guideを行っ
た後、(S、Lxl、S  Lyl)←Lmovecu
rを行う。そして、この1−m0Vecurの1スデツ
プ目で、マウス145は、左画像用フレームメモリ11
2Lに連結されることとなる。
First, in the first step of Rmovecur, click the mouse 14
5 is connected to the frame memory 112R for the right screen, and 8
10-13 1 There is a new specified cursor, did click 2 enter? The loop from 810-2 to 810-13 is repeated until click 2 is confirmed in the judgment step of ``. Then, when click 2 is entered, RmOVecUr is terminated,
Draw the point 1 cursor at the position of (S-Rx1. S Ryl) (in the case of paintl), perform l-guide, then (S, Lxl, S Lyl)←Lmovecu
Do r. Then, at the first step of this 1-m0 Vecur, the mouse 145 moves to the left image frame memory 11.
It will be connected to 2L.

このように、マウス145が動作的に連結される画像は
、クリック2が入ったことにより切り換えられる。
In this way, the image to which the mouse 145 is operatively connected is switched by click 2.

次に、前記Lgu i de □の説明の前に、第12
図を参照して、案内線の求め方の原理を説明する。尚、
案内線とは、一方の画面上で対象点を指定した場合、他
の画面上においてその対象点があるべき位置を示す線で
ある。
Next, before explaining the Lgui de □, the 12th
The principle of how to find guide lines will be explained with reference to the drawings. still,
A guide line is a line that, when a target point is specified on one screen, indicates the position where the target point should be on the other screen.

右撮像素子上の指定点のxy座標を(cRx。The xy coordinates of the specified point on the right image sensor are (cRx.

cRy)とすると、計測対象点の3次元座標は、空間的
な位置関係(相似)より、tを媒介変数として、右眼中
心3次元座標で表づと、 (txcRx、txcRy、txF) となる。ただし、Fは対物レンズ系の焦点距離である。
cRy), then the three-dimensional coordinates of the measurement target point are (txcRx, txcRy, txF) when expressed in three-dimensional coordinates centered on the right eye, with t as a parameter, based on the spatial positional relationship (similarity). . However, F is the focal length of the objective lens system.

また、右眼中心3次元座標とは、右結像手段の中心を原
点とした3次元座標である。また、3次元座標のX方向
は左右両結像手段の中心を通る方向とし、2方向は内視
鏡の先端面に乗口な方向とし、X方向はX方向とX方向
のいずれとも直交する方向とする。
Further, the right eye center three-dimensional coordinates are three-dimensional coordinates with the center of the right imaging means as the origin. In addition, the X direction of the three-dimensional coordinates is the direction passing through the center of both the left and right imaging means, the two directions are the directions that are perpendicular to the distal end surface of the endoscope, and the X direction is orthogonal to both the X direction and the X direction. direction.

前記計測対象点の3次元座標を、左眼中心3次元座標で
表すと、 (txcRx+D、txcRy、txF)となる。ただ
し、Dは視差である。
When the three-dimensional coordinates of the measurement target point are expressed as three-dimensional coordinates centered on the left eye, it becomes (txcRx+D, txcRy, txF). However, D is parallax.

この座標を、左眼像素子上のxy座標で表すためにtで
割ると、 (cRx+D/l、cRV) となる。左画面に表示される案内線の最左端は、計測対
象点が無限遠のときの位置なので、t→ωとすると、案
内線の最左端のX、y座標(clx。
When this coordinate is divided by t to express it as an xy coordinate on the left eye image element, it becomes (cRx+D/l, cRV). The leftmost end of the guide line displayed on the left screen is the position when the measurement target point is at infinity, so if t → ω, the X, y coordinates (clx) of the leftmost end of the guide line.

CLV)は、 (cLx、cLy)−(cRx、cRy)となる。また
、計測対象点が近づくにつれ、左眼像素子上でのX座標
は大きくなるが、y座標は変化しないので、案内線は、
前記(cLx、cLy)= (cRx、cRy)から、
左撮像素子の最右端までの、y座標が一定の直線となる
CLV) becomes (cLx, cLy) - (cRx, cRy). Also, as the measurement target point approaches, the X coordinate on the left eye image element increases, but the y coordinate does not change, so the guide line is
From the above (cLx, cLy) = (cRx, cRy),
The y coordinate becomes a constant straight line up to the rightmost end of the left image sensor.

尚、以上の説明は、内視鏡の対物レンズ系の持つ歪曲収
差を無視した場合であり、このように歪曲収差の補正を
行わない場合には、案内線の最左端は、撮像素子上のx
y座標ではなく、画面上のxy座標を用いて計算するこ
とができる。左画面の案内線の案内線の最左端のxy座
標は、右画面の指定点のxy座標に等しい。すなわら、
右画面上での指定点のxy座標を(RX、Ry)と(る
と、左画面上の案内線の最左端のxy座標(dl−x、
day)は、 (dLx、dLy)= (Rx、f?y)となる。
The above explanation is based on the case where distortion aberration of the objective lens system of the endoscope is ignored. If distortion aberration is not corrected in this way, the leftmost end of the guide line will be x
Calculations can be made using xy coordinates on the screen instead of y coordinates. The xy coordinates of the leftmost end of the guide line on the left screen are equal to the xy coordinates of the specified point on the right screen. In other words,
If the xy coordinates of the specified point on the right screen are (RX, Ry), then the xy coordinates of the leftmost point of the guide line on the left screen (dl-x,
day) becomes (dLx, dLy)=(Rx, f?y).

以上の原理を用いて案内線を引<Lgu 1dc(〉に
ついて、第23図を用いて説明する。
Drawing a guide line using the above principle <Lgu 1dc(>) will be explained using FIG. 23.

このルーチンでは、親ルーチン(paintl)から引
き渡された右画面の指定点のxy座標(dlx、day
)を引数とする。
This routine uses the xy coordinates (dlx, day) of the specified point on the right screen passed from the parent routine (paintl).
) as an argument.

このルーチンが開始づると、まず、811−1で、点(
dLx、day)を左画面に書ぎ込む。
When this routine starts, first, at 811-1, the point (
dLx, day) on the left screen.

次に、811−2で、dLxを1だけ増加づる。Next, in 811-2, dLx is increased by 1.

次に、811−3で、d L X≦(RS X −1−
S XL)を判断覆る。尚、第11図(a)に示すよう
に、前記R3Xは左画面において内視鏡像が表示される
部分のX方向の画素数、SXLは左画面において内視鏡
像が表示される部分の最左端の画素のX座標である。す
なわち、811−3では、dLxが最右端に達していな
いかを判断する。達しrいない(YES)IJIs、前
Na511−1に、戻が最右端に達した場合(No)は
、終了する。
Next, at 811-3, d L X≦(RS X −1−
S XL) is overturned. As shown in FIG. 11(a), R3X is the number of pixels in the X direction of the portion where the endoscopic image is displayed on the left screen, and SXL is the leftmost edge of the portion where the endoscopic image is displayed on the left screen. is the X coordinate of the pixel. That is, in 811-3, it is determined whether dLx has reached the rightmost end. If the IJIs have not been reached (YES), and the return has reached the rightmost end (No), the process ends.

このようにして、右画面での指定点と同じ座標の点から
画面の最右端まで案内線が引かれる。
In this way, a guide line is drawn from the point with the same coordinates as the specified point on the right screen to the rightmost edge of the screen.

尚、このl−guideが、第1図における案内線表示
手段177を実現づる。
Note that this l-guide realizes the guide line display means 177 in FIG.

以上説明したように、本実施例によれば、対象物におい
て、複数の計測対象点を特定覆ると、この複数の計測対
象点の3次元的な位置が演鼻され、この3次元的な位置
に基づいて、対象物の凹凸の高さまたは深さが演算され
るので、対象物の凹凸を客観的に認識できるという効果
がある。
As explained above, according to this embodiment, when a plurality of measurement target points are specified on an object, the three-dimensional positions of the plurality of measurement target points are displayed, and the three-dimensional positions of the plurality of measurement target points are displayed. Since the height or depth of the unevenness of the object is calculated based on this, there is an effect that the unevenness of the object can be recognized objectively.

尚、本実施例では、点1の指定の際にのみ、案内線を表
示するようにしているが、高さ計測のための点s、e1
.e2.m1の指定の際にも案内線を表示させるように
しでも良い。
In this embodiment, the guide line is displayed only when point 1 is specified, but points s and e1 for height measurement are displayed.
.. e2. A guide line may also be displayed when specifying m1.

また、高さ計測のための点s、e1.e2.m1の指定
位置も対象点位置情報用ファイル181に記録できるよ
うにしても良い。
Also, points s, e1. for height measurement. e2. The designated position of m1 may also be recorded in the target point position information file 181.

尚、本発明は、上記実施例に限定されず、例えば、各対
象点を示Jカーソルは、色で区別しても良いし、形状で
区別しても良い。
Note that the present invention is not limited to the above-mentioned embodiment, and for example, the J cursor indicating each target point may be distinguished by color or shape.

また、対象点の指定は、左右画面のどららが先でも良い
Further, the target point may be designated first by the gongs on the left and right screens.

また、撮像手段は、内?U鏡の挿入部先端部に複数段【
ノたものに限らず、挿入部内に、例えばファイババンド
ルよりなる複数の像伝達手段を殴り、この像伝達手段の
後端に、複数の撮像手段を設(プても良い。また、挿入
部の先端部に、1つの撮像手段とを設け、これを移動づ
ることにより、視差を有する複数の画像を撮像するJ:
うにしても良い。
Also, is the imaging means inside? Multiple stages at the tip of the U-mirror insertion section [
For example, a plurality of image transmission means made of fiber bundles may be inserted into the insertion section, and a plurality of imaging means may be provided at the rear end of the image transmission means. A single imaging device is provided at the tip, and by moving the imaging device, a plurality of images with parallax are captured.J:
You can do it as well.

また、左右各画像を1つのモニタの左右に、あるいは交
互に表示するようにしても良い。
Furthermore, the left and right images may be displayed on the left and right sides of one monitor, or alternately.

[発明の効果] 以上説明したように本発明によれば、指定された基準面
及び計測対象点の3次元的位置に基づいて、計測対象点
から基準面までの距離が演算されるので、対象物の凹凸
を客観的に認識できるという効果がある。
[Effects of the Invention] As explained above, according to the present invention, the distance from the measurement target point to the reference plane is calculated based on the specified reference plane and the three-dimensional position of the measurement target point. It has the effect of being able to objectively recognize the unevenness of objects.

【図面の簡単な説明】[Brief explanation of drawings]

第1図ないし第23図は本発明の一実施例に係り、第1
図は本実施例の概略の構成を示すブロック図、第2図は
内視鏡の挿入部先端部の説明図、第3図は計測用内視鏡
装置の構成を示すブロック図、第4図はホストコンピュ
ータの構成を示すブロック図、第5図は画像ファイルの
構成を示すブロック図、第6図は高さの求め方を示す原
理説明図、第7図(a)及び(b)は対象物における点
の位置表示を説明するための説明図、第8図は複数の点
の高さを求める場合の説明図、第9図は突出した部分の
高さを求める場合の説明図、第10図は3次元座標の求
め方を示す原g!説明図、第11図は画面上の位置と撮
像素子上の位置との変換を説明するための説明図、第1
2図は案内線の求め方を示す原理説明図、第13図ない
し第23図は本実施例の動作を説明するためのフローチ
ャートである。 101・・・スデレオ式ビデオイメージエンドスコープ O2・・・挿入部 04R,104L・・・撮像手段 10R,110L・・・ビデオプロセッサ12R,11
2m・・・フレームメモリ20・・・ホストコンピュー
タ 30R,130L・・・モニタ 40・・・画像ファイル 45−・・マウス    150・・・切換手段51R
,151L・・・カーソル表示手段61・・・対象点位
置記憶手段 62・・・位置記憶先切換手段 71〜174・・・対象点位置記憶手段75・・・高さ
演算手段 代理人 弁理士  伊 藤   進 第6図 (Xs、Ys、Zs) 第7図(。) 点m1 第7図 (b) 岳1m1 第16 第6図 第19図
Figures 1 to 23 relate to one embodiment of the present invention;
Figure 2 is a block diagram showing the general configuration of this embodiment, Figure 2 is an explanatory diagram of the distal end of the insertion section of the endoscope, Figure 3 is a block diagram showing the configuration of the measurement endoscope device, and Figure 4. is a block diagram showing the configuration of the host computer, Figure 5 is a block diagram showing the configuration of the image file, Figure 6 is an explanatory diagram showing the principle of how to calculate the height, and Figures 7 (a) and (b) are the target An explanatory diagram for explaining the position display of points on an object, Fig. 8 is an explanatory diagram for calculating the height of multiple points, Fig. 9 is an explanatory diagram for calculating the height of a protruding part, and Fig. 10 is an explanatory diagram for explaining the position display of points on an object. The figure shows how to find three-dimensional coordinates. An explanatory diagram, FIG. 11 is an explanatory diagram for explaining the conversion between the position on the screen and the position on the image sensor, the first
FIG. 2 is a principle explanatory diagram showing how to obtain a guide line, and FIGS. 13 to 23 are flowcharts for explaining the operation of this embodiment. 101...Sudereo type video image endoscope O2...Insertion section 04R, 104L...Imaging means 10R, 110L...Video processor 12R, 11
2m...Frame memory 20...Host computer 30R, 130L...Monitor 40...Image file 45-...Mouse 150...Switching means 51R
, 151L...Cursor display means 61...Target point position storage means 62...Position storage destination switching means 71-174...Target point position storage means 75...Height calculation means Agent Patent attorney Italy Susumu Fuji Figure 6 (Xs, Ys, Zs) Figure 7 (.) Point m1 Figure 7 (b) Mount 1 m1 Figure 16 Figure 6 Figure 19

Claims (1)

【特許請求の範囲】 内視鏡先端に対する計測対象点の位置を計測する計測用
内視鏡装置おいて、 前記計測対象点を指定する対象点指定手段と、前記計測
対象点の3次元的位置を演算する対象点位置演算手段と
、 内視鏡画面内で任意の平面を指定する基準面指定手段と
、 前記基準面指定手段により指定された基準面及び前記対
象点位置演算手段により演算された計測対象点の3次元
的位置に基づいて、前記計測対象点から前記基準面まで
の距離を演算する手段とを具備したことを特徴とする計
測用内視鏡装置。
[Scope of Claims] A measurement endoscope device that measures the position of a measurement target point with respect to the tip of an endoscope, comprising: target point designation means for specifying the measurement target point; and a three-dimensional position of the measurement target point. a reference plane specifying means for specifying an arbitrary plane within the endoscope screen; and a reference plane specified by the reference plane specifying means and a target point position calculating means for calculating the target point position. A measurement endoscope apparatus comprising means for calculating a distance from the measurement target point to the reference plane based on the three-dimensional position of the measurement target point.
JP1117863A 1989-05-10 1989-05-10 Measurement endoscope device Expired - Fee Related JP2778739B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1117863A JP2778739B2 (en) 1989-05-10 1989-05-10 Measurement endoscope device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1117863A JP2778739B2 (en) 1989-05-10 1989-05-10 Measurement endoscope device

Publications (2)

Publication Number Publication Date
JPH02296209A true JPH02296209A (en) 1990-12-06
JP2778739B2 JP2778739B2 (en) 1998-07-23

Family

ID=14722160

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1117863A Expired - Fee Related JP2778739B2 (en) 1989-05-10 1989-05-10 Measurement endoscope device

Country Status (1)

Country Link
JP (1) JP2778739B2 (en)

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002153415A (en) * 2000-11-21 2002-05-28 Olympus Optical Co Ltd Scale display device and method therefor
JP2010102113A (en) * 2008-10-23 2010-05-06 Olympus Corp Image processor, endoscope apparatus, endoscope system, and program
JP2011182977A (en) * 2010-03-09 2011-09-22 Olympus Corp Endoscope apparatus and program
US8834354B2 (en) 2000-04-03 2014-09-16 Intuitive Surgical Operations, Inc. Steerable endoscope and improved method of insertion
US8845524B2 (en) 2000-04-03 2014-09-30 Intuitive Surgical Operations, Inc. Steerable segmented endoscope and method of insertion
US9980778B2 (en) 2003-03-07 2018-05-29 Intuitive Surgical Operations, Inc. Instrument having radio frequency identification systems and methods for use
US10105036B2 (en) 2000-04-03 2018-10-23 Intuitive Surgical Operations, Inc. Connector device for a controllable instrument
US10327625B2 (en) 2000-04-03 2019-06-25 Intuitive Surgical Operations, Inc. Apparatus and methods for facilitating treatment of tissue via improved delivery of energy based and non-energy based modalities
US10349816B2 (en) 2002-01-09 2019-07-16 Intuitive Surgical Operations, Inc. Apparatus and method for endoscopic colectomy
US10426412B2 (en) 2006-05-19 2019-10-01 Intuitive Surgical Operations, Inc. Methods and apparatus for displaying three-dimensional orientation of a steerable distal tip of an endoscope
US10512392B2 (en) 2008-02-06 2019-12-24 Intuitive Surgical Operations, Inc. Segmented instrument having braking capabilities
US11096563B2 (en) 2005-11-22 2021-08-24 Intuitive Surgical Operations, Inc. Method of determining the shape of a bendable instrument

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4343341B2 (en) 1999-09-01 2009-10-14 オリンパス株式会社 Endoscope device

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10327625B2 (en) 2000-04-03 2019-06-25 Intuitive Surgical Operations, Inc. Apparatus and methods for facilitating treatment of tissue via improved delivery of energy based and non-energy based modalities
US11026564B2 (en) 2000-04-03 2021-06-08 Intuitive Surgical Operations, Inc. Apparatus and methods for facilitating treatment of tissue via improved delivery of energy based and non-energy based modalities
US8834354B2 (en) 2000-04-03 2014-09-16 Intuitive Surgical Operations, Inc. Steerable endoscope and improved method of insertion
US8845524B2 (en) 2000-04-03 2014-09-30 Intuitive Surgical Operations, Inc. Steerable segmented endoscope and method of insertion
US10105036B2 (en) 2000-04-03 2018-10-23 Intuitive Surgical Operations, Inc. Connector device for a controllable instrument
US10893794B2 (en) 2000-04-03 2021-01-19 Intuitive Surgical Operations, Inc. Steerable endoscope and improved method of insertion
US10736490B2 (en) 2000-04-03 2020-08-11 Intuitive Surgical Operations, Inc. Connector device for a controllable instrument
US9808140B2 (en) 2000-04-03 2017-11-07 Intuitive Surgical Operations, Inc. Steerable segmented endoscope and method of insertion
JP4659203B2 (en) * 2000-11-21 2011-03-30 オリンパス株式会社 Endoscope device for measurement and scale display method
JP2002153415A (en) * 2000-11-21 2002-05-28 Olympus Optical Co Ltd Scale display device and method therefor
US10349816B2 (en) 2002-01-09 2019-07-16 Intuitive Surgical Operations, Inc. Apparatus and method for endoscopic colectomy
US10959807B2 (en) 2003-03-07 2021-03-30 Intuitive Surgical Operations, Inc. Systems and methods for determining the state of motion of an instrument
US9980778B2 (en) 2003-03-07 2018-05-29 Intuitive Surgical Operations, Inc. Instrument having radio frequency identification systems and methods for use
US11096563B2 (en) 2005-11-22 2021-08-24 Intuitive Surgical Operations, Inc. Method of determining the shape of a bendable instrument
US10426412B2 (en) 2006-05-19 2019-10-01 Intuitive Surgical Operations, Inc. Methods and apparatus for displaying three-dimensional orientation of a steerable distal tip of an endoscope
US10512392B2 (en) 2008-02-06 2019-12-24 Intuitive Surgical Operations, Inc. Segmented instrument having braking capabilities
US10952594B2 (en) 2008-02-06 2021-03-23 Intuitive Surgical Operations, Inc. Segmented instrument having braking capabilities
JP2010102113A (en) * 2008-10-23 2010-05-06 Olympus Corp Image processor, endoscope apparatus, endoscope system, and program
US8913110B2 (en) 2010-03-09 2014-12-16 Olympus Corporation Endoscope apparatus and measurement method
JP2011182977A (en) * 2010-03-09 2011-09-22 Olympus Corp Endoscope apparatus and program

Also Published As

Publication number Publication date
JP2778739B2 (en) 1998-07-23

Similar Documents

Publication Publication Date Title
JPH02296209A (en) Endoscope device for measuring
US20210000546A1 (en) Methods and System for Performing 3-D Tool Tracking by Fusion of Sensor and/or Camera Derived Data During Minimally Invasive Robotic Surgery
US10930008B2 (en) Information processing apparatus, information processing method, and program for deriving a position orientation of an image pickup apparatus using features detected from an image
US20110235897A1 (en) Device and process for three-dimensional localization and pose estimation using stereo image, and computer-readable storage medium storing the program thereof
JP2021507393A (en) How to calibrate an augmented reality device
US7123214B2 (en) Information processing method and apparatus
Heller et al. A branch-and-bound algorithm for globally optimal hand-eye calibration
EP2795577B1 (en) Three dimension measurement method, three dimension measurement program and robot device
Cabras et al. An adaptive and fully automatic method for estimating the 3D position of bendable instruments using endoscopic images
JP4646384B2 (en) Endoscope device for measurement and scale display method
US20180098053A1 (en) Imaging device, endoscope apparatus, and imaging method
JP2014232100A (en) Optical detection of bending motions of flexible display
WO2018230099A1 (en) Endoscope system, and method for operating endoscope system
JPH06339454A (en) Measuring endoscope device
Milgram et al. Enhancement of 3-d video displays by means of superimposed stereo-graphics
US11941851B2 (en) Systems and methods for calibrating imaging and spatial orientation sensors
JPH02244021A (en) Endoscope device for measurement
JPH02216404A (en) Endoscope device for measurement
Andersson A low-latency 60 Hz stereo vision system for real-time visual control
ES2282048B2 (en) SPACE POSITIONING METHOD OF CYLINDRICAL OBJECTS THROUGH PICTURE ANALYSIS.
Skulimowski et al. Refinement of depth from stereo camera ego-motion parameters
JP2005186193A (en) Calibration method and three-dimensional position measuring method for robot
Boutteau et al. A 3D omnidirectional sensor for mobile robot applications
JP2798393B2 (en) Method and apparatus for estimating posture of object
EP3945987B1 (en) System and method for view restoration

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080508

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090508

Year of fee payment: 11

LAPS Cancellation because of no payment of annual fees