JPS6382577A - Variable density picture data forming method - Google Patents

Variable density picture data forming method

Info

Publication number
JPS6382577A
JPS6382577A JP61229071A JP22907186A JPS6382577A JP S6382577 A JPS6382577 A JP S6382577A JP 61229071 A JP61229071 A JP 61229071A JP 22907186 A JP22907186 A JP 22907186A JP S6382577 A JPS6382577 A JP S6382577A
Authority
JP
Japan
Prior art keywords
image data
light
grayscale image
data
brightness
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP61229071A
Other languages
Japanese (ja)
Inventor
Masami Ogata
昌美 緒形
Shigeo Komuro
小室 茂雄
Tetsuzo Kuragano
哲造 倉賀野
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP61229071A priority Critical patent/JPS6382577A/en
Publication of JPS6382577A publication Critical patent/JPS6382577A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PURPOSE:To measure a form without receiving an external light with a simple constitution by removing the influence of a surrounding light with an arithmetic processing. CONSTITUTION:When the illuminating rays of light sources 4A-4C are not illuminated to an object 3 to be observed, a first variable density picture data is obtained and when the illuminating rays of light of the light source 4A-4C irradiate the object 3 to be observed, a second variable density picture data is obtained. The second variable density picture data includes the brightness component of the illuminating rays of light of the light sources 4A-4C and the brightness component of the surrounding light and the first variable density picture data includes the brightness component of the surrounding light. An operation for obtaining the difference between the first and the second variable density picture data is executed and the operation result is obtained as the variable density picture data.

Description

【発明の詳細な説明】 以下の順序で本発明を説明する。[Detailed description of the invention] The present invention will be explained in the following order.

A産業上の利用分野 B発明の概要 C従来の技術 り発明が解決しようとする問題点 E問題点を解決するための手段(第1図、第11図及び
第12図) F作用(第1図、第11図及び第12図)G実施例 (G1)実施例の構成(第1図) (G2)リフレクタンスマツプの作成(第1図〜第6図
) (G3)被測定物体3Bの面素の傾き(第1図及び第2
図、第7図〜第9図) (G4)曲面の再構成(第1図及び第2図、第10図) (G5)周囲光の影響の除去(第11図及び第12図) (G6)他の実施例 I(発明の効果 A産業上の利用分野 本発明は濃淡画像データ作成方法に関し、例えば3次元
物体の外形形状情報をテレビジョンカメラから得られる
ラスクビデオ信号によって作成する場合に適用して好適
なものである。
A. Industrial field of application B. Outline of the invention C. Conventional technology Problems to be solved by the invention E. Means for solving the problems (Figs. 1, 11, and 12) F. Effects (Fig. 1) 11 and 12) G Example (G1) Structure of Example (Fig. 1) (G2) Creation of Reflectance Map (Figs. 1 to 6) (G3) Measurement Object 3B Slope of surface elements (Figs. 1 and 2)
Figures 7 to 9) (G4) Reconstruction of curved surfaces (Figures 1, 2, and 10) (G5) Removal of the influence of ambient light (Figures 11 and 12) (G6 )Other Embodiments I (Effects of the Invention A Industrial Field of Application) The present invention relates to a method for creating gray scale image data, and is applied, for example, to creating information on the external shape of a three-dimensional object using a rusk video signal obtained from a television camera. It is suitable for this purpose.

B発明の概要 本発明は、テレビジョンカメラによって観測対象の表面
の明るさ分布を表す濃淡画像データ出力を得るようにな
された濃淡画像データ作成方法において、光源の照明光
を照射しない状態における濃淡画像データを用いて演算
処理することにより、周囲光の影響を除去してなる濃淡
画像データ出力を得ることができる。
B. Summary of the Invention The present invention provides a method for creating grayscale image data in which a television camera outputs grayscale image data representing the brightness distribution on the surface of an observation target, in which a grayscale image is generated in a state where no illumination light from a light source is irradiated. By performing arithmetic processing using the data, it is possible to obtain gray scale image data output with the influence of ambient light removed.

C従来の技術 例えば3次元物体の外形形状情報を作成する形状測定装
置として、被測定物体の表面にプローブを当てて表面を
なぞって行くいわゆる接触型のものが用いられている。
C. Prior Art For example, as a shape measuring device for creating external shape information of a three-dimensional object, a so-called contact type device is used, in which a probe is applied to the surface of the object to be measured and the surface is traced.

ところが接触型の形状測定装置は、第1に、データの取
り込みにかなり時間がかかる問題がある。
However, the first problem with contact-type shape measuring devices is that it takes a considerable amount of time to capture data.

また第2に特に巨大な物体、例えば飛行機、船舶等の物
体の形状を計測するような場合や、微細加工物の検査等
のように特に微小な物体を計測するような場合には、実
際上接触型の形状測定装置を適用し得ない問題がある。
Secondly, when measuring the shape of particularly large objects such as airplanes and ships, or when measuring particularly minute objects such as inspecting microfabricated objects, it is difficult to There is a problem in which a contact type shape measuring device cannot be applied.

さらに第3に被測定物体が柔らかい物体である場合には
、プローブが接触した時表面が曲がったり、凹んだりす
るために正しい外形形状を計測できない場合がある。
Third, if the object to be measured is a soft object, the surface may be bent or depressed when the probe comes into contact with it, making it impossible to measure the correct external shape.

かかる問題点を解決するため、従来被測定物体の外形形
状を非接触的手法を用いて計測する方法として、両眼立
体視計測法、光を用いる距離センサによる計測法、単眼
視計測法等が考えられている。
In order to solve this problem, conventional methods for measuring the external shape of an object using non-contact methods include binocular stereoscopic measurement, measurement using a distance sensor using light, and monocular visual measurement. It is considered.

D発明が解決しようとする問題点 これら非接触的手法において、被測定物体の外形形状を
表す外形形状情報を得る方法として、テレビジョンカメ
ラによって得られるラスクビデオ信号から被測定物体の
外形形状を表すデータを作成するようにする方法が考え
られる。
D Problems to be Solved by the Invention In these non-contact methods, as a method of obtaining external shape information representing the external shape of the measured object, the external shape of the measured object is represented from a rusk video signal obtained by a television camera. One possible method is to create data.

この方法によると、被測定物体に対して光源の照明光を
照射したとき、周囲光が変化すれば、これに応じて被測
定物体の表面の明るさが変化し、これがラスクビデオ信
号に悪影響を与える結果になるおそれがある。
According to this method, when the object to be measured is irradiated with illumination light from a light source, if the ambient light changes, the brightness of the surface of the object to be measured changes accordingly, which has an adverse effect on the Rask video signal. This may result in giving.

本発明は以上の点を考慮してなされたもので、周囲光の
影響を容易に除去し得るようにした濃淡画像データ作成
方法を提案しようとするものである。
The present invention has been made in consideration of the above points, and it is an object of the present invention to propose a method for creating grayscale image data that can easily remove the influence of ambient light.

E問題点を解決するための手段 かかる問題点を解決するため、本発明においては、観測
対象3 (3A、3B)に光源4A〜4Cの照明光LS
を照射した状態において観測対象3(3A、3B)の表
面の明るさ分布を表す濃淡画像データ出力PCRSr’
coをテレビジョンカメラ5のビデオ信号VDを用いて
作成する濃淡画像データ作成方法において、観測対象3
 (3A、 3B)に対して光源4A〜4Cの照明光L
Sを照明しない状態において第1の濃淡画像データPC
RO1pcooを得ると共に、観測対象3 (3A。
E Means for solving problem
Grayscale image data output PCRSr' representing the brightness distribution on the surface of observation target 3 (3A, 3B) in the state where it is irradiated with
In the grayscale image data creation method of creating co using the video signal VD of the television camera 5, the observation target 3
Illumination light L from light sources 4A to 4C for (3A, 3B)
The first grayscale image data PC in a state where S is not illuminated
While obtaining RO1pcoo, observation target 3 (3A.

3B)に対して光源4A〜4Cの照明光LSを照射した
状態において第2の濃淡画像データPCRx、pcox
を得、第1及び第2の濃淡画像データPCRO1pco
o及びPCRXSPCOXの差を求める演算を実行し、
当該演算結果を濃淡画像データ出力PCRSPCOとし
て得るようにする。
3B) is irradiated with the illumination light LS of the light sources 4A to 4C, the second grayscale image data PCRx, pcox
and the first and second grayscale image data PCRO1pco
Perform an operation to find the difference between o and PCRXSPCOX,
The calculation result is obtained as the grayscale image data output PCRSPCO.

F作用 第2の濃淡画像データPCRX、PCOXは、光源4A
〜4Cの照明光LSの明るさ成分と、周囲光LGI及び
LG2の明るさ成分とを含んだ明るさデータで構成され
るのに対して、第1の濃淡画像データPCROSPes
oは、周囲光LG1、LG2に対応する明るさデータで
構成される。
The F action second gradation image data PCRX and PCOX are the light source 4A.
The first grayscale image data PCROSPes is composed of brightness data including the brightness component of the illumination light LS of ~4C and the brightness components of the ambient lights LGI and LG2.
o is composed of brightness data corresponding to the ambient lights LG1 and LG2.

従って第2の濃淡画像データPCRX、PCOXと、第
1の?農淡画像データPCRO,PCOOとの差を求め
る演算を実行すれば、当該演算結果として得られる濃淡
画像データ出力PCR,PCOは、周囲光LGI、LG
2の明るさ成分を台車ずに観測対象3(3A、3B)の
明るさ成分だけになる。
Therefore, the second grayscale image data PCRX, PCOX and the first ? If a calculation is performed to find the difference between the agricultural and light image data PCRO and PCOO, the gray and light image data outputs PCR and PCO obtained as the result of the calculation will be calculated based on the ambient light LGI and LG.
The brightness component of observation target 3 (3A, 3B) becomes only the brightness component of observation target 3 (3A, 3B) without adding the brightness component of 2.

かくして周囲光LGI及びLG2の影響を除去してなる
濃淡画像データ出力を作成することができ、かくするに
つき、周囲光LGI、LG2を光学的に遮光する必要が
ないので、濃淡画像データを作成するための構成を簡易
化し得る。
In this way, it is possible to create grayscale image data output by removing the influence of the ambient lights LGI and LG2, and because there is no need to optically block the ambient lights LGI and LG2, grayscale image data can be created. The configuration for this can be simplified.

G実施例 以下図面について、本発明を単眼視計測法の中の1つの
手法である照度差ステレオ法(Photometrtc
 5tereo法)を用いて被測定物体の外形形状を測
定し得るようにした形状測定装rに適用した場合の一実
施例を詳述する。
Embodiment The present invention will be described below with reference to the drawings.
An example in which the present invention is applied to a shape measuring device r capable of measuring the external shape of an object to be measured using the 5tereo method will be described in detail.

(G1)実施例の構成 第1図において、1は形状測定装置を示し、テーブル2
上に載置した観測対象3を、互いに異なる位置に配設さ
れた複数例えば3つの光源4A、4B、4Cによってそ
れぞれ照明する。
(G1) Configuration of Example In FIG. 1, 1 indicates a shape measuring device, and table 2
The observation object 3 placed thereon is illuminated by a plurality of light sources, for example, three light sources 4A, 4B, and 4C arranged at different positions.

光源4A、4B、4Cは、順次1つずつ点灯されること
により、観測対象3に対して異なる方向から照明光を照
射できるようになされ、かくして観測対象3の外表面上
に、その外形形状に応じて異なる陰影を生じさせるよう
になされている。
The light sources 4A, 4B, and 4C are sequentially turned on one by one, so that they can irradiate the observation object 3 with illumination light from different directions, and thus illuminate the outer surface of the observation object 3 according to its external shape. It is designed to produce different shades depending on the color.

観測対象3は1台のテレビジョンカメラ5によって撮像
され、そのう゛スタビデオ信号VDがアナログ/デジタ
ル変換回路6においてデジタルデータに変換された後フ
レームメモリ7に書き込まれる。
The observation object 3 is imaged by one television camera 5, and the video signal VD thereof is converted into digital data in an analog/digital conversion circuit 6 and then written into a frame memory 7.

以上の構成によって、観測対象3の外表面の外形形状情
報を、2次元的な明るさの分布(すなわち輝度分布)を
表す画像データとしてフレームメモリ7に書き込むよう
にしてなる形状情報発生部8が形成されている。
With the above configuration, the shape information generating section 8 writes the shape information of the outer surface of the observation object 3 into the frame memory 7 as image data representing a two-dimensional brightness distribution (i.e., brightness distribution). It is formed.

形状測定装置1は、例えばパーソナルコンピュータ、エ
ンジニアリングワークステーション、大型計算機などで
なる画像データ処理装置11を有し、そのバス12を通
じて、フレームメモリ7に書き込まれたビデオデータD
ATAを、形状情報発生部8の出力として画像データ処
理装置11に取り込み得るようになされている。
The shape measuring device 1 has an image data processing device 11 made up of, for example, a personal computer, an engineering workstation, a large computer, etc.
The ATA can be input into the image data processing device 11 as an output of the shape information generating section 8.

画像データ処理装置11は3次元データ作成部11A及
び曲面生成部11Bを有し、第2図に示す処理ステップ
を実行することによって、先ず3次元データ作成部11
Aにおいて取り込んだビデオデータDATAから観測対
象3の面素の傾きを表す3次元データを作成すると共に
、曲面生成部11Bにおいて当該3次元データに基づい
て観測対象3の表面形状を表す曲面を生成する。
The image data processing device 11 has a three-dimensional data generating section 11A and a curved surface generating section 11B, and by executing the processing steps shown in FIG.
Three-dimensional data representing the inclination of the surface elements of the observation object 3 is created from the video data DATA captured in A, and a curved surface representing the surface shape of the observation object 3 is generated based on the three-dimensional data in the curved surface generation section 11B. .

このようにして3次元データ作成部11Aにおいて作成
された3次元データ及び曲面生成部11Bにおいて生成
された曲面データは、バス12を介して例えばディスク
記憶装置でなる外部メモリ13に蓄積される。
The three-dimensional data thus created in the three-dimensional data creation section 11A and the curved surface data created in the curved surface creation section 11B are stored via the bus 12 in an external memory 13 made of, for example, a disk storage device.

また画像データ処理装置11は、外部メモリ13に格納
されているデータをバス12を介して読み出してグラフ
ィックディスプレイ14上に表示し得る。
The image data processing device 11 can also read data stored in the external memory 13 via the bus 12 and display it on the graphic display 14 .

さらに画像データ処理装置11は、外部メモリ13に蓄
積されたデータをバス12を介して読み出してNC工作
機械15に対する加工情報として供給し、これによりN
C工作機械15のツールを駆動することによって観測対
象3と同じ外形形状を有する製品を削り出すことができ
るようになされている。
Furthermore, the image data processing device 11 reads data accumulated in the external memory 13 via the bus 12 and supplies it as machining information to the NC machine tool 15.
By driving the tools of the C machine tool 15, a product having the same external shape as the observation object 3 can be cut out.

さらに第1図の実施例の場合、画像データ処理装置11
は、外部メモリ13に格納されているデータをバス12
を介して読み出してロボット装置15のロボット本体1
6に供給することにより、当該データをロボットの目と
して利用してロボット本体16の動きを制御することが
できるようになされている。
Furthermore, in the case of the embodiment shown in FIG. 1, the image data processing device 11
transfers data stored in external memory 13 to bus 12
The robot body 1 of the robot device 15 is read out via the
6, the movement of the robot body 16 can be controlled using the data as the eyes of the robot.

(G2)リフレクタンスマツプの作成 画像データ処理装置11の3次元データ作成部11Aは
、第2図のステップSPIにおいて外形形状が既知の基
準物体3Aについてリフレクタンスマツプ(反射率地図
)RMを作成すると共に、ステップSP2において被測
定物体3Bを観測して画像データを得ると共に、ステッ
プSP3において当該被測定物体の画像データと、リフ
レクタンスマツプから得られる傾きデータとに基づいて
面素の傾きを演算する。
(G2) Creation of reflectance map The three-dimensional data creation unit 11A of the image data processing device 11 creates a reflectance map (reflectance map) RM for the reference object 3A whose external shape is known in step SPI of FIG. At the same time, in step SP2, the object to be measured 3B is observed to obtain image data, and in step SP3, the slope of the surface element is calculated based on the image data of the object to be measured and the slope data obtained from the reflectance map. .

その後、画像データ処理装置11の曲面生成部11Bは
、第2図のステップSP4においてステップSP3の処
理によって得られた面素の傾きに基づいて被測定物体3
Bの外形形状を表す曲面を再構成する。
Thereafter, the curved surface generation unit 11B of the image data processing device 11 generates a curved surface of the object to be measured based on the slope of the surface element obtained by the process of step SP3 in step SP4 of FIG.
A curved surface representing the external shape of B is reconstructed.

まず、3次元データ作成部llAは、第2図のステップ
SPIにおいて、第3図に示すような処理手順に従って
、リフレクタンスマツプRMを作成する。
First, in step SPI of FIG. 2, the three-dimensional data creation unit LLA creates a reflectance map RM according to the processing procedure shown in FIG. 3.

すなわち第1図のテーブル2上の観測対象3として外形
形状が既知であり、かつ面素SSとじてあらゆる方向の
傾きを有する曲面(例えば半球面)を有する基準物体3
Aについて、第1の光源4A、第2の光源4B、第3の
光源4Cを順次点灯させた状態で、テレビジョンカメラ
5によってラスクビデオ信号VDを得る。
That is, a reference object 3 whose external shape is known as the observation object 3 on the table 2 in FIG.
Regarding A, a rusk video signal VD is obtained by the television camera 5 with the first light source 4A, second light source 4B, and third light source 4C turned on in sequence.

このとき得られるラスクビデオ信号VDの内容は、光源
4A、4B、4Cの照明方向に応じて、基準物体3Aの
外表面上の各点の明るさに対応する2次元的な濃淡画像
PCRを表している。
The content of the rask video signal VD obtained at this time represents a two-dimensional grayscale image PCR corresponding to the brightness of each point on the outer surface of the reference object 3A, depending on the illumination direction of the light sources 4A, 4B, and 4C. ing.

すなわち、テレビジョンカメラ5を、半球面をもつ基準
物体3Aの中心を通るz軸上の上方位置に設定すると、
濃淡画像PCRには、基準物体3Aを平面図として見た
と同様の円形形状に対して、基準物体3A上の面素SS
の明るさを濃淡模様として表した画像をxy直交座標上
に描いてなる2次元的濃淡画像PCRが得られる。この
濃淡画像PCRのxy座標上の各点(Xt 、)’J 
)の明るさは、基準物体3のテレビジョンカメラ5の方
向(すなわち観測方向)から見た面素Ssの傾きと、光
源4A、又は4B、又は4Cからの照明光の向きとによ
って決まる輝度になる。
That is, when the television camera 5 is set at an upper position on the z-axis passing through the center of the hemispherical reference object 3A,
The grayscale image PCR includes surface elements SS on the reference object 3A for a circular shape similar to that seen in a plan view of the reference object 3A.
A two-dimensional grayscale image PCR is obtained by drawing an image representing the brightness of the image as a grayscale pattern on xy orthogonal coordinates. Each point (Xt,)'J on the xy coordinates of this grayscale image PCR
) is determined by the inclination of the surface element Ss of the reference object 3 viewed from the direction of the television camera 5 (that is, the observation direction) and the direction of the illumination light from the light source 4A, 4B, or 4C. Become.

半球面の外形形状を有する基準物体3Aの表面は、xy
座標上の各点(xi、yJ)における2方向の高さとし
て z=f(Xt 、’It )       ・・・・・
・(1)のように基準物体3Aの外形形状を表す方程式
f(xi、yj)によって表現し得る。
The surface of the reference object 3A having a hemispherical external shape is xy
As the height in two directions at each point (xi, yJ) on the coordinates, z=f(Xt,'It)...
- It can be expressed by the equation f(xi, yj) representing the external shape of the reference object 3A as shown in (1).

また基準物体3Aのxy座標上の点 (xi、yj)に
ある面素SSの法線ベクトルnは、・・・・・・(2) のように表すことができる。
Further, the normal vector n of the surface element SS at the point (xi, yj) on the xy coordinates of the reference object 3A can be expressed as follows (2).

因に、(2)式においCaf/axは、第4図に示すよ
うに、面素SS(その中心が点(X!、yj)にある)
のX方向の傾きを示し、またaf/ayは面素SSのX
方向の傾きを示す。そして法線ベクトルnは、xy平面
上の点(xi、yj)から見たX方向の傾きを表すベク
トルaと、X方向の傾きを表すベクトルbとの外積を求
めることによって、(2)式のように表すことができる
Incidentally, in equation (2), Caf/ax is the surface element SS (its center is at the point (X!, yj)), as shown in Figure 4.
, and af/ay is the slope of the surface element SS in the X direction.
Indicates the inclination of the direction. The normal vector n is obtained by calculating the cross product of the vector a representing the inclination in the X direction and the vector b representing the inclination in the X direction as seen from the point (xi, yj) on the It can be expressed as

リフレクタンスマツプRMは、第5図に示すように、こ
の面素SSの傾きa f / a x及びar7ayを
変数とするpq直交座標系によって表現される。
As shown in FIG. 5, the reflectance map RM is expressed by a pq orthogonal coordinate system in which variables are the slope a f /ax and ar7ay of this surface element SS.

すなわちX方向の傾きp及びX方向の傾きqをそれぞれ のように表せば、面素SSのX方向の傾きp及びX方向
の傾きqで表されるpq直交座標系における任意の点の
座標(p、q)によって、基準物体3A上の面素SSの
全ての方向の傾きを表すことができる。そしてこの傾き
p及びqは、xy平面上の点(x+ 、y j)におけ
る法線ベクトルnの方向に対応している。さらにこの法
線ベクトルnは、テレビジョンカメラ5から見たときの
面素SSの明るさに対応しているので、結局リフレクタ
ンスマツプRMを表すpq直交座標上の点(p、q)の
位置は、ラスクビデオ信号VDが表す2次元的な濃淡画
像PCRを構成する面素SSの明るさを表しているもの
である。
That is, if the slope p in the X direction and the slope q in the X direction are respectively expressed as p, q) can represent the inclination of the surface element SS on the reference object 3A in all directions. The slopes p and q correspond to the direction of the normal vector n at the point (x+, yj) on the xy plane. Furthermore, since this normal vector n corresponds to the brightness of the surface element SS when viewed from the television camera 5, the position of the point (p, q) on the pq orthogonal coordinates representing the reflectance map RM is represents the brightness of the surface element SS constituting the two-dimensional grayscale image PCR represented by the rask video signal VD.

そこでpq直交座標上に、輝度Iが等しい点を結んで、
これを次式 %式%(5) のように傾きp及びqの関数R(p、q)で表される等
輝度線として表示すれば、結局当該等輝度線によって濃
淡画像PCR(第3図)上の濃淡模様(従って基準物体
3Aの表面の面素SSの傾き分布)を、リフレクタンス
マツプRMの等輝度線によって表すことができることに
なる。
Therefore, on the pq orthogonal coordinates, connect points with equal brightness I,
If this is expressed as an isobrightness line expressed by a function R (p, q) with slopes p and q as shown in the following equation (5), the density image PCR (Fig. ) (therefore, the slope distribution of the surface elements SS on the surface of the reference object 3A) can be represented by the isobrightness lines of the reflectance map RM.

ここでリフレクタンスマツプRM上に現れる等輝度線の
模様は、面素SSの明るさの分布に対応するが、当該面
素SSの明るさはその傾き以外にも、面素を構成する表
面の反射の性質(すなわち拡散反射成分及び鏡面反射成
分の割合)などの影響をも含んだ値になる。従って一般
的には、面素SSの明るさから面素SSの傾きを求める
ためには、表面の反射の性質等を予め知っておき、これ
を補正する必要があり、実際上かかる構成は極めて困難
である。
Here, the pattern of isoluminance lines appearing on the reflectance map RM corresponds to the brightness distribution of the surface element SS, but the brightness of the surface element SS is determined not only by its slope but also by the distribution of the surface elements constituting the surface element. It is a value that also includes the influence of the nature of reflection (that is, the proportion of diffuse reflection components and specular reflection components). Therefore, in general, in order to obtain the slope of the surface element SS from the brightness of the surface element SS, it is necessary to know the reflection properties of the surface in advance and to correct this. In practice, such a configuration is extremely difficult. Have difficulty.

ところがこの問題は、基準物体3Aとして、その表面の
反射の性質等が被測定物体3Bと同一になるような物質
のものを予め選定しておけば、これらの要素は、リフレ
クタンスマツプRMに含ませたままその補正処理をしな
(とも、実用上当該表面の反射の性質等の影響を受けず
に正しい傾きを求めることができる。この実施例の場合
基準物体3Aとして、かかる条件を満足させるような物
体が選定されている。
However, this problem can be solved by selecting a material whose surface reflection properties are the same as those of the measured object 3B as the reference object 3A, so that these elements can be included in the reflectance map RM. In practice, it is possible to obtain the correct inclination without being affected by the reflective properties of the surface.In this example, the reference object 3A is used as the reference object 3A, and the correction process is performed on the object that satisfies this condition. Objects like this have been selected.

このようにして3次元データ作成部11Aは、(5)式
によって表される多数の等輝度線によって形成されたリ
フレクタンスマツプRM(RMI、RM2、RM3)を
得るようなデータの処理を、第1、第2、第3の光源4
A、4B、4Cの照明状態の下にそれぞれについて演算
処理し、かくして第6図(A)、(B)、(C)に示す
ように、R+(p、q)=1        ・・・・
・・(6)Rz(p−q)=r        ・・・
・・・(7)R:1(1)、 q) = 1     
   ・・・・・・(8)で表されるリフレクタンスマ
ツプRMI、RM2、RM3のデータを取り込んで外部
メモリ13に格納して行く。
In this way, the three-dimensional data creation unit 11A processes the data to obtain the reflectance map RM (RMI, RM2, RM3) formed by a large number of isobrightness lines expressed by equation (5). 1, second, third light source 4
Arithmetic processing is performed for each under the illumination conditions A, 4B, and 4C, and thus, as shown in FIGS. 6(A), (B), and (C), R+(p, q) = 1...
... (6) Rz (p-q) = r ...
...(7)R:1(1), q) = 1
. . . The data of the reflectance maps RMI, RM2, and RM3 represented by (8) are taken in and stored in the external memory 13.

(G3)被測定物体3Bの面素の傾き 3次元データ作成部11Aは、第2図のステップSP2
において被測定物体3Bを観測する。
(G3) Inclination of surface elements of object to be measured 3B The three-dimensional data creation unit 11A performs step SP2 in FIG.
The object to be measured 3B is observed at.

その際オペレータは、第7図に示すように、テーブル2
上に観測対象3として例えばダルマ形状の被測定物体3
Bを載置し、第3図について上述した3つの光源4A、
4B、40による照明条件を変更せずに、順次これらの
光源4A、4B、4Cによって被測定物体3Bを順次照
明して行く。
At that time, the operator should move the table 2 as shown in FIG.
For example, a Darma-shaped object to be measured 3 is shown as an observation object 3 on the top.
B and the three light sources 4A described above with respect to FIG.
The object to be measured 3B is sequentially illuminated by the light sources 4A, 4B, and 4C without changing the illumination conditions by the light sources 4B and 40.

かくして得られる3枚の濃淡画像PCO(PCOl、P
CO2、PCO3)について、3次元データ作成部11
Aは全ての点 (xl、yj)における明るさを表す輝
度データを取り込んで外部メモリ13に格納する。
The three gray scale images PCO (PCOl,P
Regarding CO2, PCO3), the three-dimensional data creation unit 11
A takes in luminance data representing the brightness at all points (xl, yj) and stores it in the external memory 13.

ここで、テレビジョンカメラ5によって2軸の上方から
被測定物体3Bを撮像して得られる濃淡画像PCOI、
PCO2、PCO3は、それぞれ第8図(A)、(B)
、(C)に示すように、光源4A、4B、4Cの照射方
向が異なることにより、互いに陰影の位置が異なる映像
になる。この陰影に対応する画像データでなるビデオデ
ータDATAが3次元データ作成部11Aに取り込まれ
て行く。
Here, a grayscale image PCOI obtained by imaging the object to be measured 3B from above on two axes by the television camera 5,
PCO2 and PCO3 are shown in Figure 8 (A) and (B), respectively.
, (C), the different irradiation directions of the light sources 4A, 4B, and 4C result in images with different shadow positions. Video data DATA consisting of image data corresponding to this shadow is taken into the three-dimensional data creation section 11A.

かくして3次元データ作成部11Aは、被測定物体3B
の観測を終了し、第2図のステップSP3において、濃
淡画像PCO(PCOI、pc。
In this way, the three-dimensional data creation section 11A creates the object to be measured 3B.
After completing the observation, in step SP3 of FIG. 2, a grayscale image PCO (PCOI, pc.

2、PCO3)のxy座標上の各点(Xi 、yj)(
i=・・・・・・i−1、i、t+1・・・・・・、j
=・・・・・・j−1,Lj+1・・・・・・)を順次
指定して当該指定された点(xl、yj)における濃淡
画像PCO1、PCO2、PCO3上の明るさ!、、1
.、■、を求め、当該明るさI1、I2、I3と同じ明
るさを有する等輝度線1  (=I+ S Is 、I
3)(第6図)のデータを、外部メモリ13に格納され
ているリフレクタンスマツプRM (RMI、RM2、
RM3)から抽出する。
Each point (Xi, yj) (
i=...i-1, i, t+1..., j
=... j-1, Lj+1......) and the brightness on the grayscale images PCO1, PCO2, PCO3 at the specified point (xl, yj)! ,,1
.. , ■, and find the isobrightness line 1 having the same brightness as the brightnesses I1, I2, and I3 (=I+ S Is , I
3) The data in (Fig. 6) is converted into reflectance map RM (RMI, RM2,
RM3).

かくして抽出された明るさII 、It、I3の等輝度
線は、次式 %式%(9) のように、それぞれ関数R+(p、q) 、Rz(p−
q) 、R3(1)、q)の方程式によって表される。
The isobrightness lines of brightness II, It, and I3 thus extracted are expressed by the functions R+(p, q) and Rz(p-), respectively, as shown in the following equation (9).
q) , R3(1), expressed by the equation q).

そこで3次元データ作成部11Aは(9)〜(11)式
の連立方程式を解くことにより、3本の等輝度線1. 
、It、I3の交点(p、q)をリフレクタンスマツプ
RMI、RM2、RM3を重ね合わせる処理をすること
により求める。
Therefore, the three-dimensional data creation unit 11A solves the simultaneous equations (9) to (11) to create three isoluminance lines 1.
, It, and I3 are obtained by superimposing the reflectance maps RMI, RM2, and RM3.

かくして第1、第2、第3の光源4A、4B、4Cを照
射した時のxyy標上の点(x!、yj)の明るさII
、II、13に基づいて、これら3つの撮影条件を同時
に満足する傾き(p、q>を、リフレクタンスマツプR
M(RMI、RM2、RM3)を用いて、一意的に決定
することができる。
Thus, the brightness II of the point (x!, yj) on the xyy altitude when irradiated with the first, second, and third light sources 4A, 4B, and 4C
Based on
It can be uniquely determined using M(RMI, RM2, RM3).

因にかかる演算処理は、先ず第1の光源4Aによって基
準物体3A及び被測定物体3Bを照射することによって
得られるリフレクタンスマツプRMl(第9図(A))
上の等輝度線1.に対して、第9図(B)に示すように
、第2の光源4Bによって照射されることによって得ら
れるリフレクタンスマツプRM2の等輝度線I2を重ね
合わせることによって互いに交差する2つの傾きの点l
NC11及びINC,□を求める。続いて第9図(C)
に示すように、第3の光源4Cによって照射されること
によって得られるリフレクタンスマツプRM3の等輝度
HIsを重ね合わせることにより、一方の交点lNCl
+だけを一意的に点 (Xl、yj)の位置における面
素の傾きSSであると決定することができる。
In this calculation process, first, the reflectance map RMl (FIG. 9(A)) obtained by irradiating the reference object 3A and the measured object 3B with the first light source 4A is calculated.
Upper isobrightness line 1. On the other hand, as shown in FIG. 9(B), two points of inclination that intersect with each other are obtained by overlapping the isobrightness lines I2 of the reflectance map RM2 obtained by irradiation with the second light source 4B. l
Find NC11 and INC, □. Next, Figure 9 (C)
As shown in FIG.
Only + can be uniquely determined to be the slope SS of the surface element at the position of the point (Xl, yj).

このようにして3次元データ作成部11Aは、xyy標
上の点(xz 、)’j)における面素SSの傾きを一
意的に求めることができ、以下同様にしてxy座座上上
全ての点について同様の演算を実行することにより、被
測定物体3Bでなる観測対象3をテレビジョンカメラ5
によって撮像して2次元濃淡画像PCO(PCOI、P
CO2、PCO3)を得ることによって、被観測対象3
の映像を構成する全ての面素SSについてその傾きを2
次元濃淡画像から求めることができる。
In this way, the three-dimensional data creation unit 11A can uniquely find the slope of the surface element SS at the point (xz,)'j) on the xyy coordinate, and in the same way, all By performing similar calculations on the points, the observation target 3 consisting of the object to be measured 3B is set to the television camera 5.
A two-dimensional grayscale image PCO (PCOI, P
By obtaining CO2, PCO3), the observed object 3
The slope of all surface elements SS constituting the image of is 2
It can be determined from the dimensional grayscale image.

なおこの実施例の場合、テレビジョンカメラ5によって
2軸上の上方位置から観測するようになされているので
、濃淡画像PCO(PCOI、PCO2、PCO3)に
おいて観測対象3の映像に対して背景となる部分におい
てはa f / a x = af / a y = 
0となっている。
In the case of this embodiment, since the television camera 5 is used to observe from an upper position on two axes, it becomes the background for the image of the observation object 3 in the grayscale image PCO (PCOI, PCO2, PCO3). In the part a f / a x = af / a y =
It is 0.

(G4)曲面の再構成 以上の処理ステップによって3次元データ作成部11A
による3次元データの作成処理が終了し、続いて画像デ
ータ処理装置11は第2図のステップSP4に移って曲
面生成部11Bによって外形形状を表す曲面の再構成処
理を実行する′。
(G4) The three-dimensional data creation unit 11A uses processing steps beyond reconstruction of the curved surface.
After the three-dimensional data creation processing is completed, the image data processing device 11 then proceeds to step SP4 in FIG. 2, where the curved surface generation unit 11B executes the reconstruction processing of the curved surface representing the external shape'.

この処理はステップSP3において面素SSの傾きp=
af/ax、又はq=af/ayが得られていることに
より、これを積分すれば2方向の高さf(Xi、)’j
)を求めることができることに基づいて、積分演算を実
行する。
This process is carried out in step SP3, where the slope of the surface element SS is p=
Since af/ax or q=af/ay is obtained, by integrating this, the height in two directions f(Xi,)'j
), the integral operation is performed.

この演算は、第10図に示すように、例えばX方向の傾
きpを用いてそれぞれ直線y=y、(j=・・・・・・
j−1、Lj+1・・・・・・)上の全てのサンプリン
グ点・・・・・・Xl−1、Xi % Xi*1・・・
・・・について、積分を実行する。
As shown in FIG. 10, this calculation uses, for example, the slope p in the X direction to calculate straight lines y=y, (j=...
All sampling points on j-1, Lj+1...)...Xl-1, Xi % Xi*1...
Perform integration for...

かくしてxyy面上の点(Xl 、’Ij)の外形形状
の高さf  (Xt % y 7 )は、= f J(
x、) (i 千・・・・・・i   1.  tS i+l・
・・・・・j=・・・・・・J−1、j、j+1・・・
・・・)・・・・・・ (12) によって表すことができる。
Thus, the height f (Xt % y 7 ) of the external shape of the point (Xl, 'Ij) on the xyy plane is = f J (
x,) (i thousand...i 1. tS i+l・
...j=...J-1, j, j+1...
...)... (12) It can be expressed as follows.

(12)式は、第7図の濃淡画像pco上のX方向の線
y−・・・・・・VJ−+ 、YJ % yj++・・
・・・・上において、X方向の傾きp = a r /
 a xをX−−■からx=x1まで積分すれば、被測
定物体3Bの点(Xi SYt )(i==−i−1、
i Sj + l =、j−・・・・・・j−1、j、
j+1・・・・・・)の外形形状の高さを求めることが
できることを表している。この積分演算を被測定物体3
Bの映像の範囲の各点について実行すれば、第10図に
示すように、被測定物体3BOX方向の線y−・・・・
・・yJ−+ 、)’J、)’j−1・・・・・・上の
演算結果形状データFOM (・・・・・・F OMy
++7−1  、F OMy、)  、F OMy、7
や、・・・・・・)を得ることができ、かくしてこれら
の演算結果形状データF OM (”’ ” F OM
y−j−+ 、F OM ymj %F OM、、j、
、・・・・・・)によって被測定物体3Bの外形形状を
表す曲面を再構成することができる。
Equation (12) is expressed by the line y−...VJ−+ in the X direction on the grayscale image pco in FIG. 7, YJ% yj++...
...In the top, the slope in the X direction p = a r /
If a x is integrated from X--■ to x=x1, the point (Xi SYt) of the object to be measured 3B (i==-i-1,
i Sj + l =, j-...j-1, j,
j+1...) represents that the height of the external shape can be found. This integral calculation is performed on the measured object 3.
If this is executed for each point in the range of the image B, as shown in FIG.
・・yJ−+ , )'J,)'j−1・・・・・・The above calculation result shape data FOM (・・・・・・FOMy
++7-1 ,FOMy, ) ,FOMy,7
,...) can be obtained, and thus these calculation result shape data F OM ("'" F OM
y−j−+ , F OM ymj % F OM,, j,
,...), it is possible to reconstruct the curved surface representing the external shape of the object to be measured 3B.

(G5)周囲光の影響の除去 以上のような手法によって1つのテレビジョンカメラか
ら撮像した2次元的濃淡画像に基づいて非接触の手法を
用いて被測定物体3Bの外形形状を表す曲面データを生
成することができるが、第3図及び第7図について上述
したように、基準物体3A又は被測定物体3Bについて
2次元的濃淡画像PCR又はpcoを得る際に、光源4
A14B、4Cの照明条件がたとえ同一であっても、周
囲光が同一でなければ、濃淡画像PCR及びpcOのデ
ータに周囲光の差異の影響が含まれることにより、正し
い測定ができなくなるおそれがある。
(G5) Removal of the influence of ambient light Using a non-contact method, curved surface data representing the external shape of the object to be measured 3B is generated based on the two-dimensional grayscale image captured by one television camera using the above method. However, as described above with reference to FIGS. 3 and 7, when obtaining the two-dimensional grayscale image PCR or pco for the reference object 3A or the measured object 3B, the light source 4
Even if the illumination conditions of A14B and 4C are the same, if the ambient light is not the same, the grayscale image PCR and pcO data will include the influence of the difference in ambient light, which may prevent correct measurement. .

この問題を解決するため第2の実施例においては、第1
1図及び第12図に示すように、基準物体3Aについて
リフレクタンスマツプを作成する際及び被測定物体3B
について画像データを発生する際に、周囲光の影響を除
去した2次元濃淡画像を得るような処理を実行する。
In order to solve this problem, in the second embodiment, the first
1 and 12, when creating a reflectance map for the reference object 3A and for the measured object 3B.
When generating image data for , processing is performed to obtain a two-dimensional grayscale image from which the influence of ambient light has been removed.

先ず第11図の場合は、第3図との対応部分に同一符号
を付して示すように、3つの光源4A。
First, in the case of FIG. 11, there are three light sources 4A, as shown by assigning the same reference numerals to corresponding parts as in FIG. 3.

4B、4Cによって基準物体3Aを照射することによっ
て3つのリフレクタンスマツプRMI、8M2、RM3
を作成するときに、テレビジョンカメラ5から得られる
ラスクビデオ信号VDに基づいて濃淡画像PCRを次の
手順によって作成する。
By illuminating the reference object 3A with 4B and 4C, three reflectance maps RMI, 8M2, RM3 are created.
When creating a grayscale image PCR, a gray scale image PCR is created based on the rusk video signal VD obtained from the television camera 5 according to the following procedure.

すなわち第11図に示すように、基準物体3Aに周囲光
LGIが照射している状態において、光源4A、4B、
4Cを順次点灯させてテレビジョンカメラ5によって基
準物体3Aを撮像する条件の下において、画像データ処
理装置11 (第1図)の3次元データ作成部11Aは
、先ず光源4A、4B、4Cのいずれをも点灯させない
状B(すなわち周囲光LG1だけを基準物体3Aに照射
している状B)において、テレビジョンカメラ5から得
られるラスクビデオ信号VDを、アナログ/ディジタル
変換回路6を介してフレームメモリ7に書き込んだ後、
当該ビデオデータDATAを外部メモリ13に取り込む
That is, as shown in FIG. 11, in a state where the reference object 3A is irradiated with ambient light LGI, the light sources 4A, 4B,
Under the condition that the reference object 3A is imaged by the television camera 5 by sequentially lighting up the light sources 4C, the three-dimensional data creation unit 11A of the image data processing device 11 (FIG. 1) first turns on any of the light sources 4A, 4B, and 4C. In state B in which the reference object 3A is not illuminated (that is, state B in which only the ambient light LG1 is irradiated onto the reference object 3A), the rusk video signal VD obtained from the television camera 5 is transferred to the frame memory via the analog/digital conversion circuit 6. After writing to 7,
The video data DATA is taken into the external memory 13.

かくして外部メモリ13には、周囲光LGIによる基準
物体3Aの表面の明るさの分布を表す周囲光濃淡画像P
CROを表す画像データ(第11図)が格納される。
Thus, the external memory 13 stores an ambient light density image P representing the brightness distribution on the surface of the reference object 3A due to the ambient light LGI.
Image data (FIG. 11) representing CRO is stored.

続いて3次元データ作成部11Aは、基準物体3Aに対
して周囲光LGIを照射した状態を変更せずに、そのま
まの状態で、光源4A、4B、4Cを順次点灯させてそ
の照明光LSを周囲光LG1と一緒に基準物体3A上に
照射し、このときテレビジョンカメラ5から得られるラ
スクビデオ信号VDを表すビデオデータDATAでなる
観測濃淡画像PCRX (第11図)を外部メモU l
 3に取り込む。
Next, the three-dimensional data creation unit 11A sequentially turns on the light sources 4A, 4B, and 4C to emit the illumination light LS without changing the state in which the reference object 3A is irradiated with the ambient light LGI. An observation grayscale image PCRX (FIG. 11) consisting of video data DATA representing the rusk video signal VD obtained from the television camera 5 at this time, which is irradiated onto the reference object 3A together with the ambient light LG1, is stored in an external memo U l
Incorporate into 3.

同様にして光源4B、4Cについて照明光LSを周囲光
LGIと一諸に照明することにより、対応するビデオデ
ータDATAでなる観測濃淡画像PCRXを外部メモリ
ー3に取り込む。
Similarly, by illuminating the light sources 4B and 4C together with the illumination light LS and the ambient light LGI, an observed grayscale image PCRX consisting of the corresponding video data DATA is captured into the external memory 3.

このようにして外部メモリー3には、周囲光LG1に加
えて光源4A、4B、4Cの照明光LSを同時に照明し
てなる基準物体3Aの表面の明るさ分布を内容とする観
測濃淡画像PCRXを格納する。
In this way, the external memory 3 stores an observation grayscale image PCRX containing the brightness distribution on the surface of the reference object 3A, which is obtained by simultaneously illuminating the illumination light LS from the light sources 4A, 4B, and 4C in addition to the ambient light LG1. Store.

続いて/次元データ作成部11Aは、次式%式%(13
) のように、観測濃淡画像PCRXの画像データから周囲
光濃淡画像PCROの画像データを減算する演算を実行
し、その演算結果を、リフレクタンスマツプRMを作成
する際の基礎データとなる濃淡画像PCRとして求める
Subsequently, the /dimensional data creation unit 11A uses the following formula % formula % (13
), the image data of the ambient light density image PCRO is subtracted from the image data of the observed density image PCRX, and the calculation result is used as the density image PCR, which becomes the basic data when creating the reflectance map RM. Find it as.

(13)式の演算は、観測濃淡画像PCRX及び周囲光
濃淡画像PCROのxy座標上の各点(Xt、yj)の
明るさデータをそれぞれ3次元データ作成部11Aに読
み出してその差を演算することにより実行され、当該演
算結果を濃淡画像PCRのxy座標上の点(Xt% y
j)の明るさデータとして外部メモリ13に格納する。
The calculation of equation (13) involves reading out the brightness data of each point (Xt, yj) on the xy coordinates of the observed grayscale image PCRX and the ambient light grayscale image PCRO to the three-dimensional data creation unit 11A, and calculating the difference between them. The calculation result is calculated as a point on the xy coordinates of the grayscale image PCR (Xt% y
j) is stored in the external memory 13 as brightness data.

かかる演算の結果得られた濃淡画像PCRは、周囲光L
GIによる明るさ成分を含まない画像データになってい
る。すなわち観測濃淡画像PCRXの各点(Xi 、’
/j)の明るさは、照明光LSによる明るさと、周囲光
LGIの明るさとの和の値になるのに対して、その周囲
光LGIに相当する明るさ成分が周囲光濃淡画像PCR
Oによって除去される。従って濃淡画像PCRの各点(
Xi、yj)の明るさデータは、周囲光LGlの明るさ
成分を含まないものになる。
The grayscale image PCR obtained as a result of such calculation is
The image data does not include brightness components due to GI. In other words, each point (Xi,'
The brightness of /j) is the sum of the brightness of the illumination light LS and the brightness of the ambient light LGI, whereas the brightness component corresponding to the ambient light LGI is the brightness component of the ambient light density image PCR.
removed by O. Therefore, each point of the grayscale image PCR (
The brightness data of (Xi, yj) does not include the brightness component of the ambient light LGl.

そこでこの濃淡画像PCRによってリフレクタンスマツ
プRMI〜RM3を作成すれば、当該リフレクタンスマ
ツプRMI〜RM3は、周囲光LGlに依存した明るさ
成分を含まず、かつ照明光LSに依存した明るさ成分で
構成されることになる。
Therefore, if the reflectance maps RMI to RM3 are created using this grayscale image PCR, the reflectance maps RMI to RM3 do not include brightness components that depend on the ambient light LGl, and contain brightness components that depend on the illumination light LS. It will be configured.

3次元データ作成部11Aは第2図のステップSP2に
おいて被測定物体3Bの観測をする際に、第7図との対
応部分に同一符号を付して第12図に示すように、測定
物体濃淡画像pcox及び周囲光濃淡画像pcooを順
次外部メモリ13に格納して次式 %式%(14) のように測定物体濃淡画像pcoxから周囲光濃淡画像
pcooを減算した減算結果を濃淡画像PCOとして用
いるように構成されている。
When observing the object to be measured 3B in step SP2 of FIG. 2, the three-dimensional data creation unit 11A generates the shading of the object as shown in FIG. The image pcox and the ambient light density image pcoo are sequentially stored in the external memory 13, and the subtraction result obtained by subtracting the ambient light density image pcoo from the measurement object density image pcox is used as the density image PCO as shown in the following formula % formula % (14) It is configured as follows.

ここで周囲光濃淡画像pcooは、被測定物体3Bに対
して周囲光LG2のみを照明しかつ光源4A、4B、4
Cの照明光LSを照射しない状態においてテレビジョン
カメラ5から取り込んだ画像データでなり、また測定物
体濃淡画像pcoxは、周囲光LG2に加えて照明光L
Sを照明した状態でテレビジョンカメラ5から取り込ん
だ画像データでなる。
Here, the ambient light density image pcoo is such that the object to be measured 3B is illuminated with only the ambient light LG2 and the light sources 4A, 4B, 4
The measurement object gradation image pcox is composed of image data captured from the television camera 5 in a state where the illumination light LS of C is not irradiated, and the measurement object gradation image pcox is obtained by using the illumination light L in addition to the ambient light LG2.
This is image data captured from the television camera 5 with S illuminated.

従って(14)式の演算の結果得られる濃淡画像PCO
は、測定物体濃淡画像pcoxに含まれる周囲光LG2
の明るさの成分を、周囲光濃淡画像PC00の明るさの
成分によって除去することにより、周囲光LG2に依存
せずに照明光LSだけに依存する画像データで構成され
ることになる。
Therefore, the grayscale image PCO obtained as a result of the calculation of equation (14)
is the ambient light LG2 included in the measurement object grayscale image pcox
By removing the brightness component of the ambient light density image PC00 by the brightness component of the ambient light gradation image PC00, the image data is composed of image data that does not depend on the ambient light LG2 but only on the illumination light LS.

従って、濃淡画像PCOのxy座標上の各点(Xi 、
Yj)の明るさデータには、周囲光LG2の影響を受け
ていない明るさデータが得られることになる。
Therefore, each point (Xi,
As the brightness data of Yj), brightness data that is not influenced by the ambient light LG2 is obtained.

このようにして基準物体3Aに基づいてリフレクタンス
マツプを作成する際、及び被測定物体3Bに基づいてそ
の画像データを得る際に、たとえ基準物体3A及び被測
定物体3Bに周囲光LGI及びLG2が照射されている
撮像条件の下でテレビジョンカメラ5によって画像デー
タを得たとしても、周囲光LGI及びLG2の影響を受
けないような画像データを得ることができることにより
、形状測定装置1を全体として筒易に構成することがで
きる。因に光学的に周囲光LGI及びLG2がない状態
で基準物体3A及び3Bを撮像しなければならないよう
な撮像条件が必要である場合には、基準物体3A及び被
測定物体3Bを絶対黒の雰囲気中に置かなければならな
いので、この升形状測定装置1の構成を複雑かつ大型化
することを避は得ないが、上述の実施例によればかかる
必要性をな(し得る。
In this way, when creating a reflectance map based on the reference object 3A and when obtaining its image data based on the measured object 3B, even if the reference object 3A and the measured object 3B are exposed to ambient light LGI and LG2. Even if image data is obtained by the television camera 5 under illuminated imaging conditions, it is possible to obtain image data that is not affected by the ambient light LGI and LG2, thereby improving the shape measuring device 1 as a whole. It can be easily configured. Incidentally, if imaging conditions are required such that the reference objects 3A and 3B must be imaged in the absence of optical ambient light LGI and LG2, the reference object 3A and the measured object 3B must be placed in an absolute black atmosphere. However, according to the above-described embodiment, this need can be avoided.

(G6)他の実施例 上述の実施例においては、本発明を形状測定装置に適用
した場合の実施例について述べたが、本発明はこれに限
らず、要はテレビジョンカメラを使って離散的なサンプ
リング点における明るさデータでなる濃淡画像を作成す
る場合に広く適用し得る。
(G6) Other Embodiments In the above-mentioned embodiments, an embodiment in which the present invention is applied to a shape measuring device has been described, but the present invention is not limited to this. This method can be widely applied when creating a grayscale image consisting of brightness data at various sampling points.

H発明の効果 上述のように本発明によれば、テレビジョンカメラによ
って観測対象から画像データを得るにつき、周囲光の影
響を演算処理によって除去するようにしたことにより、
比較的節易な構成によって外光の影響を受けずに形状の
測定をなし得る形状測定装置を容易に実現し得る。
Effects of the Invention As described above, according to the present invention, when image data is obtained from an observation target using a television camera, the influence of ambient light is removed through arithmetic processing.
With a relatively simple configuration, it is possible to easily realize a shape measuring device that can measure shapes without being affected by external light.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明による形状測定装置の一実施例を示すブ
ロック図、第2図はその測定処理手順を示すフローチャ
ート、第3図は基準物体3Aについてのリフレクタンス
マツプRMの作成方法を示す路線的系統図、第4図は面
素SSの傾きの説明に供する路線図、第5図はリフレク
タンスマツプRMの一例を示す曲線図、第6図は3つの
光源によって形成されるリフレクタンスマツプRMI、
RM2、RM3を示す路線図、第7図は被測定物体3B
についての画像データ発生方法を示す路線的系統図、第
8図は3つの光源によって発生された被測定物体3Bの
映像を示す路線図、第9図は面素SSの傾きの特定方法
を示す路線図、第10図は積分処理による曲面の再構成
の説明に供する路線的斜視図、第11図及び第12図は
周囲光の影響の除去方法の説明に供する路線的系統図で
ある。 1・・・・・・形状測定装置、2・・・・・・テーブル
、3・・・・・・観測対象、3A・・・・・・基準物体
、3B・・・・・・被測定物体、4A、4B、4C・・
・・・・光源、5・・・・・・テレビジョンカメラ、6
・・・・・・アナログ/ディジタル変換回路、7・・・
・・・フレームメモリ、8・・・・・・形状情報発生部
、11・・・・・・画像データ処理装置、IIA・・・
・・・3次元データ作成部、11B・・・・・・曲面生
成部、13・・・・・・外部メモリ、RM(RMI〜R
M3)・・・・・・リフレクタンスマツプ、PCO(P
COI〜PCO3)・・・・・・濃淡画像、FOM (
・・・・・・F OMy−J−1、F OM y−7、
F OM y−1゜、・・・・・・)・・・・・・演算
結果外形形状データ、LGl、LG2・・・・・・周囲
光、LS・・・・・・照明光、pcrto、pcoo・
・・・・・周囲光濃淡画像、PCRX・・・・・・基準
物体濃淡画像、pcox・・・・・・測定物体濃淡画像
FIG. 1 is a block diagram showing an embodiment of a shape measuring device according to the present invention, FIG. 2 is a flowchart showing its measurement processing procedure, and FIG. 3 is a route showing a method for creating a reflectance map RM for a reference object 3A. Fig. 4 is a route diagram for explaining the slope of the surface element SS, Fig. 5 is a curve diagram showing an example of the reflectance map RM, and Fig. 6 is a reflectance map RMI formed by three light sources. ,
Route map showing RM2 and RM3, Figure 7 is measured object 3B
Figure 8 is a route diagram showing the image of the object to be measured 3B generated by three light sources, and Figure 9 is a route diagram showing the method for determining the slope of the surface element SS. 10 are perspective views for explaining the reconstruction of a curved surface by integral processing, and FIGS. 11 and 12 are systematic diagrams for explaining the method for removing the influence of ambient light. 1... Shape measuring device, 2... Table, 3... Observation target, 3A... Reference object, 3B... Measured object , 4A, 4B, 4C...
...Light source, 5...Television camera, 6
...Analog/digital conversion circuit, 7...
... Frame memory, 8 ... Shape information generation section, 11 ... Image data processing device, IIA ...
...Three-dimensional data creation unit, 11B...Curved surface generation unit, 13...External memory, RM (RMI to R
M3)...Reflectance map, PCO (P
COI~PCO3)... Grayscale image, FOM (
...FOMy-J-1, FOMy-7,
F OM y-1゜,...)...Calculation result external shape data, LGl, LG2...Ambient light, LS...Illumination light, pcrto, pcoo・
...Ambient light density image, PCRX...Reference object density image, pcox...Measurement object density image.

Claims (1)

【特許請求の範囲】 観測対象に光源の照明光を照射した状態において上記観
測対象の表面の明るさ分布を表す濃淡画像データ出力を
テレビジョンカメラのビデオ信号を用いて作成する濃淡
画像データ作成方法において、 上記観測対象に対して上記光源の照明光を照射しない状
態において第1の濃淡画像データを得ると共に、上記観
測対象に対して上記光源の照明光を照射した状態におい
て第2の濃淡画像データを得、 上記第1及び第2の濃淡画像データの差を求める演算を
実行し、当該演算結果を上記濃淡画像データ出力として
得る ことを特徴とする濃淡画像データ作成方法。
[Claims of Claims] A method for creating grayscale image data using a video signal from a television camera to generate grayscale image data output representing the brightness distribution on the surface of the observation target in a state where the observation target is irradiated with illumination light from a light source. In this step, first grayscale image data is obtained in a state in which the observation target is not irradiated with the illumination light from the light source, and second grayscale image data is obtained in a state in which the observation target is irradiated with the illumination light from the light source. A method for creating grayscale image data, comprising: calculating the difference between the first and second grayscale image data, and obtaining the result of the calculation as the grayscale image data output.
JP61229071A 1986-09-27 1986-09-27 Variable density picture data forming method Pending JPS6382577A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP61229071A JPS6382577A (en) 1986-09-27 1986-09-27 Variable density picture data forming method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP61229071A JPS6382577A (en) 1986-09-27 1986-09-27 Variable density picture data forming method

Publications (1)

Publication Number Publication Date
JPS6382577A true JPS6382577A (en) 1988-04-13

Family

ID=16886281

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61229071A Pending JPS6382577A (en) 1986-09-27 1986-09-27 Variable density picture data forming method

Country Status (1)

Country Link
JP (1) JPS6382577A (en)

Similar Documents

Publication Publication Date Title
Gomes et al. Generation of gelsight tactile images for sim2real learning
Nayar et al. Specular surface inspection using structured highlight and Gaussian images.
Haleem et al. Exploring the potential of 3D scanning in Industry 4.0: An overview
US7561164B2 (en) Texture map editing
CN107730503A (en) The image object component-level semantic segmentation method and apparatus of three-dimensional feature insertion
US7092860B1 (en) Hardware simulation systems and methods for vision inspection systems
EP3921801B1 (en) Creating training data variability in machine learning for object labelling from images
EP0613097B1 (en) A dynamic image processor
JP3950376B2 (en) Shape model generation method and apparatus from three-dimensional point group, shape model generation program from three-dimensional point group, and recording medium recording the program
Sorokin et al. Restoration of lighting parameters in mixed reality systems using convolutional neural network technology based on RGBD images
JP2832463B2 (en) 3D model reconstruction method and display method
Šagi et al. Reverse engineering
JPS6382577A (en) Variable density picture data forming method
JPS6393076A (en) Form measuring instrument
JPS6383873A (en) Form measuring device
BARON et al. APPLICATION OF AUGMENTED REALITY TOOLS TO THE DESIGN PREPARATION OF PRODUCTION.
Salfelder et al. Markerless 3D spatio-temporal reconstruction of microscopic swimmers from video
JPH0792370B2 (en) Object and light source information extraction method and apparatus using the same
JPS6383874A (en) Form measuring device
JPS6376073A (en) Shape measuring instrument
JP2005292027A (en) Processor and method for measuring/restoring three-dimensional shape
JP7494652B2 (en) Apparatus and method for preparing for visual inspection
Hall The human interface in three dimensional computer art space
WO2022185864A1 (en) Appearance inspection device, appearance inspection method, image generation device, and image generation method
Leu et al. Vision system for three-dimensional position measurement based on stereo disparity