JP2007163429A - Three-dimensional distance measuring method, and instrument therefor - Google Patents

Three-dimensional distance measuring method, and instrument therefor Download PDF

Info

Publication number
JP2007163429A
JP2007163429A JP2005363673A JP2005363673A JP2007163429A JP 2007163429 A JP2007163429 A JP 2007163429A JP 2005363673 A JP2005363673 A JP 2005363673A JP 2005363673 A JP2005363673 A JP 2005363673A JP 2007163429 A JP2007163429 A JP 2007163429A
Authority
JP
Japan
Prior art keywords
image sensor
light receiving
light
area image
measurement object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005363673A
Other languages
Japanese (ja)
Inventor
Takashi Makinose
孝 牧野瀬
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Roland DG Corp
Original Assignee
Roland DG Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Roland DG Corp filed Critical Roland DG Corp
Priority to JP2005363673A priority Critical patent/JP2007163429A/en
Publication of JP2007163429A publication Critical patent/JP2007163429A/en
Pending legal-status Critical Current

Links

Images

Abstract

<P>PROBLEM TO BE SOLVED: To make constitution of a whole instrument compact, and to attain high resolution. <P>SOLUTION: In this three-dimensional distance measuring method, a measuring object is irradiated with a laser beam to receive a reflected beam from the measuring object by an area image sensor, and a distance up to the measuring object is measured based on a photoreception position on the area image sensor. The reflected beam from the measuring object irradiated with the laser beam is converted therein into a line beam, the line beam is emitted to the area image sensor having a plurality of photoreception elements aligned lattice-likely, while inclined at a prescribed angle θ with respect to a prescribed aligned direction of the plurality of photoreception elements with an extended direction of an irradiation area aligned on the area image sensor, outputs of the photoreception elements are acquired sequentially along the extended direction of the irradiation area, and the distance up to the measuring object is measured in response to the acquired outputs of the photoreception elements. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、3次元距離測定方法およびその装置に関し、さらに詳細には、三角測量法を応用した変位測定装置などに用いて好適なレーザー光を利用した3次元距離測定方法およびその装置に関する。   The present invention relates to a three-dimensional distance measuring method and apparatus, and more particularly, to a three-dimensional distance measuring method and apparatus using laser light suitable for use in a displacement measuring apparatus to which triangulation is applied.

従来より、測定対象物としての物体の形状を測定するための装置として、例えば、三角測量法の原理を応用したものであって、レーザー光を利用する変位測定装置が知られている。   2. Description of the Related Art Conventionally, as a device for measuring the shape of an object as a measurement object, for example, a displacement measurement device that applies the principle of triangulation and uses laser light is known.

こうした変位測定装置は、レーザー光を測定対象物に照射し、測定対象物からの反射光を受光手段であるセンサに投光し、センサで受光した反射光たるレーザー光より取得したアナログ情報をデジタル情報に変換し、その変換したデジタル情報を基に測定対象物の位置の解析を行うというものである。   Such a displacement measuring device irradiates a measurement object with laser light, projects reflected light from the measurement object onto a sensor as a light receiving means, and digitally acquires analog information obtained from laser light as reflected light received by the sensor. The information is converted into information, and the position of the measurement object is analyzed based on the converted digital information.

従来、このような変位測定装置が有する投光手段から測定対象物に向けて出射されたレーザー光は、投光手段と測定対象物との間に配設されたレンズの作用により、測定対象物に対して点状のスポット光や線状のスリット光として照射されていた。   Conventionally, a laser beam emitted from a light projecting unit included in such a displacement measuring device toward a measurement object is measured by the action of a lens disposed between the light projecting unit and the measurement object. Are irradiated as spot light or linear slit light.

また、こうしたレーザー光を利用する変位測定装置においては、測定対象物からの反射光を受光する受光手段として、例えば、電荷転送素子(以下、「CCD」と適宜に称する。)や相補性金属酸化半導体(以下、「CMOS」と適宜に称する。)からなるラインイメージセンサ、あるいは、位置検出素子(以下、「PSD」と適宜に称する。)などが用いられていた。特に、精度の高い測定を行う場合には、例えば、特許文献1として提示する特開平7−146113号公報に開示されているように、CCDまたはCMOSからなるラインイメージセンサが一般に用いられていた。   Further, in such a displacement measuring apparatus using laser light, as a light receiving means for receiving reflected light from a measurement object, for example, a charge transfer element (hereinafter referred to as “CCD” as appropriate) or a complementary metal oxide. A line image sensor made of a semiconductor (hereinafter appropriately referred to as “CMOS”) or a position detection element (hereinafter appropriately referred to as “PSD”) has been used. In particular, when highly accurate measurement is performed, for example, as disclosed in Japanese Patent Application Laid-Open No. 7-146113 presented as Patent Document 1, a line image sensor composed of a CCD or a CMOS is generally used.


ここで、上記したようなラインイメージセンサを備えた変位測定装置においては、ラインイメージセンサの出力を用いて測定対象物の位置の解析を行うものであるが、その出力を直接使う場合には、実際にラインイメージセンサが持つ分解能(例えば、4μmピッチである。)がその測定装置の分解能の限界となる。

Here, in the displacement measuring apparatus provided with the line image sensor as described above, the position of the measurement object is analyzed using the output of the line image sensor, but when using the output directly, The resolution (for example, 4 μm pitch) of the line image sensor is the limit of the resolution of the measuring device.

このため、ラインイメージセンサが持つ分解能以上の細かいピッチの検出位置を得ようとする場合には、ラインイメージセンサの各画素から得られたアナログ情報を用いて、重心位置計算や最小自乗法などを利用して光軸位置を推定するという手法がとられていた。   For this reason, when trying to obtain a detection position with a fine pitch that is higher than the resolution of the line image sensor, using the analog information obtained from each pixel of the line image sensor, centroid position calculation, least square method, etc. A method of estimating the position of the optical axis by using it has been taken.

ところが、ラインイメージセンサの各画素から得られたアナログ情報(アナログ値)は、スペックルパターンによる測定誤差が生じたり、測定対象物における被測定面の角度や表面形状により反射特性の影響を大きく受けやすいため、分解能をあまり高くできないという問題点があった。   However, the analog information (analog value) obtained from each pixel of the line image sensor has a measurement error due to a speckle pattern, and is greatly affected by reflection characteristics due to the angle of the surface to be measured and the surface shape of the measurement object. There was a problem that the resolution could not be so high because it was easy.


こうした問題点を解決するために、従来は、画素数の多いラインイメージセンサを用いることで分解能を高くするという手法が採用されていた。

In order to solve these problems, conventionally, a method of increasing the resolution by using a line image sensor having a large number of pixels has been employed.

しかしながら、画素数の多いラインイメージセンサは、その面積が大きなものとなり、また、受光レンズの焦点距離を伸ばす必要もあるため、結果として装置全体が大きくなるという新たな問題点を招来するものであった。例えば、7450画素、4.7μmピッチであるイメージセンサの場合には、受光長が35.0mm、パッケージ長は53.6mmであった。
特開平7−146113号公報
However, a line image sensor with a large number of pixels has a large area, and it is necessary to increase the focal length of the light-receiving lens, resulting in a new problem that the entire apparatus becomes large. It was. For example, in the case of an image sensor having 7450 pixels and a pitch of 4.7 μm, the light receiving length is 35.0 mm, and the package length is 53.6 mm.
JP 7-146113 A

本発明は、従来の技術の有する上記したような種々の問題点に鑑みてなされたものであり、その目的とするところは、装置全体の構成を小型化することが可能であるとともに、高い分解能を達成することのできる3次元距離測定方法およびその装置を提供しようとするものである。   The present invention has been made in view of the above-described various problems of the prior art. The object of the present invention is to reduce the size of the entire apparatus and to achieve high resolution. It is an object of the present invention to provide a three-dimensional distance measuring method and apparatus capable of achieving the above.

上記目的を達成するために、本発明は、レーザー光を測定対象物に照射し、当該測定対象物からの反射光を線状光に変換し、格子状に整列して配置された複数の受光素子に対して、当該線状光を整列方向に対して斜めに照射し、受光素子を当該線状光の延長方向に沿って読み出すようにしたものである。   In order to achieve the above object, the present invention irradiates a measurement object with laser light, converts reflected light from the measurement object into linear light, and receives a plurality of light receiving elements arranged in a lattice pattern. The element is irradiated with the linear light obliquely with respect to the alignment direction, and the light receiving element is read out along the extending direction of the linear light.


即ち、本発明のうち請求項1に記載の発明は、測定対象物にレーザー光を照射して上記測定対象物からの反射光をエリアイメージセンサにより受光し、上記エリアイメージセンサ上における受光位置に基づいて上記測定対象物までの距離を測定する3次元距離測定方法において、レーザー光を照射された測定対象物からの反射光を線状光に変換し、格子状に整列して複数配置された受光素子を有するエリアイメージセンサに対し、上記線状光を上記エリアイメージセンサ上における照射領域の延長方向が上記整列した複数の受光素子の所定の整列方向に対して所定の角度θをもって傾くように照射し、上記照射領域の延長方向に沿う順序で上記受光素子の出力を取得し、上記取得した受光素子の出力に応じて上記測定対象物までの距離を測定するようにしたものである。

That is, according to the first aspect of the present invention, the object to be measured is irradiated with laser light, the reflected light from the object to be measured is received by the area image sensor, and the light receiving position on the area image sensor is received. In the three-dimensional distance measurement method for measuring the distance to the measurement object based on the above, the reflected light from the measurement object irradiated with the laser light is converted into linear light, and a plurality of lines are arranged in a lattice pattern. With respect to an area image sensor having a light receiving element, the extension direction of the irradiation region on the area image sensor is inclined with a predetermined angle θ with respect to a predetermined alignment direction of the plurality of aligned light receiving elements. Irradiate and acquire the output of the light receiving element in the order along the extending direction of the irradiation region, and measure the distance to the measurement object according to the acquired output of the light receiving element In which was to so that.

また、本発明のうち請求項2に記載の発明は、本発明のうち請求項1に記載の発明において、上記所定の角度θは、
θ=tan−1(n+1)
n:上記照射領域の延長方向に沿って配置された受光素子の数
であるようにしたものである。
Moreover, the invention according to claim 2 of the present invention is the invention according to claim 1 of the present invention, wherein the predetermined angle θ is:
θ = tan −1 (n + 1)
n: The number of light receiving elements arranged along the extending direction of the irradiation region.

また、本発明のうち請求項3に記載の発明は、本発明のうち請求項1または2のいずれか1項に記載の発明において、上記測定対象物からの反射光をシリンダーレンズに入射して線状光に変換するようにしたものである。   The invention according to claim 3 of the present invention is the invention according to claim 1 or 2 of the present invention, wherein the reflected light from the measurement object is incident on a cylinder lens. The light is converted into linear light.

また、本発明のうち請求項4に記載の発明は、本発明のうち請求項1、2または3のいずれか1項に記載の発明において、上記エリアイメージセンサは、モノクロイメージセンサまたはカラーイメージセンサであるようにしたものである。   According to a fourth aspect of the present invention, the area image sensor according to any one of the first, second, or third aspect of the present invention is a monochrome image sensor or a color image sensor. It is intended to be.

また、本発明のうち請求項5に記載の発明は、測定対象物にレーザー光を照射して上記測定対象物からの反射光をエリアイメージセンサにより受光し、上記エリアイメージセンサ上における受光位置に基づいて上記測定対象物までの距離を測定する3次元距離測定装置において、格子状に整列して複数配置された受光素子を有するエリアイメージセンサと、レーザー光を照射された測定対象物からの反射光を線状光に変換するとともに、上記エリアイメージセンサに対し、上記線状光を上記エリアイメージセンサ上における照射領域の延長方向が上記整列した複数の受光素子の所定の整列方向に対して所定の角度θをもって傾くように照射する照射手段と、上記照射領域の延長方向に沿う順序で上記受光素子の出力を取得する取得手段とを有し、上記取得手段により取得した受光素子の出力に応じて上記測定対象物までの距離を測定するようにしたものである。   In the invention according to claim 5 of the present invention, the measurement object is irradiated with laser light, the reflected light from the measurement object is received by the area image sensor, and the light receiving position on the area image sensor is received. In the three-dimensional distance measuring device for measuring the distance to the measurement object based on the above, an area image sensor having a plurality of light receiving elements arranged in a grid and reflection from the measurement object irradiated with laser light The light is converted into linear light, and the extension direction of the irradiation area on the area image sensor is predetermined with respect to the area image sensor with respect to a predetermined alignment direction of the aligned light receiving elements. And an acquisition means for acquiring the output of the light receiving element in the order along the extending direction of the irradiation area. , In which so as to measure the distance to the measurement object in accordance with the output of the light receiving element obtained by the obtaining means.

また、本発明のうち請求項6に記載の発明は、本発明のうち請求項5に記載の発明において、上記所定の角度θは、
θ=tan−1(n+1)
n:上記照射領域の延長方向に沿って配置された受光素子の数
であるようにしたものである。
Further, in the invention according to claim 6 of the present invention, in the invention according to claim 5 of the present invention, the predetermined angle θ is:
θ = tan −1 (n + 1)
n: The number of light receiving elements arranged along the extending direction of the irradiation region.

また、本発明のうち請求項7に記載の発明は、本発明のうち請求項5または6のいずれか1項に記載の発明において、上記照射手段は、シリンダーレンズであるようにしたものである。   The invention described in claim 7 of the present invention is the invention described in any one of claims 5 or 6 of the present invention, wherein the irradiation means is a cylinder lens. .

また、本発明のうち請求項8に記載の発明は、本発明のうち請求項5、6または7のいずれか1項に記載の発明において、上記エリアイメージセンサは、モノクロイメージセンサまたはカラーイメージセンサであるようにしたものである。   According to an eighth aspect of the present invention, in the invention according to any one of the fifth, sixth and seventh aspects of the present invention, the area image sensor is a monochrome image sensor or a color image sensor. It is intended to be.

本発明によれば、装置全体の構成を小型化することが可能であるとともに、高い分解能を達成することのできる3次元距離測定方法およびその装置を提供することができるという優れた効果が奏される。   According to the present invention, it is possible to downsize the overall configuration of the apparatus, and it is possible to provide a three-dimensional distance measuring method and apparatus capable of achieving high resolution. The

以下、添付の図面を参照しながら、本発明による3次元距離測定方法およびその装置の実施の形態の一例を詳細に説明するものとする。   Hereinafter, an example of an embodiment of a three-dimensional distance measurement method and apparatus according to the present invention will be described in detail with reference to the accompanying drawings.


図1には、本発明の実施の形態の一例による3次元距離測定装置の概念構成説明図が示されている。

FIG. 1 is a conceptual configuration explanatory diagram of a three-dimensional distance measuring apparatus according to an example of an embodiment of the present invention.

この3次元距離測定装置10は、レーザーダイオードなどから構成されて測定対象物16にレーザー光を照射する投光手段としてのレーザー光照射装置12と、測定対象物16を載置してXYZ方向(図1におけるXYZ直交座標系を示す参考図を参照する。)に任意に移動可能な測定対象物載置台14と、レーザー光照射装置12からレーザー光を照射された測定対象物16からの反射光をスポット状に集光する集光レンズ18と、集光レンズ18によりスポット状に集光された反射光を線状の反射光に変換して出射するシリンダーレンズ20と、シリンダーレンズ20から出射された線状の反射光を受光するCMOSエリアイメージセンサ22とを有して構成されており、測定対象物載置台14に載置した測定対象物16の表面形状を測定するものである。このCMOSエリアイメージセンサ22は、モノクロイメージセンサである。   This three-dimensional distance measuring device 10 is composed of a laser diode or the like, and a laser beam irradiation device 12 as a light projecting means for irradiating the measurement target 16 with laser light, and the measurement target 16 are placed on the XYZ direction ( (Refer to the reference diagram showing the XYZ orthogonal coordinate system in FIG. 1.) The measurement object mounting table 14 that can be arbitrarily moved, and the reflected light from the measurement object 16 irradiated with laser light from the laser light irradiation device 12 A condensing lens 18 that collects the light in a spot shape, a cylinder lens 20 that converts the reflected light collected in a spot shape by the condensing lens 18 into a linear reflected light, and emits the reflected light. And a CMOS area image sensor 22 that receives the linear reflected light, and measures the surface shape of the measurement object 16 placed on the measurement object placement table 14. It is intended to. The CMOS area image sensor 22 is a monochrome image sensor.

なお、上記した各構成部材は、測定対象物載置台14上の測定対象物16に対してレーザー光照射装置12よりレーザー光を照射可能である位置にレーザー光照射装置12が配置され、測定対象物載置台14の測定対象物16からの反射光を集光可能な位置に集光レンズ18が配置され、集光レンズ18によりスポット状に集光された反射光が入射可能な位置にシリンダーレンズ20が配置され、シリンダーレンズ20から出射された線状の反射光を受光可能な位置にCMOSエリアイメージセンサ22が配置されている。   Each of the constituent members described above is arranged such that the laser light irradiation device 12 is arranged at a position where the laser light irradiation device 12 can irradiate the measurement target 16 on the measurement target mounting table 14 with the laser light. A condensing lens 18 is disposed at a position where the reflected light from the measurement object 16 of the object mounting table 14 can be condensed, and the cylinder lens is disposed at a position where the reflected light condensed in a spot shape by the condensing lens 18 can be incident. The CMOS area image sensor 22 is disposed at a position where the linear reflected light emitted from the cylinder lens 20 can be received.


次に、上記した各構成部材をさらに詳細に説明すると、レーザー光照射装置12は、適宜な波長(例えば、赤色レーザーの波長である。)のレーザー光を出射することができるように、レーザーダイオードや光学系を組み合わせて構成されている。

Next, each of the above-described constituent members will be described in more detail. The laser light irradiation device 12 can emit laser light having an appropriate wavelength (for example, the wavelength of a red laser). And a combination of optical systems.

また、測定対象物載置台14は、図示しないモーターなどの駆動手段により、X方向、Y方向ならびにZ方向に任意に移動可能に構成されている。   Further, the measurement object mounting table 14 is configured to be arbitrarily movable in the X direction, the Y direction, and the Z direction by a driving unit such as a motor (not shown).

ここで、CMOSエリアイメージセンサ22は、その受光面22aが、図1のXYZ直交座標系を示す参考図におけるX軸およびY軸により規定されるXY平面に沿って配置されている。そして、この受光面22a上には、図2に示すように、正方形状の受光素子(画素)22bが、X軸に沿う行方向に複数個(この実施の形態においては、1288個である。)整列して位置するとともに、Y軸に沿う列方向に複数個(この実施の形態においては、1033個である。)整列して位置するようにして、格子状に複数個が整列配置されている。   Here, the CMOS area image sensor 22 has a light receiving surface 22a disposed along the XY plane defined by the X axis and the Y axis in the reference diagram showing the XYZ orthogonal coordinate system of FIG. On the light receiving surface 22a, as shown in FIG. 2, there are a plurality of square light receiving elements (pixels) 22b in the row direction along the X axis (1288 in this embodiment). And a plurality of (in this embodiment, 1033 in this embodiment) aligned in the column direction along the Y axis, and the plurality are aligned and arranged in a lattice shape. Yes.

そして、集光レンズ18により集光されたスポット状の反射光を線状の反射光に変換して出射するシリンダーレンズ20は、受光面22aにおける線状の反射光の照射領域中心(「照射領域中心」とは、線状の反射光の照射領域において、当該線状に沿う光量が最も高い領域を意味する。)Aが、上記列方向にほぼ沿うが上記列方向よりも若干傾いて位置するように、CMOSエリアイメージセンサ22に対して斜めに配置されている。なお、上記照射領域中心Aの傾きについては、後に詳述する。   The cylinder lens 20 that converts the spot-like reflected light collected by the condenser lens 18 into linear reflected light and emits the light is the center of the irradiation area of the linear reflected light on the light receiving surface 22a ("irradiation area"). The “center” means a region where the amount of light along the linear shape is highest in the irradiation region of the linear reflected light.) A is located substantially along the column direction but slightly inclined from the column direction. In this manner, the CMOS area image sensor 22 is disposed obliquely. The inclination of the irradiation area center A will be described in detail later.


以上の構成において、上記した3次元距離測定装置10を用いて、任意の形状を有する測定対象物16を測定する際の動作について説明する。

The operation | movement at the time of measuring the measuring object 16 which has arbitrary shapes using the above-mentioned three-dimensional distance measuring apparatus 10 in the above structure is demonstrated.

まず、レーザー光照射装置12を作動させてレーザー光を出射すると、レーザー光照射装置12から出射されたレーザー光は、測定対象物載置台14上の測定対象物16に投射される。   First, when the laser light irradiation device 12 is operated to emit laser light, the laser light emitted from the laser light irradiation device 12 is projected onto the measurement object 16 on the measurement object mounting table 14.

このレーザー光の測定対象物16への投射により生じた測定対象物16からの反射光は、集光レンズ18に入射してスポット状に集光される。そして、集光レンズ18から出射したスポット状に集光されたレーザー光は、シリンダーレンズ20に入射して、シリンダーレンズ20によりそのプロファイルを線状に変換されて出射される。   The reflected light from the measurement object 16 generated by the projection of the laser light onto the measurement object 16 enters the condenser lens 18 and is condensed in a spot shape. Then, the laser beam condensed in a spot shape emitted from the condensing lens 18 is incident on the cylinder lens 20, and its profile is converted into a linear shape by the cylinder lens 20 and emitted.

こうしてシリンダーレンズ20から出射された線状の反射光が、CMOSエリアイメージセンサ22の受光面22aに投光されることになり、CMOSエリアイメージセンサ22の受光面22aで受光した線状の反射光より取得した情報に基づいて、測定対象物16の位置の解析を行う処理が行われる。   Thus, the linear reflected light emitted from the cylinder lens 20 is projected onto the light receiving surface 22a of the CMOS area image sensor 22, and the linear reflected light received by the light receiving surface 22a of the CMOS area image sensor 22 is projected. Based on the acquired information, processing for analyzing the position of the measurement object 16 is performed.


次に、CMOSエリアイメージセンサ22の受光面22aで受光した線状の反射光より取得した情報に基づいて、測定対象物16の位置の解析を行う処理の詳細について説明するが、図3(a)(b)には、CMOSエリアイメージセンサ22の受光面22aの一部を拡大した説明図が示されており、CMOSエリアイメージセンサ22の受光面22aには、上記したように正方形形状の受光素子22bが規則正しく整列して配置されている。

Next, details of a process for analyzing the position of the measurement object 16 based on information acquired from linear reflected light received by the light receiving surface 22a of the CMOS area image sensor 22 will be described. FIG. ) (B) shows an enlarged explanatory view of a part of the light receiving surface 22a of the CMOS area image sensor 22. The light receiving surface 22a of the CMOS area image sensor 22 has a square shape as described above. The elements 22b are regularly arranged and arranged.

なお、以下の説明においては、シリンダーレンズ20として、焦点距離がf=−80mmのものを用い、また、CMOSエリアイメージセンサ22として、モノクロイメージセンサであって、受光面22aの受光素子22bが、6μm×6μmの画素ピッチで列方向に1033画素、行方向に1288画素ずつ整列して配置されているものを用いた(図2を参照する。)。なお、このCMOSエリアイメージセンサ22の受光長は7.728mmであり、そのパッケージ長は14.22mmである。   In the following description, the cylinder lens 20 having a focal length of f = -80 mm is used, and the CMOS area image sensor 22 is a monochrome image sensor, in which the light receiving element 22b on the light receiving surface 22a is A pixel having a pixel pitch of 6 μm × 6 μm and 1033 pixels aligned in the column direction and 1288 pixels aligned in the row direction was used (see FIG. 2). The CMOS area image sensor 22 has a light receiving length of 7.728 mm and a package length of 14.22 mm.

そして、測定対象物16の位置の解析を行う際には、列方向に7画素分、行方向に1288画素分のエリア(以下、「計測用エリア」と適宜に称する。)を切り出して解析を行う(図3(a)を参照する。)。   Then, when analyzing the position of the measurement object 16, an analysis is performed by cutting out an area of 7 pixels in the column direction and 1288 pixels in the row direction (hereinafter referred to as “measurement area” as appropriate). (See FIG. 3A).

また、上記したように、シリンダーレンズ20から出射された線状の反射光は、CMOSエリアイメージセンサ22の受光面22aにおける線状の反射光の照射領域中心Aが、受光面22aにおける受光素子22bの列方向にほぼ沿うが当該列方向よりも若干傾いて位置するように、CMOSエリアイメージセンサ22の受光面22aに斜めに投光される。   As described above, the linear reflected light emitted from the cylinder lens 20 is such that the irradiation area center A of the linear reflected light on the light receiving surface 22a of the CMOS area image sensor 22 is the light receiving element 22b on the light receiving surface 22a. The light is obliquely projected onto the light receiving surface 22a of the CMOS area image sensor 22 so as to be positioned substantially along the column direction but slightly inclined from the column direction.

この受光面22aにおける線状の反射光の照射領域中心Aの傾きは、ある一つの受光素子22bと、当該ある一つの受光素子22bから行方向に1画素分進むとともに列方向に7画素分進んだ所にある画素とを結んだ直線と重なる様な傾きに設定されている(図3(b)を参照する。)。   The inclination of the irradiation area center A of the linear reflected light on the light receiving surface 22a is advanced by one pixel in the row direction and by seven pixels in the column direction from the certain light receiving element 22b. The inclination is set so as to overlap with a straight line connecting pixels located in the vicinity (see FIG. 3B).

従って、上記したように列方向に7画素分のエリアを切り出すこの実施の形態における照射領域中心Aの傾きは、三角測量で使用する面(基線(この実施の形態においては、基線は行方向(X軸方向)へ延長する。)を有する面)に対する角度θが81度に設定する必要があり、照射領域中心Aがこうした傾きを得られるようにシリンダーレンズ20を配置する。   Therefore, as described above, the inclination of the irradiation area center A in this embodiment that cuts out the area for 7 pixels in the column direction is the surface used in the triangulation (base line (in this embodiment, the base line is the row direction ( It is necessary to set the angle θ with respect to the surface having a) extending in the X-axis direction) to 81 degrees, and the cylinder lens 20 is disposed so that the irradiation area center A can obtain such an inclination.


図4(a)には、実際に受光面22aに線状の反射光を投光した場合の概念説明図が示されている。なお、受光面22aに配置された受光素子22bを特定するための画素番号は、図4(a)に示す矢印の順番で付していくこととする。

FIG. 4 (a) shows a conceptual explanatory diagram when linear reflected light is actually projected onto the light receiving surface 22a. Note that pixel numbers for specifying the light receiving elements 22b arranged on the light receiving surface 22a are assigned in the order of the arrows shown in FIG.

そして、線状の反射光の計測に際しては、CMOSエリアイメージセンサ22の受光面22aの各受光素子22bで得られた受光光量を読み出すことになるが、その読み出しの際には、それぞれの受光素子22bに付した画素番号の順番に従って、各受光素子22bで読み出した受光光量を読み出す(図4(b)参照)。   When measuring the linear reflected light, the received light amount obtained by each light receiving element 22b of the light receiving surface 22a of the CMOS area image sensor 22 is read out. In accordance with the order of the pixel numbers given to 22b, the received light quantity read by each light receiving element 22b is read (see FIG. 4B).

ここで、受光素子22bに付した画素番号の順番に従って読み出した受光光量を画素番号順に直線上に並べると、図4(b)に示すようなガウス分布を示す。従って、この直線上に並べたデータは、ラインイメージセンサにより取得されたデータと同様に扱うことができる。   Here, when the received light amounts read in the order of the pixel numbers assigned to the light receiving elements 22b are arranged on a straight line in the order of the pixel numbers, a Gaussian distribution as shown in FIG. Therefore, the data arranged on the straight line can be handled in the same manner as the data acquired by the line image sensor.

従って、上記のようにして直線上に並べたデータに基づいて重心位置計算を行うことにより、従来のラインイメージセンサと同様な手法により測定対象物16の位置の解析を行うことができる。   Therefore, by calculating the center of gravity based on the data arranged on the straight line as described above, the position of the measurement object 16 can be analyzed by the same method as that of the conventional line image sensor.


以下、本発明の理解を容易にするために、図5(a)に示すCMOSエリアイメージセンサ22の受光面22aの簡単なモデルを用いて本発明の作用を説明する。この図5(a)は、線状の反射光が投光されて、以下のようにして受光素子22bのそれぞれに番号を付したCMOSエリアイメージセンサ22の概念説明図を示している。

Hereinafter, in order to facilitate understanding of the present invention, the operation of the present invention will be described using a simple model of the light receiving surface 22a of the CMOS area image sensor 22 shown in FIG. FIG. 5A is a conceptual explanatory diagram of the CMOS area image sensor 22 in which linear reflected light is projected and the light receiving elements 22b are numbered as follows.

即ち、この図5(a)に示すモデルにおいては、受光面22aに配置された受光素子22bのそれぞれに、便宜的に図3(b)に示すように順番に画素番号を付して説明する。この画素番号の付け方は、以下の通りである。   That is, in the model shown in FIG. 5A, each of the light receiving elements 22b arranged on the light receiving surface 22a will be described with the pixel numbers assigned in order as shown in FIG. . This pixel numbering method is as follows.

計測用エリアにおける照射領域中心Aが属する列上に位置する受光素子22bのそれぞれに対して、図3(b)において受光面22aの最左上に位置する受光素子22bに画素番号として「1番」を付け、画素番号が1番の受光素子22bが属する列の受光素子22bに対して、図3(b)において上から順番に「2番」、「3番」、「4番」、「5番」、「6番」、「7番」と画素番号を付す。さらに、計測用エリアにおける照射領域中心Aが属する列上に位置するとともに、画素番号として1〜7番を付され列の右側に配置された列上に位置する受光素子22bのそれぞれに対して、図3(b)において上から順番に「8番」、「9番」、「10番」、「11番」、「12番」、「13番」、「14番」と画素番号を付す。   For each of the light receiving elements 22b located on the column to which the irradiation area center A in the measurement area belongs, in FIG. 3B, the light receiving element 22b located at the upper left of the light receiving surface 22a has a pixel number “No. In FIG. 3B, “2”, “3”, “4”, “5” are sequentially assigned to the light receiving elements 22b in the column to which the light receiving element 22b with the pixel number 1 belongs. No. ”,“ No. 6 ”,“ No. 7 ”and pixel numbers. Furthermore, for each of the light receiving elements 22b located on the column to which the irradiation area center A in the measurement area belongs and which is assigned pixel numbers 1 to 7 and arranged on the right side of the column, In FIG. 3B, pixel numbers “8”, “9”, “10”, “11”, “12”, “13”, “14” are assigned in order from the top.

なお、図5(a)において、受光面22a上に示された山形図形は、受光面22aに投光された線状の反射光の光量の強度分布、換言すれば、受光素子22bの各列において受光した光量の強度分布のイメージ図を示している。光量の強度分布が存在している範囲(図5(a)において破線で示す照射領域の末端で囲われている部分)には光が存在していることを意味しており、照射領域中心Aがある位置は光量の強度分布が最も高い位置となっている。   In FIG. 5A, the chevron figure shown on the light receiving surface 22a is the intensity distribution of the amount of linear reflected light projected on the light receiving surface 22a, in other words, each column of the light receiving elements 22b. The image figure of intensity distribution of the received light quantity is shown. This means that light is present in the range where the intensity distribution of the light amount exists (the portion surrounded by the end of the irradiation area indicated by the broken line in FIG. 5A), and the irradiation area center A There is a position where the intensity distribution of the light quantity is the highest.

図5(a)に示すように、CMOSエリアイメージセンサ22で受光された測定対象物16からの線状の反射光は実際には幅Wを備えた帯状の光となり、1番から14番までの14個の受光素子22bにわたって線状の反射光が投光される。   As shown in FIG. 5A, the linear reflected light from the measurement object 16 received by the CMOS area image sensor 22 is actually a band-like light having a width W, from No. 1 to No. 14. The linear reflected light is projected over the 14 light receiving elements 22b.

従って、CMOSエリアイメージセンサ22上における「行方向2画素×列方向7画素」の範囲に存在する受光素子22bが線状の反射光を受光することになるが、照射領域中心Aが列方向から若干傾いているため、各受光素子22bがそれぞれ受光する光量はそれぞれ異なることになる。   Therefore, the light receiving element 22b existing in the range of “2 pixels in the row direction × 7 pixels in the column direction” on the CMOS area image sensor 22 receives the linear reflected light, but the irradiation area center A is from the column direction. Since it is slightly tilted, the amount of light received by each light receiving element 22b is different.

ここで、この3次元距離測定装置10においては、線状の反射光を行方向における矢印B方向(図5(a)を参照する。)に1/7画素ずつ移動させ、この1/7画素の移動毎に各受光素子22bの受光光量を測定する。   Here, in the three-dimensional distance measuring apparatus 10, the linear reflected light is moved by 1/7 pixel in the arrow B direction (see FIG. 5A) in the row direction, and the 1/7 pixel. , The amount of light received by each light receiving element 22b is measured.

なお、従来のラインイメージセンサにおいては、反射光は1画素ずつ移動させ、1画素毎に反射光の情報を得ていた。   In the conventional line image sensor, the reflected light is moved pixel by pixel, and information on the reflected light is obtained for each pixel.

しかしながら、3次元距離測定装置10では、反射光の移動量を1画素よりさらに細分化し、スタートの位置から1/7画素ずつ行方向へ移動させて、その移動毎に反射光の情報を得るようになされている。   However, in the three-dimensional distance measuring apparatus 10, the amount of movement of the reflected light is further subdivided from one pixel, and moved by 1/7 pixel from the start position in the row direction, and information on the reflected light is obtained for each movement. Has been made.

このように、反射光を1/7画素ずつ移動する場合には、反射光を1画素ずつ移動する場合に比べて7倍の解像度で情報を処理することが必要となるが、後述するように3次元距離測定装置10においては高い分解能が達成されるため、反射光を1画素ずつ移動する場合に比べて7倍の解像度で情報を処理することが可能となり、より精確な計測を行うことが可能になる。   As described above, when the reflected light is moved by 1/7 pixels, it is necessary to process information at a resolution seven times that when the reflected light is moved by one pixel. Since the high resolution is achieved in the three-dimensional distance measuring apparatus 10, information can be processed with a resolution seven times that of moving reflected light pixel by pixel, and more accurate measurement can be performed. It becomes possible.

図5(b)には、図5(a)に示した例において線状の反射光を1/7画素ずつ1画素分行方向へ移動させた場合における、1番から14番の画素番号の受光素子22bでの1/7画素の移動毎の受光光量の強度分布が示されている。   FIG. 5B shows light reception of pixel numbers 1 to 14 when the linear reflected light is moved in the row direction by 1/7 pixels by one pixel in the example shown in FIG. The intensity distribution of the amount of received light for each movement of 1/7 pixel in the element 22b is shown.

また、線状の反射光を1/7画素ずつ1画素分行方向へ移動させるに際しては、図5(a)に示されている線状光の位置をスタートの位置とした。このスタート位置は移動量が0なので、図5(b)においては「0画素」として強度分布が示されている。この移動量0画素の位置で光量分布の重心位置計算を行うと、画素番号が7番と8番との受光素子22bの間に重心位置が存在していた。   Further, when the linear reflected light is moved by 1/7 pixels in the row direction, the position of the linear light shown in FIG. 5A is set as the start position. Since the movement amount at this start position is 0, the intensity distribution is shown as “0 pixel” in FIG. 5B. When calculating the gravity center position of the light amount distribution at the position of the movement amount 0 pixel, the gravity center position exists between the light receiving elements 22b with the pixel numbers 7 and 8.

次に、移動量0画素の位置から1/7画素分移動した移動量1/7画素における光量分布の重心位置は、画素番号が8番と9番との受光素子22bの間に存在している。   Next, the barycentric position of the light amount distribution in the movement amount 1/7 pixel moved by 1/7 pixel from the position of the movement amount 0 pixel exists between the light receiving elements 22b with the pixel numbers 8 and 9. Yes.

さらに、1/7画素分移動した移動量2/7画素における光量分布の重心位置は、画素番号が9番と10番との受光素子22bの間に重心位置が移動した。   Furthermore, the barycentric position of the light amount distribution in the movement amount 2/7 pixels moved by 1/7 pixel moved between the light receiving elements 22b with the pixel numbers 9 and 10.

移動量3/7画素以降も同様に、1/7画素分移動する毎に光量分布の重心位置は移動していく。   Similarly, after the movement amount of 3/7 pixels, the center of gravity position of the light amount distribution moves each time the movement is 1/7 pixels.

こうした1/7画素分の移動に伴う重心位置の移動量は、それぞれ同じ量の移動量であり、その量はちょうど1画素分である。つまり、線状の反射光が1/7画素分移動する毎に、重心位置は1画素分ずつずれて次の画素へと移動していく。   The amount of movement of the center of gravity position accompanying the movement of 1/7 pixels is the same amount of movement, and the amount is exactly one pixel. That is, every time the linear reflected light moves by 1/7 pixel, the center of gravity shifts by one pixel and moves to the next pixel.

即ち、実際には1/7画素分のみの移動が行われているものであるが、本発明による3次元距離測定装置10によれば、それが1画素分移動したという情報に変換される。こうして得られた情報は、実際の移動量の7倍であり、この情報を用いることにより7倍の解像度になるという効果が得られる。   In other words, in actuality, only the movement of 1/7 pixel is performed, but according to the three-dimensional distance measuring apparatus 10 according to the present invention, it is converted into information indicating that the movement is performed by one pixel. The information obtained in this way is seven times the actual movement amount, and using this information provides an effect that the resolution becomes seven times.


次に、上記した本発明による3次元距離測定装置10の作用について、図6(a)に示す受光面22aのより実際のCMOSエリアイメージセンサに近いモデルを用いて説明する。

Next, the operation of the above-described three-dimensional distance measuring apparatus 10 according to the present invention will be described using a model closer to the actual CMOS area image sensor of the light receiving surface 22a shown in FIG.

この図6(a)に示す受光面22aのモデルは、「行方向8画素×列方向7画素」の計測エリアを備えているものとする。画素番号は、図6(a)において最上段の列の最左側の行から最右側の行へ向けて順番に付され、最右側の行の次は一段下の列の最左側の行へ戻って上記と同様に付される。   The model of the light receiving surface 22a shown in FIG. 6A includes a measurement area of “8 pixels in the row direction × 7 pixels in the column direction”. The pixel numbers are assigned in order from the leftmost row of the uppermost column to the rightmost row in FIG. 6A, and the next rightmost row returns to the leftmost row of the next lower column. The same as above.

CMOSエリアイメージセンサ22においては、この図6(a)に示す画素番号の順番で各受光素子22bで取得された受光光量が出力される。   In the CMOS area image sensor 22, the received light quantity acquired by each light receiving element 22b is output in the order of the pixel numbers shown in FIG.

このため、図4(a)あるいは図5(b)に示した画素番号の順に解析するために、各受光素子22bからの出力を以下に説明するように処理する。   Therefore, in order to analyze in the order of the pixel numbers shown in FIG. 4A or FIG. 5B, the output from each light receiving element 22b is processed as described below.

図6(b)、図6(c)および図7には、こうした各受光素子22bからの出力の処理手法の概念図が示されている。   FIGS. 6B, 6C, and 7 show conceptual diagrams of processing methods of such outputs from the respective light receiving elements 22b.

即ち、図4(a)および図5(b)で示したように、メモリのアドレス上に画素番号が列方向の順で並ぶようにするために、各受光素子22bの出力を画素番号の順番で7画素毎にメモリのアドレス上に格納していく。   That is, as shown in FIGS. 4A and 5B, in order to arrange the pixel numbers in the order of the column direction on the memory addresses, the outputs of the respective light receiving elements 22b are arranged in the order of the pixel numbers. Thus, every 7 pixels are stored on the memory address.

つまり、各受光素子22bにおける出力の読み出しは、画素番号1、2、3、・・・、54、55、56の順で進んでいくが、各受光素子22bの出力を解析する際には画素番号1、9、17、・・・、40、48、56の順で処理を行いたいので、読み出した各受光素子22bの出力を処理したい順序に対応させて格納していく。   That is, the reading of the output from each light receiving element 22b proceeds in the order of pixel numbers 1, 2, 3,..., 54, 55, 56. Since it is desired to perform processing in the order of numbers 1, 9, 17,..., 40, 48, 56, the read outputs of the respective light receiving elements 22b are stored in correspondence with the order of processing.

即ち、1列目の受光素子22bの読み出しにおいては、図6(a)に示すように、画素番号1、画素番号2、画素番号3、画素番号4、画素番号5、画素番号6、画素番号7および画素番号8の出力が得られるが、得られた出力は希望する順序に処理できるように調整して格納されるものであり、画素番号1の出力は処理順序が1番目になるようアドレス1に格納し、次に読み出される画素番号2の出力は8番目に処理を行いたいのでアドレス8に格納し、画素番号3の出力は15番目に処理を行いたいのでアドレス15に格納し、画素番号4以降も同様にして格納する。   That is, in the reading of the light receiving elements 22b in the first column, as shown in FIG. 6A, the pixel number 1, the pixel number 2, the pixel number 3, the pixel number 4, the pixel number 5, the pixel number 6, and the pixel number 7 and pixel number 8 are obtained. The obtained output is adjusted and stored so that it can be processed in a desired order. The output of pixel number 1 is addressed so that the processing order is first. Since the output of pixel number 2 which is stored in 1 and read out next is to be processed eighth, it is stored in address 8, and the output of pixel number 3 is stored in address 15 because it is desired to perform processing 15th. The numbers 4 and after are stored in the same manner.

つまり、各受光素子22bの出力が所望の順序が処理されるように、画素番号1と画素番号2との間は6アドレス分あけて出力を格納し、また、画素番号2と画素番号3との間も6アドレス分あけて出力を格納するというようにして、各受光素子22bの出力を6アドレス分の間隔を開けてメモリのアドレス上に格納していく。   That is, the outputs are stored with 6 addresses between the pixel number 1 and the pixel number 2 so that the outputs of the light receiving elements 22b are processed in a desired order, and the pixel numbers 2 and 3 The output is stored for 6 addresses in the interval, and the output of each light receiving element 22b is stored on the memory address with an interval of 6 addresses.

そして、2列目の受光素子22bの読み出しにおいては、図6(b)に示すように、画素番号9、画素番号10、画素番号11、画素番号12、画素番号13、画素番号14、画素番号15、画素番号16のデータが得られる。   In the reading of the light receiving elements 22b in the second column, as shown in FIG. 6B, the pixel number 9, the pixel number 10, the pixel number 11, the pixel number 12, the pixel number 13, the pixel number 14, and the pixel number 15. Data of pixel number 16 is obtained.

この2列目の受光素子22bの読み出しにおいても、1列目の受光素子22bの読み出しと同様に、読み出した各受光素子22bの出力を処理したい順序に対応させて格納していく。   Also in the reading of the light receiving elements 22b in the second column, similarly to the reading of the light receiving elements 22b in the first column, the read outputs of the respective light receiving elements 22b are stored in correspondence with the order of processing.

即ち、画素番号9の出力は処理順序が2番目になるようアドレス2に格納し、画素番号10以降については、1列目の処理と同様に、6アドレス分あけて出力を順次に格納していく。   That is, the output of pixel number 9 is stored at address 2 so that the processing order is second, and for pixel number 10 and later, the output is sequentially stored with 6 addresses as in the first column processing. Go.

図7には、上記のようにして1列目から7列目までの画素番号を処理する手法を概念的に示しており、各受光素子22bの出力は各列毎に6アドレスごとに格納し、すべての受光素子22bの出力を一列のラインに並びかえたものを示している。   FIG. 7 conceptually shows a method of processing the pixel numbers from the first column to the seventh column as described above, and the output of each light receiving element 22b is stored every six addresses for each column. FIG. 5 shows the arrangement in which the outputs of all the light receiving elements 22b are arranged in a line.

これは、計測用エリアの各受光素子22bの出力を解析処理時の画素番号に対応させて並び替えたものであり、これにより図4(a)に示した順序、つまり、自動的に処理方向である列方向に沿って読み出した場合と同じ結果を得ることができる。

そして、上記で説明した本発明による3次元計測装置10により得られる分解能は、計測エリアが列方向に7画素分、行方向に1288画素分であることより、前画素数は9016となり、6μmピッチのCMOSエリアイメージセンサ22を用いて分解能が7倍になったことから、0.857μmピッチに相当することになる(図8(a)参照。)。
This is the result of rearranging the outputs of the respective light receiving elements 22b in the measurement area in correspondence with the pixel numbers at the time of the analysis process, whereby the order shown in FIG. The same result as when reading along the column direction can be obtained.

The resolution obtained by the three-dimensional measuring apparatus 10 according to the present invention described above is 9016 in terms of the measurement area of 7 pixels in the column direction and 1288 pixels in the row direction. Since the resolution was increased 7 times using the CMOS area image sensor 22, this corresponds to a pitch of 0.857 μm (see FIG. 8A).

また、図9(a)は本発明による3次元計測装置10の測距特性を示すグラフであり、図9(b)は従来のラインイメージセンサの測距特性を示すグラフである。   FIG. 9A is a graph showing the distance measurement characteristics of the three-dimensional measuring apparatus 10 according to the present invention, and FIG. 9B is a graph showing the distance measurement characteristics of the conventional line image sensor.

即ち、図9(a)は、列方向に7画素分使用した本発明による3次元計測装置10により得られた測距特性を示すグラフであり、縦軸にCMOSエリアイメージセンサ22上の重心位置(μm)をとり、横軸に受光面22aから測定対象物16までの距離(mm)をとっている。また、図9(b)は、従来のラインイメージセンサ、即ち、1列の画素のみを使用した場合に得られた測距特性を示すグラフであり、縦軸にラインイメージセンサ上の重心位置(μm)をとり、ラインイメージセンサから測定対象物16までの距離(mm)をとっている。   9A is a graph showing distance measurement characteristics obtained by the three-dimensional measurement apparatus 10 according to the present invention using seven pixels in the column direction, and the vertical axis indicates the position of the center of gravity on the CMOS area image sensor 22. (Μm) is taken, and the distance (mm) from the light receiving surface 22a to the measuring object 16 is taken on the horizontal axis. FIG. 9B is a graph showing distance measurement characteristics obtained when using a conventional line image sensor, that is, only one column of pixels, and the vertical axis indicates the position of the center of gravity on the line image sensor ( μm), and the distance (mm) from the line image sensor to the measurement object 16 is taken.

この図9(a)と図9(b)とを比較すると、図9(a)は図9(b)よりも測距特性が滑らかに変化しており、分解能が向上したことを示している。   Comparing FIG. 9 (a) and FIG. 9 (b), FIG. 9 (a) shows that the distance measurement characteristics change more smoothly than FIG. 9 (b), and the resolution is improved. .


ところで、基線に対する照射領域中心Aの傾斜角度θは、図8(b)に示すように、
θ=tan−1(n+1)
によって決定される。ここで、nは、計測用エリア内における列方向の画素数を示している。

By the way, the inclination angle θ of the irradiation area center A with respect to the base line is as shown in FIG.
θ = tan −1 (n + 1)
Determined by. Here, n indicates the number of pixels in the column direction in the measurement area.

つまり、本発明による3次元計測装置10では、計測用エリア内における列方向の画素数は「7」であったので、「n=7」となり、
θ=tan−1(n+1)
=tan−1(7+1)=82.9

上記において説明したように、本発明による3次元距離測定装置10を用いれば、従来の3次元距離測定装置と同様な光学系を使用し、さらに、従来の3次元距離測定装置と同等の強度の光を使用しているにもかかわらず、光の照射方法およびデータの処理方法に手を加えることで、これまでのものよりも装置が小型で、かつ、高分解能な距離測定装置を実現する事ができる。
That is, in the three-dimensional measurement apparatus 10 according to the present invention, the number of pixels in the column direction in the measurement area is “7”, so “n = 7”.
θ = tan −1 (n + 1)
= Tan −1 (7 + 1) = 82.9

As described above, when the three-dimensional distance measuring device 10 according to the present invention is used, the same optical system as that of the conventional three-dimensional distance measuring device is used, and furthermore, the strength of the conventional three-dimensional distance measuring device is the same. Despite the use of light, by modifying the light irradiation method and data processing method, it is possible to realize a distance measuring device that is smaller in size and higher in resolution than conventional ones. Can do.


なお、上記した実施の形態は、以下の(1)乃至(4)に示すように変形することができるものである。

The embodiment described above can be modified as shown in the following (1) to (4).

(1)上記した実施の形態においては、CMOSエリアイメージセンサ22がモノクロイメージセンサである場合について説明したが、これに限られるものではないことは勿論であり、CMOSエリアイメージセンサ22はカラーイメージセンサでもよい。   (1) In the above embodiment, the case where the CMOS area image sensor 22 is a monochrome image sensor has been described. However, the present invention is not limited to this, and the CMOS area image sensor 22 is a color image sensor. But you can.

図10(a)には、本発明による3次元距離測定装置10において、CMOSエリアイメージセンサ22に代えて用いることができるCMOSエリアイメージセンサ102の概念説明図が示されている。   FIG. 10A is a conceptual explanatory diagram of a CMOS area image sensor 102 that can be used in place of the CMOS area image sensor 22 in the three-dimensional distance measuring apparatus 10 according to the present invention.

このCMOSエリアイメージセンサ102は、正方形形状の4つ配置された受光素子(画素)から形成されるブロックが格子状に複数整列して構成されている。なお、4つの受光素子とは、1個の赤色受光素子102a、2個の緑色受光素子102b、一個の青色受光画素102cである。   The CMOS area image sensor 102 is configured by arranging a plurality of blocks formed of four light receiving elements (pixels) arranged in a square shape in a lattice shape. The four light receiving elements are one red light receiving element 102a, two green light receiving elements 102b, and one blue light receiving pixel 102c.

ここで、CMOSエリアイメージセンサ102上に反射光として赤色の線状光が投光される場合には、当該赤色の線状光は赤色受光素子102aにより受光されるので、CMOSエリアイメージセンサ102が有する受光素子のなかで、測定に際して必要とされるのは赤色受光素子102aのみである。図10(b)には、CMOSエリアイメージセンサ102より赤色受光素子102aのみを抜粋した概念説明図が示されている。   Here, when red linear light is projected as reflected light onto the CMOS area image sensor 102, the red linear light is received by the red light receiving element 102a. Among the light receiving elements that are included, only the red light receiving element 102a is required for measurement. FIG. 10B shows a conceptual explanatory diagram in which only the red light receiving element 102 a is extracted from the CMOS area image sensor 102.

従って、赤色の線状光を投光する場合は、図10(b)に示すような配列の受光素子、即ち、CMOSエリアイメージセンサ22と同様な配列の受光素子で受光するものと見なすことができ、CMOSエリアイメージセンサ102は、上記したCMOSエリアイメージセンサ22と同様にして用いることが可能である。   Therefore, when projecting red linear light, it can be considered that light is received by the light receiving elements arranged as shown in FIG. 10B, that is, the light receiving elements arranged in the same manner as the CMOS area image sensor 22. The CMOS area image sensor 102 can be used in the same manner as the CMOS area image sensor 22 described above.

(2)上記した実施の形態においては、CMOSエリアイメージセンサ22上の受光素子の使用範囲を、「列方向7画素×行方向1288画素」としたが、これに限られるものではないことは勿論であり、列方向や行方向の受光素子数は任意の数に設定することができる。   (2) In the above-described embodiment, the use range of the light receiving element on the CMOS area image sensor 22 is “7 pixels in the column direction × 1288 pixels in the row direction”. However, the present invention is not limited to this. The number of light receiving elements in the column direction and the row direction can be set to an arbitrary number.

(3)上記した実施の形態においては、測定対象物16から反射されたレーザー光を線状の反射光に変換するためにシリンダーレンズ20を配置したが、これに限られるものではないことは勿論であり、測定対象物16から反射されたレーザー光のプロファイルを線状に変えることができるものであればよく、例えば、フレネルレンズやスリットなどを適宜に選択するようにしてもよい。   (3) In the above-described embodiment, the cylinder lens 20 is arranged to convert the laser light reflected from the measurement object 16 into linear reflected light. However, the present invention is not limited to this. As long as the profile of the laser beam reflected from the measurement object 16 can be changed into a linear shape, for example, a Fresnel lens, a slit, or the like may be appropriately selected.

(4)上記した実施の形態ならびに上記した(1)乃至(3)に示す変形例は、適宜に組み合わせるようにしてもよい。   (4) You may make it combine suitably the embodiment shown above and the modification shown in said (1) thru | or (3).

本発明は、立体的な物体の形状を測定する際に利用することができるものであり、例えば、ロボットアームと当該ロボットアームにより把持すべき物体との距離を測定する際などに利用することができる。   The present invention can be used when measuring the shape of a three-dimensional object, for example, when measuring the distance between a robot arm and an object to be gripped by the robot arm. it can.

図1は、本発明の実施の形態の一例による3次元距離測定装置の概念構成説明図である。FIG. 1 is a conceptual configuration explanatory diagram of a three-dimensional distance measuring apparatus according to an example of an embodiment of the present invention. 図2は、CMOSエリアイメージセンサの受光面の概念構成説明図である。FIG. 2 is an explanatory diagram of a conceptual configuration of the light receiving surface of the CMOS area image sensor. 図3は、CMOSエリアイメージセンサの受光面の一部を拡大して示した説明図である。FIG. 3 is an explanatory diagram showing an enlarged part of the light receiving surface of the CMOS area image sensor. 図4(a)は、CMOSエリアイメージセンサの受光面に線状の反射光を投光した場合の概念説明図であり、図4(b)は、CMOSエリアイメージセンサの受光面に整列配置された各受光素子からの出力を示す説明図である。FIG. 4A is a conceptual explanatory diagram when linear reflected light is projected onto the light receiving surface of the CMOS area image sensor, and FIG. 4B is arranged in alignment with the light receiving surface of the CMOS area image sensor. It is explanatory drawing which shows the output from each light receiving element. 図5(a)は、CMOSエリアイメージセンサの受光面の簡単なモデルを示す概念説明図であり、図5(b)は、CMOSエリアイメージセンサの受光面に整列配置された各受光素子からの出力を示す説明図である。FIG. 5A is a conceptual explanatory diagram showing a simple model of the light receiving surface of the CMOS area image sensor, and FIG. 5B is a view from each light receiving element arranged in alignment on the light receiving surface of the CMOS area image sensor. It is explanatory drawing which shows an output. 図6(a)は、CMOSエリアイメージセンサの受光面の実際のCMOSエリアイメージセンサに近いモデルを示す概念説明図であり、図6(b)は、CMOSエリアイメージセンサの受光面に整列配置された各受光素子からの出力を示す説明図であり、図6(c)は、CMOSエリアイメージセンサの受光面に整列配置された各受光素子からの出力を示す説明図である。FIG. 6A is a conceptual explanatory diagram showing a model of the light receiving surface of the CMOS area image sensor close to the actual CMOS area image sensor, and FIG. 6B is arranged in alignment with the light receiving surface of the CMOS area image sensor. FIG. 6C is an explanatory diagram showing outputs from the light receiving elements arranged in alignment on the light receiving surface of the CMOS area image sensor. 図7は、CMOSエリアイメージセンサの受光面に整列配置された各受光素子からの出力を示す説明図である。FIG. 7 is an explanatory diagram showing outputs from the respective light receiving elements arranged in alignment on the light receiving surface of the CMOS area image sensor. 図8(a)(b)は、CMOSエリアイメージセンサの受光面の概念構成説明図である。FIGS. 8A and 8B are explanatory diagrams of the conceptual configuration of the light receiving surface of the CMOS area image sensor. 図9(a)は本発明による3次元計測装置の測距特性を示すグラフであり、図9(b)は従来のラインイメージセンサの測距特性を示すグラフである。FIG. 9A is a graph showing the distance measurement characteristics of the three-dimensional measuring apparatus according to the present invention, and FIG. 9B is a graph showing the distance measurement characteristics of the conventional line image sensor. 図10(a)は、カラーイメージセンサであるCMOSエリアイメージセンサの概念説明図であり、図10(b)は、図10(a)に示すCMOSエリアイメージセンサより赤色受光素子のみを抜粋した概念説明図である。10A is a conceptual explanatory diagram of a CMOS area image sensor which is a color image sensor, and FIG. 10B is a concept in which only a red light receiving element is extracted from the CMOS area image sensor shown in FIG. It is explanatory drawing.

符号の説明Explanation of symbols

10 3次元距離測定装置
12 レーザー光源
14 測定対象物載置台
16 測定対象物
18 集光レンズ
20 シリンダーレンズ
22 CMOSエリアイメージセンサ
22a 受光面
22b 受光素子(画素)
102 CMOSエリアイメージセンサ
102a 赤色受光素子
102b 緑色受光素子
102c 青色受光素子
DESCRIPTION OF SYMBOLS 10 3D distance measuring device 12 Laser light source 14 Measurement object mounting base 16 Measurement object 18 Condensing lens 20 Cylinder lens 22 CMOS area image sensor 22a Light receiving surface 22b Light receiving element (pixel)
102 CMOS area image sensor 102a Red light receiving element 102b Green light receiving element 102c Blue light receiving element

Claims (8)

測定対象物にレーザー光を照射して前記測定対象物からの反射光をエリアイメージセンサにより受光し、前記エリアイメージセンサ上における受光位置に基づいて前記測定対象物までの距離を測定する3次元距離測定方法において、
レーザー光を照射された測定対象物からの反射光を線状光に変換し、
格子状に整列して複数配置された受光素子を有するエリアイメージセンサに対し、前記線状光を前記エリアイメージセンサ上における照射領域の延長方向が前記整列した複数の受光素子の所定の整列方向に対して所定の角度θをもって傾くように照射し、
前記照射領域の延長方向に沿う順序で前記受光素子の出力を取得し、
前記取得した受光素子の出力に応じて前記測定対象物までの距離を測定する
ことを特徴とする3次元距離測定方法。
A three-dimensional distance that irradiates a measurement object with laser light, receives reflected light from the measurement object by an area image sensor, and measures a distance to the measurement object based on a light receiving position on the area image sensor In the measurement method,
Converts the reflected light from the measurement object irradiated with laser light into linear light,
For an area image sensor having a plurality of light receiving elements arranged in a grid, the extension direction of the irradiation region on the area image sensor is in a predetermined alignment direction of the aligned light receiving elements. Irradiate with a predetermined angle θ to tilt,
Obtaining the output of the light receiving element in the order along the extending direction of the irradiation region;
A distance to the measurement object is measured according to the acquired output of the light receiving element.
請求項1に記載の3次元距離測定方法において、
前記所定の角度θは、
θ=tan−1(n+1)
n:前記照射領域の延長方向に沿って配置された受光素子の数
である
ことを特徴とする3次元距離測定方法。
The three-dimensional distance measuring method according to claim 1,
The predetermined angle θ is
θ = tan −1 (n + 1)
n: the number of light receiving elements arranged along the extending direction of the irradiation region.
請求項1または2のいずれか1項に記載の3次元距離測定方法において、
前記測定対象物からの反射光をシリンダーレンズに入射して線状光に変換する
ことを特徴とする3次元距離測定方法。
In the three-dimensional distance measuring method according to any one of claims 1 and 2,
A three-dimensional distance measuring method, wherein reflected light from the measurement object is incident on a cylinder lens and converted into linear light.
請求項1、2または3のいずれか1項に記載の3次元距離測定方法において、
前記エリアイメージセンサは、モノクロイメージセンサまたはカラーイメージセンサである
ことを特徴とする3次元距離測定方法。
In the three-dimensional distance measuring method according to any one of claims 1, 2, or 3,
The area image sensor is a monochrome image sensor or a color image sensor.
測定対象物にレーザー光を照射して前記測定対象物からの反射光をエリアイメージセンサにより受光し、前記エリアイメージセンサ上における受光位置に基づいて前記測定対象物までの距離を測定する3次元距離測定装置において、
格子状に整列して複数配置された受光素子を有するエリアイメージセンサと、
レーザー光を照射された測定対象物からの反射光を線状光に変換するとともに、前記エリアイメージセンサに対し、前記線状光を前記エリアイメージセンサ上における照射領域の延長方向が前記整列した複数の受光素子の所定の整列方向に対して所定の角度θをもって傾くように照射する照射手段と、
前記照射領域の延長方向に沿う順序で前記受光素子の出力を取得する取得手段と
を有し、前記取得手段により取得した受光素子の出力に応じて前記測定対象物までの距離を測定する
ことを特徴とする3次元距離測定装置。
A three-dimensional distance that irradiates a measurement object with laser light, receives reflected light from the measurement object by an area image sensor, and measures a distance to the measurement object based on a light receiving position on the area image sensor In the measuring device,
An area image sensor having a plurality of light receiving elements arranged in a grid pattern;
The reflected light from the measurement object irradiated with the laser light is converted into linear light, and the extension direction of the irradiation region on the area image sensor is aligned with respect to the area image sensor. Irradiating means for irradiating with a predetermined angle θ with respect to a predetermined alignment direction of the light receiving elements;
Obtaining means for obtaining the output of the light receiving element in the order along the extending direction of the irradiation region, and measuring the distance to the measurement object according to the output of the light receiving element obtained by the obtaining means. A characteristic three-dimensional distance measuring device.
請求項5に記載の3次元距離測定装置において、
前記所定の角度θは、
θ=tan−1(n+1)
n:前記照射領域の延長方向に沿って配置された受光素子の数
である
ことを特徴とする3次元距離測定装置。
The three-dimensional distance measuring device according to claim 5,
The predetermined angle θ is
θ = tan −1 (n + 1)
n: the number of light receiving elements arranged along the extending direction of the irradiation region.
請求項5または6のいずれか1項に記載の3次元距離測定装置において、
前記照射手段は、シリンダーレンズである
ことを特徴とする3次元距離測定装置。
The three-dimensional distance measuring device according to any one of claims 5 and 6,
The irradiation means is a cylinder lens. A three-dimensional distance measuring device.
請求項5、6または7のいずれか1項に記載の3次元距離測定装置において、
前記エリアイメージセンサは、モノクロイメージセンサまたはカラーイメージセンサである
ことを特徴とする3次元距離測定装置。
In the three-dimensional distance measuring device according to any one of claims 5, 6 and 7,
The area image sensor is a monochrome image sensor or a color image sensor.
JP2005363673A 2005-12-16 2005-12-16 Three-dimensional distance measuring method, and instrument therefor Pending JP2007163429A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2005363673A JP2007163429A (en) 2005-12-16 2005-12-16 Three-dimensional distance measuring method, and instrument therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005363673A JP2007163429A (en) 2005-12-16 2005-12-16 Three-dimensional distance measuring method, and instrument therefor

Publications (1)

Publication Number Publication Date
JP2007163429A true JP2007163429A (en) 2007-06-28

Family

ID=38246483

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005363673A Pending JP2007163429A (en) 2005-12-16 2005-12-16 Three-dimensional distance measuring method, and instrument therefor

Country Status (1)

Country Link
JP (1) JP2007163429A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2151742A1 (en) 2008-07-29 2010-02-10 Nitto Denko Corporation Three-dimensional sensor optical waveguide, and three-dimensional sensor employing the same
WO2015097235A1 (en) * 2013-12-23 2015-07-02 University College Cork - National University Of Ireland, Cork Three dimensional laser beam modulation-based modules for sensing, communications and remote energy delivery
CN107436439A (en) * 2016-05-27 2017-12-05 科沃斯机器人股份有限公司 The installation method of laser ranging system and its sensitive chip
CN110501714A (en) * 2019-08-16 2019-11-26 深圳奥锐达科技有限公司 A kind of range finder and distance measurement method
CN112703366A (en) * 2018-09-18 2021-04-23 村上直之 Method for measuring distance of image reflected on TV camera

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2151742A1 (en) 2008-07-29 2010-02-10 Nitto Denko Corporation Three-dimensional sensor optical waveguide, and three-dimensional sensor employing the same
US8135246B2 (en) 2008-07-29 2012-03-13 Nitto Denko Corporation Three-dimensional sensor optical waveguide, and three-dimensional sensor employing the same
WO2015097235A1 (en) * 2013-12-23 2015-07-02 University College Cork - National University Of Ireland, Cork Three dimensional laser beam modulation-based modules for sensing, communications and remote energy delivery
CN107436439A (en) * 2016-05-27 2017-12-05 科沃斯机器人股份有限公司 The installation method of laser ranging system and its sensitive chip
CN112703366A (en) * 2018-09-18 2021-04-23 村上直之 Method for measuring distance of image reflected on TV camera
CN110501714A (en) * 2019-08-16 2019-11-26 深圳奥锐达科技有限公司 A kind of range finder and distance measurement method

Similar Documents

Publication Publication Date Title
JP4426519B2 (en) Optical height detection method, electron beam measuring device, and electron beam inspection device
JP6211523B2 (en) High-speed autofocus system
JP5515432B2 (en) 3D shape measuring device
US9081187B2 (en) Multiple parallel confocal system and surface measurement method using the same
KR101273094B1 (en) The measurement method of PCB bump height by using three dimensional shape detector using optical triangulation method
KR20130014018A (en) Focusing position adjusting method, focusing position adjusting apparatus, and laser processing apparatus
TWI705231B (en) Displacement measuring device and electron beam inspection device
JP2008039771A (en) Apparatus and method for measuring height profile of structural substrate
JP2004191092A (en) Three-dimensional information acquisition system
JP2007163429A (en) Three-dimensional distance measuring method, and instrument therefor
JP2003211346A (en) Precision analyzing instrument for machine tool
US20110025823A1 (en) Three-dimensional measuring apparatus
KR101867390B1 (en) Laser processing apparatus and laser processing method
WO2019180899A1 (en) Appearance inspection device
JP6179366B2 (en) Standard gauge, three-dimensional measuring apparatus, and calibration method for three-dimensional measuring apparatus
JP2006292513A (en) Refractive index distribution measuring method for refractive index distribution type lens
JP5786999B2 (en) Three-dimensional shape measuring device, calibration method for three-dimensional shape measuring device
JP6270264B2 (en) Information processing apparatus, information processing method, program, measurement apparatus, and measurement method
CN115398307A (en) Reference sample for microscope, method and use
JP2007033039A (en) Method and device for calibrating optical head part in three-dimensional shape measuring instrument by optical cutting method
JP2018119817A (en) Shape measurement device and shape measurement method
JPH11230718A (en) Ball height measuring method of ball grid array
JP2018146496A (en) Surface shape measurement method
JP6847012B2 (en) Multi-chamber analyzer and analytical method
JP3134926B2 (en) Method and apparatus for measuring radiation angle of semiconductor laser