JP2002031516A - Three-dimensional image input device - Google Patents

Three-dimensional image input device

Info

Publication number
JP2002031516A
JP2002031516A JP2000217152A JP2000217152A JP2002031516A JP 2002031516 A JP2002031516 A JP 2002031516A JP 2000217152 A JP2000217152 A JP 2000217152A JP 2000217152 A JP2000217152 A JP 2000217152A JP 2002031516 A JP2002031516 A JP 2002031516A
Authority
JP
Japan
Prior art keywords
light
distance
beams
measured
dimensional image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000217152A
Other languages
Japanese (ja)
Inventor
Kiyoshi Yamamoto
山本  清
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pentax Corp
Original Assignee
Asahi Kogaku Kogyo Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Asahi Kogaku Kogyo Co Ltd filed Critical Asahi Kogaku Kogyo Co Ltd
Priority to JP2000217152A priority Critical patent/JP2002031516A/en
Publication of JP2002031516A publication Critical patent/JP2002031516A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

PROBLEM TO BE SOLVED: To measure the three-dimensional image of a measured object at a high speed and with a sufficient accuracy. SOLUTION: A lens 53, a diffraction optical element 54, and a mirror 55 are disposed on the optical axis of a light emitting element 51. The lens 53 forms the beam spot of a laser beam outputted from the light emitting element 51 in a specified shape such as a circular shape. The diffraction optical element 54 divides the laser beam radiated through the lens 53 into a plurality of slit beams. The plurality of slit beams are reflected on the mirror 55, and projected on a measured object S. The mirror 55 is installed on the rotating shaft of the galvano meter 56. The plurality of slit beams on the surface of the measured object S are identified in accordance with an optical propagation time measurement (TOF) method. For each identified slit beam, a three-dimensional shape is detected in accordance with an optical cutting method.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、レーザ光を被計測
物体に照射し、その反射光を検出することによって、被
計測物体の3次元形状を検出する3次元画像入力装置に
関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a three-dimensional image input device for irradiating a measurement object with a laser beam and detecting reflected light to detect a three-dimensional shape of the measurement object.

【0002】[0002]

【従来の技術】従来この種の3次元画像入力装置とし
て、光切断法を用いたものと、光伝播時間測定(TO
F)法を用いたものがある。光切断法では通常、1本の
線状に成形されたレーザ光(スリット光)が被計測物体
の表面に照射されてCCDにより検出される。そして、
光源とCCDと被計測物体上のスリット光との幾何学的
な位置関係に基づいて、被計測物体の表面におけるスリ
ット光の形状、すなわちスリット光に沿った被計測物体
の位置座標が計測される。スリット光は、その長手方向
に垂直な方向に沿って走査され、複数の位置毎に、スリ
ット光に沿った被計測物体の位置座標が計測されて、被
計測物体の3次元画像が求められる。これに対してTO
F法では、パルス状のレーザ光が被計測物体に対して照
射され、被計測物体からのパルス状の反射光がCCDか
ら成るエリアセンサによって検出される。CCDの各フ
ォトダイオードは被計測物体の表面の各点に対応してお
り、パルス状の反射光に応じて各フォトダイオードに蓄
積した電荷が垂直転送CCDにおいて積分され、その積
分値すなわち輝度値は被計測物体の表面の各点までの距
離に対応している。
2. Description of the Related Art Conventionally, as a three-dimensional image input device of this type, a device using a light section method and a light propagation time measurement (TO
Some methods use the F) method. In the light cutting method, usually, one linearly shaped laser beam (slit beam) is irradiated on the surface of the measured object and detected by the CCD. And
The shape of the slit light on the surface of the measured object, that is, the position coordinates of the measured object along the slit light, is measured based on the geometric positional relationship between the light source, the CCD, and the slit light on the measured object. . The slit light is scanned along a direction perpendicular to the longitudinal direction, the position coordinates of the measured object along the slit light are measured for each of a plurality of positions, and a three-dimensional image of the measured object is obtained. On the other hand, TO
In the F method, a pulsed laser beam is applied to an object to be measured, and pulsed reflected light from the object to be measured is detected by an area sensor including a CCD. Each photodiode of the CCD corresponds to each point on the surface of the object to be measured, and the electric charge accumulated in each photodiode in response to the pulsed reflected light is integrated in the vertical transfer CCD, and the integrated value, that is, the luminance value is It corresponds to the distance to each point on the surface of the measured object.

【0003】[0003]

【発明が解決しようとする課題】光切断法による3次元
画像の検出では、1つの画面内に複数のスリット光が存
在すると各スリット光を識別できないため、通常は1つ
の画面に1本のスリット光しか存在させることができな
い。したがって被計測物体の全体に関して3次元画像を
検出しようとすると、上述のようにスリット光を走査さ
せる必要があり、計測時間が長くかかるという問題があ
る。これに対してTOF法では、被計測物体の全体につ
いて距離データが一括して検出できるため、計測に要す
る時間は短いが、被計測物体の表面の各点における距離
データ、すなわちCCDの各フォトダイオードにおける
電荷蓄積量の検出精度は悪く、10mm程度の分解能しか得
られない。
In the detection of a three-dimensional image by the light sectioning method, when a plurality of slit lights exist in one screen, each slit light cannot be identified. Therefore, one slit is usually provided in one screen. Only light can exist. Therefore, when trying to detect a three-dimensional image with respect to the entire measurement object, it is necessary to scan the slit light as described above, and there is a problem that the measurement time is long. On the other hand, in the TOF method, since the distance data can be collectively detected for the entire object to be measured, the time required for measurement is short, but the distance data at each point on the surface of the object to be measured, that is, each photodiode of the CCD The detection accuracy of the charge accumulation amount is low, and only a resolution of about 10 mm can be obtained.

【0004】本発明は、被計測物体の3次元画像を高速
で、しかも十分な精度で計測することができる3次元画
像入力装置を提供することを目的としている。
An object of the present invention is to provide a three-dimensional image input device capable of measuring a three-dimensional image of an object to be measured at high speed and with sufficient accuracy.

【0005】[0005]

【課題を解決するための手段】本発明の3次元画像入力
装置は、時間的にパルス状に変化するレーザ光を、複数
のビームに成形して被計測物体に照射する光源と、被計
測物体からの反射光を受光する撮像素子と、反射光に基
づいて、光伝播時間測定法に従って、被計測物体の表面
における複数のビームの照射位置までの距離に対応した
第1の距離データを検出する第1の距離検出手段と、第
1の距離データに基づいて、複数のビームを識別するビ
ーム識別手段と、ビーム識別手段によって識別されたビ
ームに基づいて、光切断法に従って、被計測物体の表面
におけるビームの位置までの距離に対応した第2の距離
データを検出する第2の距離検出手段とを備えることを
特徴としている。
According to the present invention, there is provided a three-dimensional image input apparatus comprising: a light source for forming a laser beam which changes in a time-pulse manner into a plurality of beams; Detecting first distance data corresponding to the distance to the irradiation position of the plurality of beams on the surface of the object to be measured, based on the reflected light and an image sensor that receives the reflected light from the object according to the light propagation time measurement method A first distance detecting means, a beam identifying means for identifying a plurality of beams based on the first distance data, and a surface of the object to be measured in accordance with a light-section method based on the beams identified by the beam identifying means. And a second distance detecting means for detecting second distance data corresponding to the distance to the position of the beam in.

【0006】光源は、レーザ光を複数のビームに分割す
るために例えば回折光学素子を備える。回折光学素子を
用いることにより、種々の形態のビームを成形すること
が容易になる。複数のビームは、平面に照射されたとき
に略等間隔に並ぶ縞状のスリット光、あるいは点状のス
ポット光である。
The light source includes, for example, a diffractive optical element for splitting the laser beam into a plurality of beams. By using a diffractive optical element, it is easy to shape beams of various forms. The plurality of beams are stripe-shaped slit light or dot-shaped spot light arranged at substantially equal intervals when irradiated on a plane.

【0007】第1の距離検出手段は、複数のビームのそ
れぞれについて、第1の距離データを検出してメモリに
記憶し、第2の距離検出手段が、メモリから読み出され
た第1の距離データに対応した位置の情報に基づいて、
光切断法に従って、第2の距離データを検出してもよ
い。
The first distance detecting means detects first distance data for each of the plurality of beams and stores the data in a memory, and the second distance detecting means detects the first distance data read from the memory. Based on the location information corresponding to the data,
The second distance data may be detected according to the light section method.

【0008】好ましくはビーム識別手段は、光源、撮像
素子および識別されたビームの相対的な位置関係と第1
の距離データとに基づいて、複数のビームを識別する。
Preferably, the beam discriminating means includes a light source, an image pickup device, and a relative positional relationship between the discriminated beam and the first position.
And a plurality of beams based on the distance data.

【0009】3次元画像入力装置は、被計測物体に対す
る複数のビームの照射位置を変更する照射位置制御手段
を備えていてもよい。
[0009] The three-dimensional image input device may include an irradiation position control means for changing the irradiation positions of the plurality of beams on the object to be measured.

【0010】[0010]

【発明の実施の形態】以下、本発明の実施の形態を図面
を参照して説明する。図1は本発明の一実施形態である
3次元画像入力装置を備えたカメラの斜視図である。
Embodiments of the present invention will be described below with reference to the drawings. FIG. 1 is a perspective view of a camera provided with a three-dimensional image input device according to an embodiment of the present invention.

【0011】カメラ本体10の前面において、撮影レン
ズ11の左上にはファインダ窓12が設けられ、右上に
はストロボ13が設けられている。カメラ本体10の上
面において、撮影レンズ11の真上には、測距光である
レーザ光を照射する発光装置50が配設されている。発
光装置50の左側にはレリーズスイッチ15と液晶表示
パネル16とスキャン実行ボタン17が設けられてい
る。カメラ本体10の側面には、ICメモリカード等の
記録媒体を挿入するためのカード挿入口19が形成さ
れ、またビデオ出力端子20とインターフェースコネク
タ21が設けられている。
On the front of the camera body 10, a finder window 12 is provided at the upper left of the taking lens 11, and a flash 13 is provided at the upper right. On the upper surface of the camera body 10 and right above the taking lens 11, a light emitting device 50 for irradiating a laser beam as distance measuring light is provided. On the left side of the light emitting device 50, a release switch 15, a liquid crystal display panel 16, and a scan execution button 17 are provided. On the side of the camera body 10, a card insertion slot 19 for inserting a recording medium such as an IC memory card is formed, and a video output terminal 20 and an interface connector 21 are provided.

【0012】図2は図1に示すカメラの回路構成を示す
ブロック図である。撮影レンズ11の中には絞り25が
設けられている。絞り25の開度はアイリス駆動回路2
6によって調整される。撮影レンズ11の焦点調節動作
およびズーミング動作はレンズ駆動回路27によって制
御される。レンズ駆動回路27によって撮影レンズ11
の光軸方向の位置、すなわち撮影レンズ11の焦点距離
が検出され、システムコントロール回路35に伝送され
る。
FIG. 2 is a block diagram showing a circuit configuration of the camera shown in FIG. An aperture 25 is provided in the taking lens 11. The opening of the aperture 25 is determined by the iris drive circuit 2.
Adjusted by 6. The focus adjustment operation and the zooming operation of the taking lens 11 are controlled by a lens drive circuit 27. The photographing lens 11 is controlled by the lens driving circuit 27.
Is detected in the optical axis direction, that is, the focal length of the photographing lens 11, and is transmitted to the system control circuit 35.

【0013】撮影レンズ11の光軸上には撮像素子(C
CD)28が配設されている。CCD28には、撮影レ
ンズ11によって被写体像が形成され、被写体像に対応
した電荷が発生する。CCD28における電荷の蓄積動
作、電荷の読出動作等の動作はCCD駆動回路30によ
って制御される。CCD28から読み出された電荷信号
すなわち画像信号はアンプ31において増幅され、A/
D変換器32においてアナログ信号からデジタル信号に
変換される。デジタルの画像信号は撮像信号処理回路3
3においてガンマ補正等の処理を施され、画像メモリ3
4に一時的に格納される。アイリス駆動回路26、レン
ズ駆動回路27、CCD駆動回路30、撮像信号処理回
路33はシステムコントロール回路35によって制御さ
れる。
An image pickup device (C
CD) 28 is provided. A subject image is formed on the CCD 28 by the photographing lens 11, and charges corresponding to the subject image are generated. Operations such as a charge accumulation operation and a charge read operation in the CCD 28 are controlled by the CCD drive circuit 30. The charge signal, that is, the image signal, read from the CCD 28 is amplified by the amplifier 31 and the A / A
The analog signal is converted into a digital signal in the D converter 32. The digital image signal is output from the imaging signal processing circuit 3
In the image memory 3, processing such as gamma correction is performed.
4 is temporarily stored. The iris drive circuit 26, lens drive circuit 27, CCD drive circuit 30, and image signal processing circuit 33 are controlled by a system control circuit 35.

【0014】画像信号は画像メモリ34から読み出さ
れ、LCD駆動回路36に供給される。LCD駆動回路
36は画像信号に応じて動作し、これにより画像表示L
CDパネル37には、画像信号に対応した画像が表示さ
れる。
The image signal is read from the image memory 34 and supplied to the LCD drive circuit 36. The LCD drive circuit 36 operates in accordance with the image signal, and thereby the image display L
An image corresponding to the image signal is displayed on the CD panel 37.

【0015】また画像メモリ34から読み出された画像
信号はTV信号エンコーダ38に送られ、ビデオ出力端
子20を介して、カメラ本体10の外部に設けられたモ
ニタ装置39に伝送可能である。システムコントロール
回路35はインターフェース回路40に接続され、イン
ターフェース回路40はインターフェースコネクタ21
に接続されている。したがって画像メモリ34から読み
出された画像信号は、インターフェースコネクタ21に
接続されたコンピュータ41に伝送可能である。またシ
ステムコントロール回路35は、記録媒体制御回路42
を介して画像記録装置43に接続されている。したがっ
て画像メモリ34から読み出された画像信号は、画像記
録装置43に装着されたICメモリカード等の記録媒体
Mに記録可能である。
The image signal read from the image memory 34 is sent to a TV signal encoder 38, and can be transmitted via a video output terminal 20 to a monitor device 39 provided outside the camera body 10. The system control circuit 35 is connected to the interface circuit 40, and the interface circuit 40 is connected to the interface connector 21.
It is connected to the. Therefore, the image signal read from the image memory 34 can be transmitted to the computer 41 connected to the interface connector 21. The system control circuit 35 includes a recording medium control circuit 42
Is connected to the image recording device 43 via the. Therefore, the image signal read from the image memory 34 can be recorded on a recording medium M such as an IC memory card mounted on the image recording device 43.

【0016】システムコントロール回路35には、発光
素子制御回路44が接続されている。発光装置50は発
光素子51とスリット光生成機構52を有し、発光素子
51の発光動作は発光素子制御回路44によって制御さ
れる。発光素子51は測距光であるレーザ光を照射する
ものであり、このレーザ光はスリット光生成機構52に
よって複数のスリット光に分割され、被計測物体の全体
に照射される。被計測物体において反射した光は撮影レ
ンズ11に入射する。この光をCCD28によって検出
することにより、後述するように被計測物体の3次元画
像データが検出される。なお、この計測において、CC
D28における転送動作のタイミング等の制御はシステ
ムコントロール回路35とCCD駆動回路30によって
行なわれる。
A light emitting element control circuit 44 is connected to the system control circuit 35. The light emitting device 50 has a light emitting element 51 and a slit light generating mechanism 52, and the light emitting operation of the light emitting element 51 is controlled by a light emitting element control circuit 44. The light emitting element 51 irradiates a laser beam, which is a distance measuring beam, and this laser beam is divided into a plurality of slit beams by a slit beam generating mechanism 52 and irradiates the entire object to be measured. Light reflected from the object to be measured enters the photographing lens 11. By detecting this light by the CCD 28, three-dimensional image data of the measured object is detected as described later. In this measurement, CC
Control of the transfer operation timing and the like in D28 is performed by the system control circuit 35 and the CCD drive circuit 30.

【0017】システムコントロール回路35には、レリ
ーズスイッチ15、スキャン実行ボタン17を備えたス
イッチ群45と、液晶表示パネル(表示素子)16とが
接続されている。なおシステムコントロール回路35に
は、3次元画像データの検出等に必要な情報を格納する
ためのメモリ35aが設けられている。
The system control circuit 35 is connected to a switch group 45 having a release switch 15, a scan execution button 17, and a liquid crystal display panel (display element) 16. The system control circuit 35 is provided with a memory 35a for storing information necessary for detecting three-dimensional image data and the like.

【0018】図3は発光装置50の構成を概念的に示し
ている。スリット光生成機構52は発光素子51の光軸
上に配置されたレンズ53と、レンズ53のさらに前方
に配設された回折光学素子54と、ミラー55とを有す
る。レンズ53はレーザ光のビームスポットを例えば円
形等の所定の形状に成形するために設けられる。回折光
学素子54は、レンズ53を介して照射されたレーザ光
を複数のスリット光に分割するために設けられ、例えば
株式会社インデゴによって販売されている光集積機能素
子、あるいは株式会社モリテックスによって販売されて
いるレーザパターンプロジェクタ等が利用可能である。
複数のスリット光はミラー55において反射され、被計
測物体Sに投影される。図3において、スリット光は被
計測物体Sの表面において水平方向に延びる、平行な5
本の直線状の光である。
FIG. 3 conceptually shows the structure of the light emitting device 50. The slit light generating mechanism 52 has a lens 53 disposed on the optical axis of the light emitting element 51, a diffractive optical element 54 disposed further in front of the lens 53, and a mirror 55. The lens 53 is provided for shaping the beam spot of the laser light into a predetermined shape such as a circle. The diffractive optical element 54 is provided to divide the laser light irradiated through the lens 53 into a plurality of slit lights, and is, for example, an optical integrated function element sold by Indego Co., Ltd., or sold by Moritex Corporation. Laser pattern projectors and the like are available.
The plurality of slit lights are reflected by the mirror 55 and projected on the measured object S. In FIG. 3, the slit light extends in the horizontal direction on the surface of the object S to be measured.
It is a linear light of a book.

【0019】ミラー55はガルバノメータ56の回転軸
57に取り付けられている。ガルバノメータ56の回転
軸57は、供給された電圧の大きさに応じた角度だけ矢
印Dに沿って回転する。すなわち、スキャン実行ボタン
17(図1参照)が押されたとき、ガルバノメータ56
の制御回路(図示せず)に時間的に変化する電圧信号が
供給され、これにより回転軸57は、軸心周りに一定の
角度ピッチで断続的に回転する。
The mirror 55 is attached to a rotating shaft 57 of the galvanometer 56. The rotation shaft 57 of the galvanometer 56 rotates along the arrow D by an angle corresponding to the magnitude of the supplied voltage. That is, when the scan execution button 17 (see FIG. 1) is pressed, the galvanometer 56
Is supplied with a time-varying voltage signal to the control circuit (not shown), whereby the rotating shaft 57 rotates intermittently at a constant angular pitch around the axis.

【0020】被計測物体Sにおいて反射したレーザ光
(スリット光)は、撮影レンズ11を介してCCD28
の受光面に入射する。すなわちCCD28には、被計測
物体Sに投影された複数本のスリット光Pの像が形成さ
れ、CCD28に設けられた各フォトダイオードには、
受光量に応じた電荷信号がそれぞれ発生する。
The laser light (slit light) reflected on the object S to be measured is transmitted through the photographing lens 11 to the CCD 28.
Incident on the light receiving surface of. That is, an image of a plurality of slit lights P projected on the measured object S is formed on the CCD 28, and each photodiode provided on the CCD 28 has
A charge signal corresponding to the amount of received light is generated.

【0021】図3の例において、被計測物体Sは球形を
有し、CCD28とミラー55は異なる位置に設けられ
ているため、図4に示されるように、CCD28に結像
されたスリット光の像P1〜P5は球形に応じて円弧状
に湾曲している。被計測物体Sの3次元画像データの検
出では、まずTOF法に従ってスリット光の像P1〜P
5が識別され、次に光切断法に従って各像P1〜P5毎
にその3次元形状が計測される。そしてミラー55を所
定角度だけ回転させることによって、被計測物体Sにお
けるスリット光の照射位置が変更され、再びTOF法と
光切断法を用いて各像P1〜P5の3次元形状が計測さ
れる。このようにして、スリット光が被計測物体Sの表
面を走査する毎に各像P1〜P5の3次元形状が計測さ
れ、被計測物体Sの3次元形状(3次元画像データ)が
検出される。
In the example shown in FIG. 3, since the object S to be measured has a spherical shape and the CCD 28 and the mirror 55 are provided at different positions, as shown in FIG. The images P1 to P5 are curved in an arc shape according to a spherical shape. In the detection of three-dimensional image data of the measured object S, first, slit light images P1 to P
5 are identified, and then the three-dimensional shape of each of the images P1 to P5 is measured according to the light section method. Then, by rotating the mirror 55 by a predetermined angle, the irradiation position of the slit light on the measured object S is changed, and the three-dimensional shape of each of the images P1 to P5 is measured again using the TOF method and the light cutting method. In this manner, each time the slit light scans the surface of the measured object S, the three-dimensional shape of each of the images P1 to P5 is measured, and the three-dimensional shape (three-dimensional image data) of the measured object S is detected. .

【0022】図5および図6を参照して、TOF法にお
ける距離測定の原理を説明する。なお図6において横軸
は時間tである。
Referring to FIGS. 5 and 6, the principle of distance measurement in the TOF method will be described. In FIG. 6, the horizontal axis is time t.

【0023】距離測定装置Bから出力された測距光は被
計測物体Sにおいて反射し、図示しないCCDによって
受光される。測距光は時間的にパルス状に変化するレー
ザ光である。測距光のパルス幅をHとすると、被計測物
体Sからの反射光のパルス幅もHである。また反射光の
パルスの立ち下がりは、測距光のパルスの立ち下がりよ
りも時間δ・t(δは遅延係数)だけ遅れる。測距光と
反射光は距離測定装置Bと被計測物体Sの間の2倍の距
離rを進んだことになるから、その距離rは r=δ・t・C/2 ・・・(1) により得られる。ただしCは光速である。
The distance measuring light output from the distance measuring device B is reflected by the measured object S and received by a CCD (not shown). The distance measuring light is a laser light that changes in a pulsed manner over time. Assuming that the pulse width of the distance measuring light is H, the pulse width of the reflected light from the measured object S is also H. The fall of the reflected light pulse is delayed by a time δ · t (δ is a delay coefficient) from the fall of the distance measuring light pulse. Since the distance measuring light and the reflected light have traveled twice the distance r between the distance measuring device B and the measured object S, the distance r is r = δ · t · C / 2 (1) ). Where C is the speed of light.

【0024】例えば測距光のパルスの立ち下がりから反
射光を検知可能な状態に定め、反射光のパルスが立ち下
がった後に検知不可能な状態に切換えて、反射光のパル
スの立ち下がりまでの成分を検出するようにすると、す
なわち反射光検知期間Tを設けると、この反射光検知期
間Tにおける受光量Aは距離rの関数である。すなわち
受光量Aは、距離rが大きくなるほど(時間δ・tが大
きくなるほど)大きくなる。
For example, a state in which the reflected light can be detected from the fall of the pulse of the distance measuring light is determined, and the state is switched to an undetectable state after the fall of the reflected light pulse until the fall of the reflected light pulse. If a component is detected, that is, if a reflected light detection period T is provided, the received light amount A in the reflected light detection period T is a function of the distance r. That is, the light receiving amount A increases as the distance r increases (the time δ · t increases).

【0025】上述した原理を利用して、CCD28に設
けられたフォトダイオードにおいて、被計測物体Sの表
面の各点に対応した画素における受光量Aを検出するこ
とにより、カメラ本体10から被計測物体Sの表面の各
点までの距離をそれぞれ検出することができる。本実施
形態ではTOF法に従って、被計測物体Sの表面に照射
された複数のスリット光を識別しており、この識別の手
法について次に説明する。
Using the above-described principle, the photodiode provided on the CCD 28 detects the amount of received light A at the pixel corresponding to each point on the surface of the object S to be measured. The distance to each point on the surface of S can be detected. In the present embodiment, a plurality of slit lights applied to the surface of the measured object S are identified according to the TOF method, and the identification method will be described below.

【0026】図7は、発光装置50のミラー55を介し
て被計測物体(図示せず)に照射されるスリット光の進
行方向(破線)と、CCD28から放射状に等角度間隔
に延びる直線(実線)とを示している。この図におい
て、原点はCCD28の受光面の中心である。X軸はC
CD28の受光面に垂直であって、原点から被計測物体
側に延びており、Y軸は原点からCCD28の受光面に
沿って図の左側に延びている。回折光学素子54とCC
D28の間隔すなわち基線長Lは200mm である。図8
は、光源すなわち回折光学素子54から延びる直線(ス
リット光の進行方向に一致する)のX軸に対する角度
と、CCD28による受光角度、すなわち原点から延び
る直線のX軸に対する角度と、被計測物体の表面におけ
るスリット光の位置との関係を示している。なお、角度
の符号は図において時計方向が負、反時計方向が正であ
る。
FIG. 7 shows a traveling direction (broken line) of the slit light radiated to the object to be measured (not shown) via the mirror 55 of the light emitting device 50 and a straight line (solid line) extending radially from the CCD 28 at equal angular intervals. ). In this figure, the origin is the center of the light receiving surface of the CCD 28. X axis is C
It is perpendicular to the light receiving surface of the CD 28 and extends from the origin to the measured object side, and the Y axis extends from the origin to the left side of the figure along the light receiving surface of the CCD 28. Diffractive optical element 54 and CC
The interval of D28, that is, the base line length L is 200 mm. FIG.
Are the angle with respect to the X axis of a straight line (coincident with the traveling direction of the slit light) extending from the light source, that is, the diffractive optical element 54, the light receiving angle by the CCD 28, ie, the angle of the straight line extending from the origin with respect to the X axis, and the surface of the object to be measured. 3 shows the relationship with the position of the slit light. In the figure, the sign of the angle is negative in the clockwise direction and positive in the counterclockwise direction.

【0027】図7において、回折光学素子54から−2
5°の角度で照射されるスリット光(符号1)は、CC
D28から−30°の角度で延びる直線と点Q1におい
て交差する。点Q1の座標は、図8の欄R1を参照する
と、(1801, -1040) である。回折光学素子54から−2
0°の角度で照射されるスリット光(符号2)は、CC
D28から−30°の角度で延びる直線と点Q2におい
て交差する。点Q2の座標は、図8の欄R2を参照する
と、(937,-541)である。同様に、回折光学素子54から
−15°の角度で照射されるスリット光(符号3)は、
CCD28から−20°の角度で延びる直線と点Q3に
おいて交差する。点Q3の座標は、図8の欄R3を参照
すると、(2083,-758) である。
In FIG. 7, the diffractive optical element 54 to -2
The slit light (symbol 1) irradiated at an angle of 5 ° is CC
A straight line extending at an angle of −30 ° from D28 intersects at the point Q1. Referring to the column R1 in FIG. 8, the coordinates of the point Q1 are (1801, -1040). -2 from diffractive optical element 54
The slit light (code 2) emitted at an angle of 0 ° is CC
A straight line extending at an angle of −30 ° from D28 intersects at a point Q2. The coordinates of the point Q2 are (937, -541) when referring to the column R2 in FIG. Similarly, the slit light (reference numeral 3) emitted from the diffractive optical element 54 at an angle of −15 ° is
A straight line extending at an angle of −20 ° from the CCD 28 intersects at a point Q3. Referring to the column R3 in FIG. 8, the coordinates of the point Q3 are (2083, -758).

【0028】スリット光が回折光学素子54から被計測
物体Sを経てCCD28に至るまでに飛行した距離は、
被計測物体Sの表面が点Q1にあったとすると、図8の
欄S1に示されるように4266mmである。被計測物体Sの
表面が点Q2にあったとすると、欄S2に示されるよう
に2277mmであり、被計測物体Sの表面が点Q3にあった
とすると、欄S3に示されるように4509mmである。図8
に示される交点座標および光飛行距離等のデータは、シ
ステムコントロール回路35のメモリ35aにテーブル
形式で格納されている。
The distance that the slit light travels from the diffractive optical element 54 to the CCD 28 via the measured object S is
Assuming that the surface of the measured object S is located at the point Q1, it is 4266 mm as shown in a column S1 of FIG. If the surface of the measured object S is at the point Q2, it is 2277 mm as shown in the column S2, and if the surface of the measured object S is at the point Q3, it is 4509 mm as shown in the column S3. FIG.
Are stored in a table format in the memory 35a of the system control circuit 35.

【0029】TOF法によって光飛行距離が検出される
と、この光飛行距離が検出された画素の位置と撮影レン
ズ11の焦点距離とに応じてCCD28における受光角
度がわかるので、飛行距離と受光角度に基づいて、メモ
リ35aに格納された図8のテーブルが参照され、光源
(回折光学素子54)に対する角度が得られる。例え
ば、受光角度が−30°に対応する画素によって検出さ
れた光飛行距離が2280mmであったとすると、図8のテー
ブルにおいて、この数値に最も近いのは2277mmであるの
で、検出されたスリット光は光源に対して−20°で傾
斜していると判断され、これにより被計測物体の表面に
おける複数のスリット光が識別される。すなわち、この
例において、図7の点Q1、Q2のうち、点Q2が検出
されたスリット光に対応している。
When the light flight distance is detected by the TOF method, the light receiving angle at the CCD 28 can be determined according to the position of the pixel at which the light flight distance is detected and the focal length of the photographing lens 11, so that the flight distance and the light receiving angle are obtained. The angle with respect to the light source (diffractive optical element 54) is obtained by referring to the table of FIG. For example, assuming that the light flight distance detected by the pixel corresponding to the light receiving angle of −30 ° is 2280 mm, the closest value to the numerical value in the table of FIG. 8 is 2277 mm. It is determined that the light source is inclined at −20 ° with respect to the light source, whereby a plurality of slit lights on the surface of the measured object are identified. That is, in this example, of the points Q1 and Q2 in FIG. 7, the point Q2 corresponds to the detected slit light.

【0030】このようにして被計測物体に照射されてい
る全てのスリット光が識別されると、次に光切断法に従
って、各スリット光毎に、3次元形状すなわちそのスリ
ット光に沿った各位置の3次元座標が求められる。光切
断法は周知であるので、その説明は省略する。
When all the slit lights irradiating the object to be measured are identified in this manner, the three-dimensional shape, that is, each position along the slit light, Are obtained. Since the light sectioning method is well known, its description is omitted.

【0031】図9は3次元画像検出ルーチンのフローチ
ャートであり、このルーチンはシステムコントロール回
路35(図2)において実行される。図1〜3および図
7〜9を参照して、3次元画像の検出動作を説明する。
FIG. 9 is a flowchart of a three-dimensional image detection routine, which is executed by the system control circuit 35 (FIG. 2). The detection operation of the three-dimensional image will be described with reference to FIGS.

【0032】ステップ100では、撮影レンズ11の光
軸方向の位置に基づいて、焦点距離のデータが得られ
る。ステップ101ではミラー55の位置が初期化さ
れ、例えば、ミラー55が被計測物体Sの上端部に対向
するように位置決めされる。
In step 100, focal length data is obtained based on the position of the photographing lens 11 in the optical axis direction. In step 101, the position of the mirror 55 is initialized, and for example, the mirror 55 is positioned so as to face the upper end of the measured object S.

【0033】ステップ102では、発光装置50が駆動
されてパルス状のレーザ光が出力され、複数のスリット
光に分割されて被計測物体Sに照射される。そして、C
CD28に結像された被計測物体Sの像の1画面分の距
離のデータ(すなわち第1の距離データ)がCCD28
を介して検出され、システムコントロール回路35のメ
モリ35aに格納される。第1の距離データはTOF法
に従ったデータであり、CCD28の各フォトダイオー
ドに蓄積した電荷量に対応している。
In step 102, the light emitting device 50 is driven to output a pulsed laser beam, which is split into a plurality of slit beams and irradiates the object S to be measured. And C
The data of the distance for one screen of the image of the measured object S formed on the CD 28 (that is, the first distance data) is
And stored in the memory 35a of the system control circuit 35. The first distance data is data according to the TOF method, and corresponds to the amount of charge accumulated in each photodiode of the CCD 28.

【0034】ステップ103では、メモリ35aから第
1の距離データが読み出される。そして、図7および図
8を参照して説明したように、第1の距離データおよび
第1の距離データが検出された画素(すなわちCCD2
8における受光角度)に基づいて、被計測物体Sの表面
における複数のスリット光の照射位置までの距離(図8
に示す光飛行距離)が求められ、ミラー55に対する角
度が検出されて計測物体Sの表面における各スリット光
が識別される。この識別処理では、1本のスリット光の
全長にわたって第1の距離データを用いる必要はなく、
被計測物体Sの所定の高さ位置における第1の距離デー
タのみを用いればよい。
In step 103, the first distance data is read from the memory 35a. Then, as described with reference to FIGS. 7 and 8, the first distance data and the pixel at which the first distance data is detected (that is, the CCD 2
8 based on the light receiving angles at the positions of the plurality of slit light irradiation positions on the surface of the measured object S (FIG. 8).
Is obtained, the angle with respect to the mirror 55 is detected, and each slit light on the surface of the measurement object S is identified. In this identification processing, it is not necessary to use the first distance data over the entire length of one slit light,
Only the first distance data at the predetermined height position of the measured object S may be used.

【0035】ステップ104では、ステップ103にお
いて識別されたスリット光に基づいて、被計測物体Sの
表面におけるスリット光に沿った各点位置までの第2の
距離データが検出される。まずメモリ35aから第1の
距離データが読み出される。第1の距離データは上述し
たように、TOF法に従って得られたものであり、本カ
メラから被計測物体Sの表面の各点までの距離を表して
いる。しかしステップ104では、TOF法によって得
られた第1の距離データを、距離を表しているデータと
して用いるのではなく、位置を表すデータとして用い
る。すなわち光切断法に従って、ミラー55とCCD2
8と被計測物体Sにおけるスリット光に沿った各点との
位置関係に基づいて、各点の位置座標が幾何学的に求め
られる。
In step 104, based on the slit light identified in step 103, second distance data to each point on the surface of the measured object S along the slit light is detected. First, the first distance data is read from the memory 35a. The first distance data is obtained according to the TOF method, as described above, and represents the distance from the camera to each point on the surface of the measurement target S. However, in step 104, the first distance data obtained by the TOF method is used not as data representing a distance but as data representing a position. That is, the mirror 55 and the CCD 2
Based on the positional relationship between the point 8 and each point along the slit light on the measured object S, the position coordinates of each point are geometrically obtained.

【0036】ステップ105では、3次元画像の検出を
終了するか否かが判定される。この判定処理としては種
々の方法が可能であるが、本実施形態では、一例とし
て、スキャン実行スイッチ17を一定時間内に操作しな
かったとき、計測を終了すると判定される。
In step 105, it is determined whether or not the detection of the three-dimensional image is to be terminated. Various methods are possible for this determination processing. In the present embodiment, for example, when the scan execution switch 17 is not operated within a predetermined time, it is determined that the measurement is to be ended.

【0037】スキャン実行スイッチ17が一定時間内に
操作されたとき、すなわち計測を終了しないと判定され
たとき、ステップ106が実行され、ミラー55は回転
軸57の周りに所定角度だけ回転する。これにより、被
計測物体Sの表面におけるスリット光の照射位置は下方
向に変位する。そして、ステップ102へ戻り、ステッ
プ102〜104が再び実行される。
When the scan execution switch 17 is operated within a predetermined time, that is, when it is determined that the measurement is not to be ended, step 106 is executed, and the mirror 55 rotates around the rotation axis 57 by a predetermined angle. Thereby, the irradiation position of the slit light on the surface of the measured object S is displaced downward. Then, the process returns to step 102, and steps 102 to 104 are executed again.

【0038】ステップ105において、3次元計測を終
了すると判定されたとき、ステップ104において光切
断法によって求められた3次元画像のデータが画像メモ
リ34に保存され、このルーチンは終了する。
When it is determined in step 105 that the three-dimensional measurement is to be ended, the data of the three-dimensional image obtained by the light section method is stored in the image memory 34 in step 104, and this routine ends.

【0039】以上のように本実施形態では、複数のスリ
ット光を被計測物体Sに照射し、まずTOF法を用いて
各スリット光を識別する。そして、光切断法を用いて、
各スリット光の各点における位置座標を求める。必要に
応じてスリット光の位置を変更し、再びTOF法と光切
断法を用いて各スリット光の各点における位置座標を求
める。このように本実施形態では、TOF法は3次元画
像の検出に直接使用されるのではなく、スリット光の識
別に用いられ、3次元画像の検出は光切断法によって行
われる。すなわち、処理が高速で行われるTOF法によ
ってスリット光を迅速に識別し、検出精度の高い光切断
法によって被計測物体の3次元画像を検出しており、3
次元画像を高速かつ高精度で得ることができる。
As described above, in the present embodiment, a plurality of slit lights are applied to the measured object S, and each slit light is first identified by using the TOF method. Then, using the light-section method,
The position coordinates at each point of each slit light are obtained. The position of the slit light is changed as necessary, and the position coordinates of each point of each slit light are obtained again by using the TOF method and the light cutting method. As described above, in the present embodiment, the TOF method is not used directly for detecting a three-dimensional image, but is used for identifying slit light, and the three-dimensional image is detected by a light section method. That is, the slit light is quickly identified by the TOF method in which the processing is performed at high speed, and the three-dimensional image of the measured object is detected by the light cutting method with high detection accuracy.
A two-dimensional image can be obtained at high speed and with high accuracy.

【0040】本実施形態では、発光素子51から出力さ
れたレーザ光を複数のビームに分割するために回折光学
素子54を用いているが、これに代えてDMD(デジタ
ル・マイクロミラー・デバイス)のようなミラーデバイ
スを用いてもよい。また、DMDを用いた構成によれ
ば、ガルバノメータを用いることなく被計測物体に対す
る照射位置を制御することができる。
In this embodiment, the diffractive optical element 54 is used to divide the laser light output from the light emitting element 51 into a plurality of beams, but instead of a DMD (digital micromirror device), Such a mirror device may be used. According to the configuration using the DMD, the irradiation position on the measured object can be controlled without using the galvanometer.

【0041】さらに、本実施形態では、回折光学素子5
4によって得られる複数のビームは、平面に照射された
ときに略等間隔に並ぶ縞状のスリット光であったが、こ
れに代えて、平面に照射されたときに略等間隔に並ぶ点
状のスポット光であってもよい。
Further, in this embodiment, the diffractive optical element 5
The plurality of beams obtained by 4 were striped slit lights arranged at substantially equal intervals when illuminated on a plane, but were replaced by dot-shaped slit lights arranged at substantially equal intervals when illuminated on a plane. Spot light.

【0042】また、ミラー55とCCD28の間隔であ
る基線長Lは一定である必要はなく、必要に応じて可変
にしてもよい。
The base length L, which is the distance between the mirror 55 and the CCD 28, does not need to be constant, and may be variable as needed.

【0043】さらに、スリット光の縞の本数は固定値と
してもよく、あるいは被計測物体までの距離に応じて、
近距離では少なく、遠距離では多くなるように変化させ
てもよい。
Further, the number of stripes of the slit light may be a fixed value, or depending on the distance to the object to be measured.
It may be changed so that it is small at a short distance and large at a long distance.

【0044】[0044]

【発明の効果】以上のように本発明によれば、被計測物
体の3次元画像を高速で、しかも十分な精度で計測する
ことができるという効果が得られる。
As described above, according to the present invention, an effect is obtained that a three-dimensional image of an object to be measured can be measured at high speed and with sufficient accuracy.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施形態である3次元画像入力装置
を備えたカメラの斜視図である。
FIG. 1 is a perspective view of a camera provided with a three-dimensional image input device according to an embodiment of the present invention.

【図2】図1に示すカメラの回路構成を示すブロック図
である。
FIG. 2 is a block diagram showing a circuit configuration of the camera shown in FIG.

【図3】発光装置の構成を概念的に示す図である。FIG. 3 is a diagram conceptually showing a configuration of a light emitting device.

【図4】CCDに結像されたスリット光の像を示す図で
ある。
FIG. 4 is a diagram showing an image of slit light formed on a CCD.

【図5】TOF法に従って行われる距離測定の原理を説
明するための図である。
FIG. 5 is a diagram for explaining the principle of distance measurement performed according to the TOF method.

【図6】TOF法の距離測定において、測距光、反射
光、ゲートパルス、およびCCDが受光する光量分布を
示す図である。
FIG. 6 is a diagram showing a distance measuring light, a reflected light, a gate pulse, and a light amount distribution received by a CCD in a distance measurement by the TOF method.

【図7】被計測物体に照射されるスリット光の進行方向
と、CCDから放射状に等角度間隔に延びる直線とを示
す図である。
FIG. 7 is a diagram illustrating a traveling direction of slit light applied to an object to be measured and straight lines extending radially from the CCD at equal angular intervals.

【図8】被計測物体に照射されるスリット光の進行方向
のX軸に対する角度と、CCDから放射状に等角度間隔
に延びる直線のX軸に対する角度との関係を示す図であ
る。
FIG. 8 is a diagram showing the relationship between the angle of the traveling direction of the slit light applied to the object to be measured with respect to the X axis and the angle with respect to the X axis of a straight line radially extending from the CCD at equal angular intervals.

【図9】3次元画像検出ルーチンのフローチャートであ
る。
FIG. 9 is a flowchart of a three-dimensional image detection routine.

【符号の説明】[Explanation of symbols]

50 発光装置 51 発光素子 54 回折光学素子 55 ミラー P スリット光 Reference Signs List 50 light emitting device 51 light emitting element 54 diffractive optical element 55 mirror P slit light

───────────────────────────────────────────────────── フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 13/02 G01S 17/88 Z Fターム(参考) 2F065 AA04 AA53 BB05 DD03 DD06 FF32 FF42 GG04 HH05 JJ03 JJ26 LL12 LL28 LL42 LL62 MM16 QQ03 QQ21 QQ24 QQ32 2F112 AD01 CA08 CA12 DA09 DA11 DA15 5C061 AA21 AB03 AB06 AB08 AB21 5J084 AD01 BA03 BA34 BA49 BB02 BB21 CA03 CA61 CA70 DA01──────────────────────────────────────────────────続 き Continued on the front page (51) Int.Cl. 7 Identification symbol FI theme coat ゛ (reference) H04N 13/02 G01S 17/88 Z F term (reference) 2F065 AA04 AA53 BB05 DD03 DD06 FF32 FF42 GG04 HH05 JJ03 JJ26 LL12 LL28 LL42 LL62 MM16 QQ03 QQ21 QQ24 QQ32 2F112 AD01 CA08 CA12 DA09 DA11 DA15 5C061 AA21 AB03 AB06 AB08 AB21 5J084 AD01 BA03 BA34 BA49 BB02 BB21 CA03 CA61 CA70 DA01

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】 時間的にパルス状に変化するレーザ光
を、複数のビームに分割して被計測物体に照射する光源
と、 前記被計測物体からの反射光を受光する撮像素子と、 前記反射光に基づいて、光伝播時間測定法に従って、前
記被計測物体の表面における前記複数のビームの照射位
置までの距離に対応した第1の距離データを検出する第
1の距離検出手段と、 前記第1の距離データに基づいて、前記複数のビームを
識別するビーム識別手段と、 前記ビーム識別手段によって識別されたビームに基づい
て、光切断法に従って、前記被計測物体の表面における
前記識別されたビームの位置までの距離に対応した第2
の距離データを検出する第2の距離検出手段とを備える
ことを特徴とする3次元画像入力装置。
A light source configured to divide a laser beam that changes in a pulsed manner with time into a plurality of beams and irradiate the measured object to an object to be measured; an image sensor configured to receive light reflected from the object to be measured; A first distance detecting unit that detects first distance data corresponding to a distance to an irradiation position of the plurality of beams on a surface of the measured object based on the light and according to a light propagation time measurement method; A beam identification unit for identifying the plurality of beams based on the distance data, and the identified beam on the surface of the object to be measured according to a light section method based on the beam identified by the beam identification unit. The second corresponding to the distance to the position of
And a second distance detecting means for detecting distance data of the three-dimensional image.
【請求項2】 前記光源が、前記レーザ光を複数のビー
ムに分割する回折光学素子を備えることを特徴とする請
求項1に記載の3次元画像入力装置。
2. The three-dimensional image input device according to claim 1, wherein the light source includes a diffractive optical element that divides the laser light into a plurality of beams.
【請求項3】 前記複数のビームが、平面に照射された
ときに略等間隔に並ぶ縞状のスリット光であることを特
徴とする請求項1に記載の3次元画像入力装置。
3. The three-dimensional image input apparatus according to claim 1, wherein the plurality of beams are striped slit lights arranged at substantially equal intervals when irradiated on a plane.
【請求項4】 前記複数のビームが、平面に照射された
ときに略等間隔に並ぶ点状のスポット光であることを特
徴とする請求項1に記載の3次元画像入力装置。
4. The three-dimensional image input device according to claim 1, wherein the plurality of beams are point-like spot lights arranged at substantially equal intervals when irradiated on a plane.
【請求項5】 前記第1の距離検出手段が、前記複数の
ビームのそれぞれについて、前記第1の距離データを検
出してメモリに記憶し、前記第2の距離検出手段が、前
記メモリから読み出された前記第1の距離データに対応
した位置の情報に基づいて、光切断法に従って、前記第
2の距離データを検出することを特徴とする請求項1に
記載の3次元画像入力装置。
5. The first distance detecting means detects the first distance data for each of the plurality of beams and stores the data in a memory, and the second distance detecting means reads the data from the memory. 2. The three-dimensional image input device according to claim 1, wherein the second distance data is detected according to a light section method based on information on a position corresponding to the issued first distance data. 3.
【請求項6】 前記ビーム識別手段が、前記光源、前記
撮像素子および前記識別されたビームの相対的な位置関
係と前記第1の距離データとに基づいて、前記複数のビ
ームを識別することを特徴とする請求項1に記載の3次
元画像入力装置。
6. The method according to claim 1, wherein the beam identifying unit identifies the plurality of beams based on a relative positional relationship between the light source, the image sensor, and the identified beam, and the first distance data. The three-dimensional image input device according to claim 1, wherein:
【請求項7】 前記被計測物体に対する前記複数のビー
ムの照射位置を変更する照射位置制御手段を備えること
を特徴とする請求項1に記載の3次元画像入力装置。
7. The three-dimensional image input apparatus according to claim 1, further comprising: an irradiation position control unit that changes an irradiation position of the plurality of beams on the object to be measured.
JP2000217152A 2000-07-18 2000-07-18 Three-dimensional image input device Withdrawn JP2002031516A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000217152A JP2002031516A (en) 2000-07-18 2000-07-18 Three-dimensional image input device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000217152A JP2002031516A (en) 2000-07-18 2000-07-18 Three-dimensional image input device

Publications (1)

Publication Number Publication Date
JP2002031516A true JP2002031516A (en) 2002-01-31

Family

ID=18712304

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000217152A Withdrawn JP2002031516A (en) 2000-07-18 2000-07-18 Three-dimensional image input device

Country Status (1)

Country Link
JP (1) JP2002031516A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007518098A (en) * 2004-01-15 2007-07-05 テクニオン リサーチ アンド ディベロップメント ファウンデーション リミテッド 3D video scanner
CN100373257C (en) * 2002-10-31 2008-03-05 电子科技大学 Method of measuring instantaneous scanning speed of scanning type rotary lens high speed camera
JP2008051759A (en) * 2006-08-28 2008-03-06 Nissan Motor Co Ltd Device and method for measuring distance
DE102007002880A1 (en) * 2007-01-15 2008-07-24 Dmg Microset Gmbh Method and device for optically measuring an object, in particular a workpiece or a tool
KR20130106544A (en) * 2012-03-20 2013-09-30 삼성전자주식회사 Method and apparatus for obtaining and information of scene
JP2013546222A (en) * 2010-09-28 2013-12-26 マイクロソフト コーポレーション Low power depth camera and projection device integration
WO2016050701A1 (en) * 2014-09-29 2016-04-07 Politecnico Di Milano Method and device for detecting the form of sails
KR20160149423A (en) * 2015-06-18 2016-12-28 한국표준과학연구원 High-speed 3D imaging system having non-axially symmetric lens using THz beam scan
KR20160149429A (en) * 2015-06-18 2016-12-28 한국표준과학연구원 High-speed 3D imaging system using THz beam scan
JP2017505907A (en) * 2014-01-29 2017-02-23 エルジー イノテック カンパニー リミテッド Depth information extraction apparatus and method
JPWO2015075926A1 (en) * 2013-11-20 2017-03-16 パナソニックIpマネジメント株式会社 Ranging imaging system
JP2017133930A (en) * 2016-01-27 2017-08-03 倉敷紡績株式会社 Distance image generation device and method thereof
US9781318B2 (en) 2013-12-05 2017-10-03 Samsung Electronics Co., Ltd. Camera for measuring depth image and method of measuring depth image using the same
CN109425292A (en) * 2017-08-29 2019-03-05 西安知微传感技术有限公司 Three-dimensional measuring systems calibration device and method based on one-dimensional line-structured light
CN110243310A (en) * 2015-05-20 2019-09-17 脸谱科技有限责任公司 For using object polygon to generate the method and system of light pattern
WO2019179123A1 (en) * 2018-03-19 2019-09-26 深圳光峰科技股份有限公司 Tof camera and design method for diffractive optical element
WO2019239845A1 (en) * 2018-06-14 2019-12-19 パナソニックIpマネジメント株式会社 Object detection device and photodetector

Cited By (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100373257C (en) * 2002-10-31 2008-03-05 电子科技大学 Method of measuring instantaneous scanning speed of scanning type rotary lens high speed camera
JP2007518098A (en) * 2004-01-15 2007-07-05 テクニオン リサーチ アンド ディベロップメント ファウンデーション リミテッド 3D video scanner
JP2008051759A (en) * 2006-08-28 2008-03-06 Nissan Motor Co Ltd Device and method for measuring distance
DE102007002880A1 (en) * 2007-01-15 2008-07-24 Dmg Microset Gmbh Method and device for optically measuring an object, in particular a workpiece or a tool
DE102007002880B4 (en) * 2007-01-15 2011-08-25 DMG Microset GmbH, 33689 Method and device for optically measuring an object, in particular a workpiece or a tool
JP2013546222A (en) * 2010-09-28 2013-12-26 マイクロソフト コーポレーション Low power depth camera and projection device integration
KR101861393B1 (en) 2010-09-28 2018-05-28 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Integrated low power depth camera and projection device
KR20130106544A (en) * 2012-03-20 2013-09-30 삼성전자주식회사 Method and apparatus for obtaining and information of scene
KR101913317B1 (en) * 2012-03-20 2018-10-30 삼성전자주식회사 Method and apparatus for obtaining and information of scene
US11175406B2 (en) 2013-11-20 2021-11-16 Nuvoton Technology Corporation Japan Range imaging system and solid-state imaging device
US10302766B2 (en) 2013-11-20 2019-05-28 Panasonic Intellectual Property Management Co., Ltd. Range imaging system and solid-state imaging device
JPWO2015075926A1 (en) * 2013-11-20 2017-03-16 パナソニックIpマネジメント株式会社 Ranging imaging system
US10097741B2 (en) 2013-12-05 2018-10-09 Samsung Electronics Co., Ltd. Camera for measuring depth image and method of measuring depth image using the same
US9781318B2 (en) 2013-12-05 2017-10-03 Samsung Electronics Co., Ltd. Camera for measuring depth image and method of measuring depth image using the same
JP2017505907A (en) * 2014-01-29 2017-02-23 エルジー イノテック カンパニー リミテッド Depth information extraction apparatus and method
US10502834B2 (en) 2014-09-29 2019-12-10 Politecnico Di Milano Method and device for detecting the form of sails
WO2016050701A1 (en) * 2014-09-29 2016-04-07 Politecnico Di Milano Method and device for detecting the form of sails
CN110243310A (en) * 2015-05-20 2019-09-17 脸谱科技有限责任公司 For using object polygon to generate the method and system of light pattern
KR101702380B1 (en) * 2015-06-18 2017-02-03 한국표준과학연구원 High-speed 3D imaging system using THz beam scan
KR101691544B1 (en) * 2015-06-18 2016-12-30 한국표준과학연구원 High-speed 3D imaging system having non-axially symmetric lens using THz beam scan
KR20160149429A (en) * 2015-06-18 2016-12-28 한국표준과학연구원 High-speed 3D imaging system using THz beam scan
KR20160149423A (en) * 2015-06-18 2016-12-28 한국표준과학연구원 High-speed 3D imaging system having non-axially symmetric lens using THz beam scan
JP2017133930A (en) * 2016-01-27 2017-08-03 倉敷紡績株式会社 Distance image generation device and method thereof
CN109425292A (en) * 2017-08-29 2019-03-05 西安知微传感技术有限公司 Three-dimensional measuring systems calibration device and method based on one-dimensional line-structured light
WO2019179123A1 (en) * 2018-03-19 2019-09-26 深圳光峰科技股份有限公司 Tof camera and design method for diffractive optical element
CN110285788A (en) * 2018-03-19 2019-09-27 深圳光峰科技股份有限公司 The design method of ToF camera and diffraction optical element
CN110285788B (en) * 2018-03-19 2022-08-26 深圳光峰科技股份有限公司 ToF camera and design method of diffractive optical element
WO2019239845A1 (en) * 2018-06-14 2019-12-19 パナソニックIpマネジメント株式会社 Object detection device and photodetector
JPWO2019239845A1 (en) * 2018-06-14 2021-07-26 パナソニックIpマネジメント株式会社 Object detector and photodetector
JP7190667B2 (en) 2018-06-14 2022-12-16 パナソニックIpマネジメント株式会社 object detector

Similar Documents

Publication Publication Date Title
JP2002031516A (en) Three-dimensional image input device
US5699149A (en) Distance measurement apparatus for vehicle
KR100871408B1 (en) Measurement apparatus and measurement method
JP3937154B2 (en) Position detection device
US6987531B2 (en) Imaging system, photographing device and three-dimensional measurement auxiliary unit used for the system
KR100871409B1 (en) Measurement apparatus and measurement method
JP3766518B2 (en) Camera with built-in sensor
JP2004170355A (en) Automatic reflector tracking device
US6556307B1 (en) Method and apparatus for inputting three-dimensional data
US20030043287A1 (en) Three-dimensional image capturing device
JP2002022425A (en) Three-dimensional image input device
JP4186347B2 (en) Three-dimensional input method and apparatus
JPH11183149A (en) Three-dimensional measurement apparatus
US6421114B1 (en) Three-dimensional information measuring apparatus
JP2001051058A (en) Apparatus for measuring distance
JPH11280378A (en) Method and device for measuring clearance of tail section in shield machine
JPH0886622A (en) Apparatus for measuring shape
JP2002090116A (en) Three-dimensional image detector
JP2002022427A (en) Three-dimensional image input device
JP2002022426A (en) Three-dimensional image input device
JPH07190773A (en) Optical three-dimensional position detecting device
JP2982757B2 (en) 3D shape input device
JP2000097635A (en) Optical sensor
JP2003185421A (en) Three-dimensional-image input device
JP2002074346A (en) Three-dimensional image inputting device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070618

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20080425

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091208

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20100129