JP2006266957A - Three-dimensional input apparatus - Google Patents

Three-dimensional input apparatus Download PDF

Info

Publication number
JP2006266957A
JP2006266957A JP2005087456A JP2005087456A JP2006266957A JP 2006266957 A JP2006266957 A JP 2006266957A JP 2005087456 A JP2005087456 A JP 2005087456A JP 2005087456 A JP2005087456 A JP 2005087456A JP 2006266957 A JP2006266957 A JP 2006266957A
Authority
JP
Japan
Prior art keywords
mask
input device
pattern
image
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2005087456A
Other languages
Japanese (ja)
Inventor
Takao Iwasaki
岳雄 岩崎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Brother Industries Ltd
Original Assignee
Brother Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Industries Ltd filed Critical Brother Industries Ltd
Priority to JP2005087456A priority Critical patent/JP2006266957A/en
Priority to PCT/JP2006/305788 priority patent/WO2006104001A1/en
Publication of JP2006266957A publication Critical patent/JP2006266957A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To improve a technique for sequentially projecting a plurality of pattern light beams to an object, in an apparatus for three-dimensionally inputting the object, by selectively converting incident light from a light source into a plurality of pattern light beams and sequentially projecting the plurality of pattern light beams to the object. <P>SOLUTION: A plurality of frames are selectively positioned in an irradiation region 228 of the incident light by feeding an array of the plurality of frames, a sheet-like mask 200 extended in a longitudinal direction in a longitudinal direction for sequentially projecting the plurality of pattern light beams to the object. Each frame of the mask is provided with a through hole passing through the mask for generating the pattern light corresponding to each frame. The mask can be bent in a plane in parallel with both its longitudinal direction and its thickness direction. A part of the mask not positioned to the irradiation region 228 is bent at least at one location by bending devices 220 and 226. <P>COPYRIGHT: (C)2007,JPO&INPIT

Description

本発明は、光源からの入射光を複数種類のパターン光に選択的に変換し、それら複数種類のパターン光を順次、物体に投影することにより、その物体を3次元的に入力する技術に関するものであり、特に、それら複数種類のパターン光を順次、物体に投影する技術に関するものである。   TECHNICAL FIELD The present invention relates to a technique for three-dimensionally inputting an object by selectively converting incident light from a light source into a plurality of types of pattern light and sequentially projecting the plurality of types of pattern light onto the object. In particular, the present invention relates to a technique for sequentially projecting the plurality of types of pattern light onto an object.

物体を3次元的に入力する技術が既に知られている。この技術の一例によれば、物体が撮像され、その撮像結果に基づき、その物体の3次元形状と表面色とのうちの少なくとも3次元形状が演算によって計測される。   A technique for inputting an object three-dimensionally is already known. According to an example of this technique, an object is imaged, and at least a three-dimensional shape of the three-dimensional shape and the surface color of the object is measured by calculation based on the imaging result.

この種の技術を実施するための3次元入力装置は、一般に、(a)光源からの入射光を複数種類のパターン光に選択的に変換することにより、それら複数種類のパターン光を順次前記物体に投影する投影部と、(b)その投影された各パターン光に関連付けて前記物体を撮像する撮像部と、(c)その撮像部による撮像結果を処理することにより、前記物体の3次元形状を入力する処理部とを含むように構成される。   In general, a three-dimensional input device for implementing this kind of technology generally (a) selectively converts incident light from a light source into a plurality of types of pattern light, and sequentially converts the plurality of types of pattern light into the object. (B) an imaging unit that images the object in association with each projected pattern light; and (c) a three-dimensional shape of the object by processing an imaging result by the imaging unit. And a processing unit for inputting.

この種の3次元入力装置の一従来例が特許文献1に記載されている。この従来例においては、前記投影部が、長さ方向に延びるマスクを含んでいる。そのマスクは、前記複数種類のパターン光にそれぞれ対応する複数のフレームが前記長さ方向に並んで割り当てられており、それらフレームが選択的に、前記光源からの入射光の照射領域に位置させられる。
特開2003−42736号公報
One conventional example of this type of three-dimensional input device is described in Patent Document 1. In this conventional example, the projection unit includes a mask extending in the length direction. In the mask, a plurality of frames respectively corresponding to the plurality of types of pattern light are allocated side by side in the length direction, and these frames are selectively positioned in an irradiation region of incident light from the light source. .
JP 2003-42736 A

この3次元入力装置には、他の種々の機器と同様に、より小型であることが要請される。特に、この種の3次元入力装置がハンドヘルドタイプである場合には、ユーザによる使い勝手を向上させるべく、3次元入力装置の小型化および軽量化が強く要請される。   The three-dimensional input device is required to be smaller in size as in various other devices. In particular, when this type of three-dimensional input device is a handheld type, it is strongly required to reduce the size and weight of the three-dimensional input device in order to improve the user-friendliness.

一方、この3次元入力装置における投影部が、マスクをそれの長さ方向に移動させて複数のフレームを順次、割り出し、それにより、複数種類のパターン光を選択的に生成する形式を採用する場合には、そのマスクの全体を収容するためのスペースがこの3次元入力装置に必要となる。その結果、その収容スペース確保のためにこの3次元入力装置が大型化する可能性がある。   On the other hand, when the projection unit in this three-dimensional input device adopts a format in which a mask is moved in the length direction thereof to sequentially determine a plurality of frames, thereby selectively generating a plurality of types of pattern light Requires a space in the three-dimensional input device to accommodate the entire mask. As a result, there is a possibility that the three-dimensional input device is increased in size to secure the accommodation space.

これに対し、特許文献1は、投影部が上述の形式を採用することに起因して3次元入力装置が大型化する可能性を指摘しておらず、もちろん、その可能性を解消ないしは軽減する技術を開示してはいない。   On the other hand, Patent Document 1 does not point out the possibility that the three-dimensional input device will be enlarged due to the fact that the projection unit adopts the above-mentioned format, and of course, eliminates or reduces that possibility. The technology is not disclosed.

以上説明した事情を背景として、本発明は、光源からの入射光を複数種類のパターン光に選択的に変換し、それら複数種類のパターン光を順次、物体に投影することにより、その物体を3次元的に入力する技術において、それら複数種類のパターン光を順次、物体に投影する技術を改善することを課題としてなされたものである。   Against the background described above, the present invention selectively converts incident light from a light source into a plurality of types of pattern light, and sequentially projects the plurality of types of pattern light onto the object, thereby making the object 3 In the technique of inputting in a two-dimensional manner, an object is to improve the technique of sequentially projecting the plurality of types of pattern light onto an object.

本発明によって下記の各態様が得られる。各態様は、項に区分し、各項には番号を付し、必要に応じて他の項の番号を引用する形式で記載する。これは、本発明が採用し得る技術的特徴の一部およびそれの組合せの理解を容易にするためであり、本発明が採用し得る技術的特徴およびそれの組合せが以下の態様に限定されると解釈すべきではない。すなわち、下記の態様には記載されていないが本明細書には記載されている技術的特徴を本発明の技術的特徴として適宜抽出して採用することは妨げられないと解釈すべきなのである。   The following aspects are obtained by the present invention. Each aspect is divided into sections, each section is given a number, and is described in a form that cites other section numbers as necessary. This is to facilitate understanding of some of the technical features that the present invention can employ and combinations thereof, and the technical features that can be employed by the present invention and combinations thereof are limited to the following embodiments. Should not be interpreted. That is, it should be construed that it is not impeded to appropriately extract and employ the technical features described in the present specification as technical features of the present invention although they are not described in the following embodiments.

さらに、各項を他の項の番号を引用する形式で記載することが必ずしも、各項に記載の技術的特徴を他の項に記載の技術的特徴から分離させて独立させることを妨げることを意味するわけではなく、各項に記載の技術的特徴をその性質に応じて適宜独立させることが可能であると解釈すべきである。   Further, describing each section in the form of quoting the numbers of the other sections does not necessarily prevent the technical features described in each section from being separated from the technical features described in the other sections. It should not be construed as meaning, but it should be construed that the technical features described in each section can be appropriately made independent depending on the nature.

(1) 物体の3次元形状を入力する3次元入力装置であって、
光源からの入射光を複数種類のパターン光に選択的に変換することにより、それら複数種類のパターン光を順次前記物体に投影する投影部と、
その投影された各パターン光に関連付けて前記物体を撮像する撮像部と、
その撮像部による撮像結果を処理することにより、前記物体の3次元形状を入力する処理部と
を含み、
前記投影部は、シート状を成して長さ方向に延びるマスクを含み、
そのマスクは、前記複数種類のパターン光にそれぞれ対応する複数のフレームが前記長さ方向に並んで割り当てられており、それらフレームが選択的に前記入射光の照射領域に位置させられ、
そのマスクは、前記各フレームごとに、前記マスクをそれの厚さ方向に貫通する貫通穴を、各フレームに対応するパターン光の形状に対応する形状を有する状態で備えており、
そのマスクは、前記長さ方向と前記厚さ方向との双方に平行な平面内において屈曲可能であり、
前記投影部は、さらに、
前記マスクを前記長さ方向に送る送り装置と、
前記マスクのうち前記照射領域に位置させられる部分から前記長さ方向に外れた部分を少なくとも一箇所において屈曲させる屈曲装置と
を含む3次元入力装置。
(1) A three-dimensional input device for inputting a three-dimensional shape of an object,
A projection unit that sequentially projects the plurality of types of pattern light onto the object by selectively converting incident light from the light source into a plurality of types of pattern light; and
An imaging unit that images the object in association with each projected pattern light;
A processing unit that inputs a three-dimensional shape of the object by processing an imaging result of the imaging unit;
The projection unit includes a mask that forms a sheet and extends in the length direction,
In the mask, a plurality of frames respectively corresponding to the plurality of types of pattern light are assigned in the length direction, and the frames are selectively positioned in the irradiation region of the incident light,
The mask is provided with a through hole penetrating the mask in the thickness direction for each frame in a state corresponding to the shape of the pattern light corresponding to each frame,
The mask is bendable in a plane parallel to both the length direction and the thickness direction;
The projection unit further includes:
A feeding device for sending the mask in the length direction;
A three-dimensional input device comprising: a bending device that bends at least one portion of the mask that deviates in the length direction from a portion positioned in the irradiation region.

この3次元入力装置においては、シート状を成して長さ方向に延びるマスクを用いることにより、複数種類のパターン光が選択的に物体に投影される。そのマスクは、そのマスクの長さ方向と厚さ方向との双方に平行な平面内において屈曲可能とされている。そして、この3次元入力装置は、マスクをそれの長さ方向に送る送り装置と、マスクのうち前記照射領域に位置させられる部分からマスクの長さ方向に外れた部分を少なくとも一箇所において屈曲させる屈曲装置とを含むように構成されている。   In this three-dimensional input device, a plurality of types of pattern light are selectively projected onto an object by using a mask that forms a sheet and extends in the length direction. The mask can be bent in a plane parallel to both the length direction and the thickness direction of the mask. The three-dimensional input device bends at least one portion of the mask that feeds the mask in the length direction thereof and a portion of the mask that deviates in the length direction of the mask from the portion positioned in the irradiation region. And a bending device.

したがって、この3次元入力装置は、複数のフレームが平面的かつ直線的に並んだマスクの全体を収容することが必要である場合に、そのマスクをそれの長さ方向における少なくとも一箇所において屈曲させてこの3次元入力装置に収容することが可能となる。   Therefore, when it is necessary to accommodate the entire mask in which a plurality of frames are arranged in a plane and in a straight line, this three-dimensional input device bends the mask at least at one position in the length direction thereof. The lever can be accommodated in the three-dimensional input device.

よって、この3次元入力装置によれば、そのマスクの全体が真っ直ぐに延びる姿勢でそのマスクをこの3次元入力装置に収容しなければならない場合とは異なり、そのマスクを真っ直ぐに展開した場合の全体長さをこの3次元入力装置において確保することが不可欠ではなくなる。   Therefore, according to the three-dimensional input device, unlike the case where the mask has to be accommodated in the three-dimensional input device in a posture in which the entire mask extends straight, the whole of the case where the mask is unfolded straight. It is not essential to ensure the length in this three-dimensional input device.

その結果、この3次元入力装置によれば、複数のフレームが平面的にかつ直線的に並んだマスクを使用することに起因するこの3次元入力装置の大型化を抑制することが容易となる。   As a result, according to the three-dimensional input device, it is easy to suppress an increase in size of the three-dimensional input device due to the use of a mask in which a plurality of frames are arranged in a plane and in a straight line.

さらに、本項に係る3次元入力装置においては、マスクをそれの厚さ方向に透過する光のパターンに応じて、物体に照射されるパターン光が生成され、マスクにおける光の透過は、そのマスクをそれの厚さ方向に貫通する貫通穴(空気開口)、すなわち、マスクを物理的に通過する貫通穴によって実現される。   Further, in the three-dimensional input device according to this section, pattern light applied to the object is generated according to the pattern of light that passes through the mask in the thickness direction, and transmission of light through the mask is performed by the mask. Is realized by a through hole (air opening) penetrating in the thickness direction thereof, that is, a through hole physically passing through the mask.

これに代えて、マスクにおける光の透過を、マスクを物理的には通過しないが光学的には通過する透明体によって実現することが可能である。しかし、その透明体を使用する場合には、貫通穴を使用する場合に比較し、そこを通過する光の透過率が低下し、その損失量が増加し易い。   Alternatively, light transmission through the mask can be realized by a transparent body that does not physically pass through the mask but passes optically. However, when the transparent body is used, the transmittance of light passing therethrough is lowered and the loss amount is likely to increase as compared with the case where the through hole is used.

これに対し、本項に係る3次元入力装置においては、マスクにおける光の透過が貫通穴(空気開口)によって実現されるため、そこを通過する光の損失が問題にならずに済む。よって、この3次元入力装置によれば、光源からの入射光をより有効にパターン光生成に利用することが可能となる。   On the other hand, in the three-dimensional input device according to this section, the light transmission through the mask is realized by the through hole (air opening), so that the loss of the light passing therethrough does not become a problem. Therefore, according to this three-dimensional input device, incident light from the light source can be used more effectively for pattern light generation.

(2) 前記屈曲装置は、前記マスクのうち前記長さ方向における両端部のうちの少なくとも一方を巻き取って収容する収容装置である(1)項に記載の3次元入力装置。 (2) The three-dimensional input device according to (1), wherein the bending device is a storage device that winds and stores at least one of both end portions in the length direction of the mask.

この3次元入力装置においては、収容装置により、マスクのうちそれの長さ方向における両端部のうちの少なくとも一方が巻き取られて収容される。したがって、この3次元入力装置によれば、そのマスクの全体を収容するために必要な寸法が、そのマスクを真っ直ぐに展開した場合の全体長さより短い寸法で足りることとなり、その結果、この3次元入力装置の小型化が容易となる。   In this three-dimensional input device, at least one of both end portions in the length direction of the mask is wound and stored by the storage device. Therefore, according to this three-dimensional input device, the dimension required to accommodate the entire mask is shorter than the total length when the mask is unfolded straight, and as a result, this three-dimensional input device is sufficient. The input device can be easily downsized.

(3) 前記収容装置は、前記マスクを巻き付けるローラを含む(2)項に記載の3次元入力装置。 (3) The three-dimensional input device according to (2), wherein the storage device includes a roller around which the mask is wound.

この3次元入力装置においては、マスクのうちそれの長さ方向における両端部のうちの少なくとも一方がローラに巻き付けられて収容される。したがって、この3次元入力装置によれば、例えば、マスクを、できる限り小さなスペース内において、そのマスクの長さ方向の全体にわたってマスクの曲率ができる限り均一であるように収容することが容易となる。その結果、マスクの巻き癖を抑制しつつ、収容スペースを削減することが容易となる。   In this three-dimensional input device, at least one of both end portions in the length direction of the mask is wound around a roller and accommodated. Therefore, according to this three-dimensional input device, for example, the mask can be easily accommodated in the smallest possible space so that the curvature of the mask is as uniform as possible over the entire length of the mask. . As a result, it becomes easy to reduce the accommodation space while suppressing the curling of the mask.

(4) さらに、前記撮像部が前記物体を撮像する撮像期間を少なくとも含む期間において、前記マスクのうち前記照射領域に位置させられる部分にテンションを前記長さ方向に付与するテンション付与装置を含む(1)ないし(3)項のいずれかに記載の3次元入力装置。 (4) Furthermore, the image sensor includes a tension applying device that applies tension in the length direction to a portion of the mask positioned in the irradiation region in a period including at least an imaging period in which the object is imaged ( The three-dimensional input device according to any one of 1) to (3).

この3次元入力装置においては、マスクのうち、前記光源からの入射光の照射領域に位置する部分に、それの長さ方向にテンションが作用させられる。一方、マスクのうちその照射領域に位置する部分の平面度が高いほど、そのマスクを通過する光が物体に投影されることによって形成されるパターン光の焦点面の平面度も高い。   In this three-dimensional input device, tension is applied to the portion of the mask located in the irradiation region of the incident light from the light source in the length direction thereof. On the other hand, the higher the flatness of the portion located in the irradiation area of the mask, the higher the flatness of the focal plane of the pattern light formed by projecting the light passing through the mask onto the object.

したがって、この3次元入力装置によれば、マスクが屈曲性を有するにもかかわらず、マスクのうち、前記光源からの入射光の照射領域に位置する部分の平面度が向上する。その結果、マスクを通過する光が物体に投影されることによって形成されるパターン光の焦点面の平面度が向上し、ひいては、この3次元入力装置が物体を3次元的に入力する精度も向上する。   Therefore, according to this three-dimensional input device, the flatness of the portion of the mask located in the irradiation region of the incident light from the light source is improved even though the mask is flexible. As a result, the flatness of the focal plane of the pattern light formed by projecting the light passing through the mask onto the object is improved, and as a result, the accuracy with which the three-dimensional input device inputs the object three-dimensionally is improved. To do.

(5) 前記マスクは、前記送り装置によって送られるためにその送り装置と機械的に係合するマスク側係合部を前記長さ方向に並んで複数個含み、
前記送り装置は、それら複数個のマスク側係合部に離脱可能に機械的に係合する送り装置側係合部を少なくとも1個含む(1)ないし(4)項のいずれかに記載の3次元入力装置。
(5) The mask includes a plurality of mask side engaging portions that are mechanically engaged with the feeding device in order to be fed by the feeding device, aligned in the length direction,
3. The feeding device according to any one of (1) to (4), wherein the feeding device includes at least one feeding device side engaging portion that is detachably mechanically engaged with the plurality of mask side engaging portions. Dimension input device.

この3次元入力装置によれば、マスクと送り装置との機械的係合を利用してマスクが送られるため、送り装置によるマスクの送り位置の精度を向上させることが容易となる。   According to this three-dimensional input device, since the mask is fed using the mechanical engagement between the mask and the feeding device, it is easy to improve the accuracy of the mask feeding position by the feeding device.

(6) 前記マスクは、そのマスクの前記送り装置による送り位置を測定するために検出される第1被検出部を前記長さ方向に並んで複数個、前記マスクと一体的に移動可能に含み、
当該3次元入力装置は、さらに、
前記複数個の第1被検出部を選択的に検出する第1センサを含む(1)ないし(5)項のいずれかに記載の3次元入力装置。
(6) The mask includes a plurality of first detected portions that are detected in order to measure the position of the mask that is fed by the feeding device, arranged in the length direction so as to be movable integrally with the mask. ,
The three-dimensional input device further includes:
The three-dimensional input device according to any one of (1) to (5), including a first sensor that selectively detects the plurality of first detection parts.

この3次元入力装置によれば、マスクの送り位置が検出されるため、マスクの送り位置を制御する精度を向上させることが容易となる。また、マスクの送り位置の検出結果を利用すれば、例えば、マスクにおける複数のフレームのうちのいずれかが前記照射領域に位置しているか否かを判定することが可能となる。   According to this three-dimensional input apparatus, since the mask feed position is detected, it is easy to improve the accuracy of controlling the mask feed position. Further, by using the detection result of the mask feed position, for example, it is possible to determine whether any of a plurality of frames in the mask is located in the irradiation region.

(7) 前記マスクは、前記各フレームを識別するために検出される第2被検出部を含み、
当該3次元入力装置は、さらに、
前記第2被検出部を検出する第2センサを含む(1)ないし(6)項のいずれかに記載の3次元入力装置。
(7) The mask includes a second detected part that is detected to identify each frame,
The three-dimensional input device further includes:
The three-dimensional input device according to any one of (1) to (6), including a second sensor that detects the second detected portion.

この3次元入力装置によれば、各フレームの識別が可能となり、例えば、現に注目しているフレームの番号等、識別情報を特定することが可能となる。したがって、例えば、前記(6)に記載の技術と組み合わせて実施する場合に、いずれかのフレームが前記照射領域に位置することを前記第1センサによって検出し、かつ、その検出されたフレームの種別を前記第2センサによって特定することが可能となる。   According to this three-dimensional input device, each frame can be identified, and for example, identification information such as the number of the frame currently focused on can be specified. Therefore, for example, when implemented in combination with the technique described in (6), the first sensor detects that any frame is located in the irradiation region, and the type of the detected frame Can be specified by the second sensor.

よって、この3次元入力装置によれば、例えば、目標のパターン光を生成するためのフレームとは異なるフレームが前記照射領域に位置決めされ、そのため、目標のパターン光とは異なるパターン光が物体に投影されてしまう事態を回避することが容易となる。   Therefore, according to the three-dimensional input device, for example, a frame different from the frame for generating the target pattern light is positioned in the irradiation area, and therefore, the pattern light different from the target pattern light is projected onto the object. It becomes easy to avoid the situation where it is done.

(8) 前記投影部は、さらに、前記マスクの連続的送りによって前記複数のフレームが順次前記照射領域に位置させられるように前記送り装置を制御するコントローラを含む(1)ないし(7)項のいずれかに記載の3次元入力装置。 (8) The projection unit further includes a controller that controls the feeding device so that the plurality of frames are sequentially positioned in the irradiation area by continuous feeding of the mask. The three-dimensional input device according to any one of the above.

この3次元入力装置によれば、例えば、マスクの高速送りが容易となり、それにより、例えば、前記撮像部が物体を撮像するのに必要な撮像時間を短縮することが容易となる。   According to this three-dimensional input device, for example, high-speed feeding of a mask is facilitated, and thereby, for example, it is easy to shorten an imaging time required for the imaging unit to image an object.

(9) 前記投影部は、さらに、前記マスクの間欠的送りによって前記複数のフレームが順次前記照射領域に位置させられるように前記送り装置を制御するコントローラを含む(1)ないし(7)項のいずれかに記載の3次元入力装置。 (9) The projection unit further includes a controller that controls the feeding device so that the plurality of frames are sequentially positioned in the irradiation region by intermittent feeding of the mask. The three-dimensional input device according to any one of the above.

この3次元入力装置によれば、例えば、マスクを各フレームごとに確実に前記照射領域に位置決めすることが容易となり、それにより、例えば、この3次元入力装置が物体を3次元的に入力する3次元入力精度を向上させることが容易となる。   According to this three-dimensional input device, for example, it becomes easy to reliably position the mask in the irradiation area for each frame, and for example, the three-dimensional input device inputs the object three-dimensionally. It becomes easy to improve the dimension input accuracy.

(10) 前記マスクは、金属を主体とする材料によって構成される(1)ないし(9)項のいずれかに記載の3次元入力装置。 (10) The three-dimensional input device according to any one of (1) to (9), wherein the mask is made of a material mainly composed of metal.

この3次元入力装置によれば、マスクが金属を主体とする材料によって構成されるため、同じマスクが合成樹脂を主体とする材料によって構成される場合に比較して、熱および外力によるマスクの変形が少なくて済む。その結果、マスクの変形に起因した投影パターン光の形状精度の低下ひいては3次元入力装置の3次元入力精度の低下を抑制することが容易となる。   According to this three-dimensional input device, since the mask is made of a material mainly made of metal, the mask is deformed by heat and external force as compared with the case where the same mask is made of a material mainly made of synthetic resin. Is less. As a result, it becomes easy to suppress a decrease in the shape accuracy of the projection pattern light due to the deformation of the mask, and hence a decrease in the three-dimensional input accuracy of the three-dimensional input device.

この3次元入力装置によれば、マスクが金属を主体とする材料によって構成されるため、同じマスクを合成樹脂を主体とする材料によって構成される場合に比較して、前記光源からマスクに入射する光がそのマスクによって吸収される量が少なくて済む。その結果、光源からの光を有効にパターン光生成に利用することが容易となる。   According to this three-dimensional input device, since the mask is made of a material mainly made of metal, the same light is incident on the mask from the light source as compared with the case where the same mask is made of a material mainly made of synthetic resin. Less light is absorbed by the mask. As a result, it becomes easy to effectively use light from the light source for pattern light generation.

(11) 前記貫通穴は、前記長さ方向に平行に延びる長穴である(1)ないし(10)項のいずれかに記載の3次元入力装置。 (11) The three-dimensional input device according to any one of (1) to (10), wherein the through hole is a long hole extending in parallel with the length direction.

マスクをそれの長さ方向に送りつつそのマスクを通過する光によってパターン光を生成する際に重要なことの一つは、物体を撮像するためにその物体に投影されるパターン光の、それの光軸に直角な方向における位置が正規であることである。そのためには、そのパターン光を生成するためのフレームが正確に前記照射領域に位置決めされることが必要である。   One of the important things in generating pattern light by light passing through the mask while sending the mask in its length direction is that of the pattern light projected onto the object to image it. The position in the direction perpendicular to the optical axis is normal. For this purpose, it is necessary that the frame for generating the pattern light is accurately positioned in the irradiation area.

一方、各フレームにおける開口パターン(前記貫通穴によってマスク上に各フレームごとに形成されるパターン)がストライプを成す場合には、各フレームの位置決め精度を、ストライプの長さ方向において確保することより、ストライプの幅方向において確保することが、投影パターン光の形状精度を確保するためにより重要である。   On the other hand, when the opening pattern in each frame (pattern formed for each frame on the mask by the through hole) forms a stripe, by ensuring the positioning accuracy of each frame in the length direction of the stripe, Securing in the width direction of the stripe is more important to ensure the shape accuracy of the projection pattern light.

これに対し、本項に係る3次元入力装置においては、各フレームにおいて開口パターンを形成する貫通穴が、マスクの長さ方向に平行に延びる長穴とされている。したがって、貫通穴の長さ方向がマスクの送り方向に一致させられている。よって、マスクの送り中、貫通穴は、それの長さ方向に移動するのみで、それの幅方向には移動せずに済む。   On the other hand, in the three-dimensional input device according to this section, the through holes forming the opening pattern in each frame are elongated holes extending in parallel with the length direction of the mask. Therefore, the length direction of the through hole is matched with the mask feed direction. Therefore, during the sending of the mask, the through hole only moves in the length direction thereof, and does not need to move in the width direction thereof.

その結果、この3次元入力装置によれば、マスクの送り中、そのマスクの幅方向位置が維持される限り、各貫通穴の、それの幅方向における位置が維持される。よって、マスクの送り位置に誤差があっても、その影響が、貫通穴の幅方向位置ひいては投影パターン光の形状精度に及ばずに済む。したがって、この3次元入力装置によれば、マスクの送り位置誤差にもかかわらず、3次元入力精度を確保することが容易となる。   As a result, according to this three-dimensional input device, as long as the position in the width direction of the mask is maintained while the mask is being fed, the position of each through hole in the width direction is maintained. Therefore, even if there is an error in the mask feed position, the effect does not have to affect the position in the width direction of the through hole and thus the shape accuracy of the projection pattern light. Therefore, according to this three-dimensional input device, it is easy to ensure the three-dimensional input accuracy despite the mask feed position error.

(12) 当該3次元入力装置は、ハンドヘルドタイプである(1)ないし(11)項のいずれかに記載の3次元入力装置。 (12) The three-dimensional input device according to any one of (1) to (11), wherein the three-dimensional input device is a handheld type.

以下、本発明のさらに具体的な実施の形態のうちのいくつかを図面に基づいて詳細に説明する。   Hereinafter, some of the more specific embodiments of the present invention will be described in detail with reference to the drawings.

図1には、本発明の第1実施形態に従う3次元入力装置10の外観が斜視図で示されている。この3次元入力装置10は、ストライプ状のパターン光の被写体S(物体)への投影と、被写体Sの撮像と、その撮像結果に基づき、被写体Sの3次元情報および表面色情報をコンピュータによって取得する信号処理とを行うように設計されている。   FIG. 1 is a perspective view showing the appearance of the three-dimensional input device 10 according to the first embodiment of the present invention. The three-dimensional input device 10 obtains the three-dimensional information and surface color information of the subject S by a computer based on the projection of the striped pattern light onto the subject S (object), the imaging of the subject S, and the imaging result. It is designed to perform signal processing.

図1に示すように、この3次元入力装置10は、ハンドヘルドタイプであり、ユーザは手で持って移動させることが可能である。また、この3次元入力装置10は、その手振れや、被写体Sの移動にもかかわらず、被写体Sの3次元形状情報と表面色情報とを画素の位置に関して互いに正確にマッチングするように被写体Sを撮像するように設計されている。そのため、図1には、動く被写体Sの一例として動物の亀が示されている。   As shown in FIG. 1, the three-dimensional input device 10 is a handheld type, and the user can move it by hand. In addition, the three-dimensional input device 10 controls the subject S so that the three-dimensional shape information of the subject S and the surface color information are accurately matched to each other with respect to the pixel position, regardless of the camera shake or the movement of the subject S. Designed to image. Therefore, in FIG. 1, an animal turtle is shown as an example of the moving subject S.

それら被写体Sへの投影と、被写体Sの撮像と、被写体Sの3次元情報および表面色情報の取得とを行うために、この3次元入力装置10は、図2に示すように、投影部12と、撮像部14と、処理部16とをそれぞれ含むように構成されている。   In order to perform projection onto the subject S, imaging of the subject S, and acquisition of three-dimensional information and surface color information of the subject S, the three-dimensional input device 10 includes a projection unit 12 as shown in FIG. And an imaging unit 14 and a processing unit 16.

この3次元入力装置10は、複数種類のモードのうちユーザによって選択されたものに従って作動する。それらモードは、SLOWモードと、FASTモードと、オフモードとを含んでいる。SLOWモードは、被写体Sを低速で高精度で撮像する低速撮像モードであり、撮像精度優先モードである。FASTモードは、被写体Sを高速で低精度で撮像する高速撮像モードであり、撮像時間優先モードである。オフモードは、この3次元入力装置10の動作を停止させるモードである。   The three-dimensional input device 10 operates according to a mode selected by the user from among a plurality of types of modes. These modes include a SLOW mode, a FAST mode, and an off mode. The SLOW mode is a low-speed imaging mode in which the subject S is imaged with high accuracy at low speed, and is an imaging accuracy priority mode. The FAST mode is a high-speed imaging mode that images the subject S at high speed with low accuracy, and is an imaging time priority mode. The off mode is a mode in which the operation of the three-dimensional input device 10 is stopped.

撮像部14は、被写体Sを撮像し、その撮像結果から、その被写体Sを表す全体画像を構成する複数個の画素のいずれかを間引いて形成される画素間引き画像と、いずれの画素も間引かずに形成される画素非間引き画像とを選択的に取り出すことが可能であるように構成されている。さらに、撮像部14は、被写体Sの撮像後、その撮像結果から画素間引き画像を、画素非間引き画像を取り出すのに必要な時間より短い時間で取り出すように構成されている。   The imaging unit 14 images the subject S, and from the imaging result, a pixel thinned image formed by thinning out any of a plurality of pixels constituting the entire image representing the subject S, and all the pixels are thinned out. It is configured such that it is possible to selectively extract the non-pixel thinned image formed without any delay. Furthermore, the imaging unit 14 is configured to take out the pixel-thinned image from the imaging result after taking the subject S in a time shorter than the time required to take out the pixel non-thinned image.

CCDを用いた撮像の分野においては、被写体Sの撮像結果から画素間引き画像を取り出すために、加算方式と選択方式とがすでに知られている。   In the field of imaging using a CCD, an addition method and a selection method are already known in order to extract a pixel-thinned image from the imaging result of the subject S.

加算方式によれば、被写体Sを表す全体画像を構成する複数個の画素がグループ分けされた複数個の画素グループの各々に属する複数個の対象画素の照度検出値が各画素グループごとに加算され、その加算された照度を用いて、各画素グループに属する複数個の対象画素の照度検出値が均等に分散される。   According to the addition method, the illuminance detection values of a plurality of target pixels belonging to each of a plurality of pixel groups in which a plurality of pixels constituting the entire image representing the subject S are grouped are added for each pixel group. The detected illuminance values of a plurality of target pixels belonging to each pixel group are evenly distributed using the added illuminance.

これに対し、選択方式によれば、それら複数個の画素グループの各々に属する複数個の対象画素から、それら対象画素を代表する代表画素が各画素グループごとに選択され、その選択された代表画素の照度検出値を用いて、各画素グループに属する複数個の対象画素の照度検出値が均等に分散される。   On the other hand, according to the selection method, a representative pixel representing the target pixel is selected for each pixel group from a plurality of target pixels belonging to each of the plurality of pixel groups, and the selected representative pixel The detected illuminance values of a plurality of target pixels belonging to each pixel group are evenly distributed using the detected illuminance values.

本実施形態においては、撮像部14は、それら加算方式と選択方式とのうち予め選択されたものに従い、被写体Sの撮像結果から画素間引き画像を取り出すように設計されている。   In the present embodiment, the imaging unit 14 is designed to extract a pixel-thinned image from the imaging result of the subject S in accordance with a preselected one of the addition method and the selection method.

被写体Sの撮像結果から画素間引き画像を取り出す間引き画像処理モードは、被写体Sを低速で高精度で撮像する低速撮像モードに適している。一方、被写体Sの撮像結果から画素非間引き画像を取り出す非間引き画像処理モードは、被写体Sを高速で低精度で撮像する高速撮像モードに適している。   The thinned-out image processing mode for extracting a pixel-thinned image from the imaging result of the subject S is suitable for a low-speed imaging mode in which the subject S is imaged with high accuracy at low speed. On the other hand, the non-decimated image processing mode for extracting the pixel non-decimated image from the imaging result of the subject S is suitable for the high-speed imaging mode for imaging the subject S at high speed with low accuracy.

したがって、本実施形態においては、ユーザによってFASTモードが選択されると、間引き画像処理モードが設定される一方、ユーザによってSLOWモードが選択されると、非間引き画像処理モードが設定される。   Therefore, in this embodiment, when the FAST mode is selected by the user, the thinned image processing mode is set, while when the SLOW mode is selected by the user, the non-thinned image processing mode is set.

図1に示すように、この3次元入力装置10は、略箱状を成すケーシング20を備えている。   As shown in FIG. 1, the three-dimensional input apparatus 10 includes a casing 20 having a substantially box shape.

ケーシング20内においては、図2に示すように、投影部12および撮像部14がそれぞれ、破線で示すサブケーシング内に収容された状態で配置されている。図1に示すように、このケーシング20は、鏡筒24と、フラッシュ26とを、それぞれが部分的にケーシング20の正面において露出する姿勢で備えている。このケーシング20は、さらに、撮像部14の一部である撮像光学系30を、それのレンズの一部がケーシング20の正面において露出する姿勢で備えている。その撮像光学系30は、それの露出部分において、被写体Sを表す画像光を受光する。   In the casing 20, as shown in FIG. 2, the projection part 12 and the imaging part 14 are each arrange | positioned in the state accommodated in the subcasing shown with a broken line. As shown in FIG. 1, the casing 20 includes a lens barrel 24 and a flash 26 in a posture in which each is partially exposed in front of the casing 20. The casing 20 further includes an imaging optical system 30 that is a part of the imaging unit 14 in a posture in which a part of the lens is exposed in front of the casing 20. The imaging optical system 30 receives image light representing the subject S at the exposed portion thereof.

鏡筒24は、図1に示すように、ケーシング20の正面から突出しており、その内部において、図2に示すように、投影部12の一部である投影光学系32を収容している。この鏡筒24は投影光学系32を、焦点調節のために全体的に移動可能である状態で保持し、さらに、この鏡筒24は、投影光学系32を損傷から保護している。鏡筒24の露出端面から、投影部12の一部である投影光学系32のレンズの一部が露出している。投影光学系32は、それの露出部分において、被写体Sに向かってパターン光を投影する。   The lens barrel 24 protrudes from the front surface of the casing 20 as shown in FIG. 1, and accommodates a projection optical system 32 that is a part of the projection unit 12 as shown in FIG. The lens barrel 24 holds the projection optical system 32 in a state where the projection optical system 32 can be moved as a whole for focus adjustment. Further, the lens barrel 24 protects the projection optical system 32 from damage. A part of the lens of the projection optical system 32 that is a part of the projection unit 12 is exposed from the exposed end face of the lens barrel 24. The projection optical system 32 projects pattern light toward the subject S at the exposed portion.

フラッシュ26は、不足光量を補充するために発光する光源であり、例えば、キセノンガスが充填された放電管を用いて構成されている。したがって、このフラッシュ26は、ケーシング20に内蔵されているコンデンサ(図示しない)の放電により繰り返し使用することができる。   The flash 26 is a light source that emits light to supplement the insufficient light amount, and is configured using, for example, a discharge tube filled with xenon gas. Therefore, the flash 26 can be repeatedly used by discharging a capacitor (not shown) built in the casing 20.

ケーシング20は、さらに、それの上面において、レリーズボタン40と、モード切替スイッチ42と、モニタLCD44とを備えている。   The casing 20 further includes a release button 40, a mode changeover switch 42, and a monitor LCD 44 on the upper surface thereof.

レリーズボタン40は、3次元入力装置10を作動させるためにユーザによって操作される。このレリーズボタン40は、ユーザの操作状態(押下状態)が「半押し状態」である場合と「全押し状態」である場合とで異なる指令を発令できる2段階の押しボタン式のスイッチによって構成されている。レリーズボタン40の操作状態は処理部16によって監視される。処理部16によって「半押し状態」が検出されれば、よく知られたオートフォーカス(AF)および自動露出(AF)の機能が起動し、ピント、絞りおよびシャッタスピードが自動的に調節される。これに対し、処理部16によって「全押し状態」が検出されれば、撮像等が行われる。   The release button 40 is operated by the user to operate the three-dimensional input device 10. The release button 40 is composed of a two-stage push button type switch that can issue different commands depending on whether the user's operation state (pressed state) is “half-pressed state” or “full-pressed state”. ing. The operation state of the release button 40 is monitored by the processing unit 16. When the “half-pressed state” is detected by the processing unit 16, well-known auto focus (AF) and automatic exposure (AF) functions are activated, and the focus, aperture, and shutter speed are automatically adjusted. On the other hand, if the “fully pressed state” is detected by the processing unit 16, imaging or the like is performed.

モード切替スイッチ42は、3次元入力装置10の作動モードを、前述のSLOWモード、FASTモードおよびオフモードを含む複数種類のモードのいずれかとして設定するためにユーザによって操作される。このモード切替スイッチ42の操作状態は処理部16によって監視されており、モード切替スイッチ42の操作状態が処理部16によって検出されると、その検出された操作状態に対応するモードでの処理が3次元入力装置10において行われる。   The mode changeover switch 42 is operated by the user to set the operation mode of the three-dimensional input apparatus 10 as one of a plurality of modes including the SLOW mode, the FAST mode, and the off mode. The operation state of the mode changeover switch 42 is monitored by the processing unit 16. When the operation state of the mode changeover switch 42 is detected by the processing unit 16, the process in the mode corresponding to the detected operation state is 3. This is performed in the dimension input device 10.

モニタLCD44は、液晶ディスプレイ(Liquid Crystal Display)を用いて構成されており、処理部16から画像信号を受けて、画像をユーザに表示する。このモニタLCD44は、例えば、被写体Sの3次元形状の検出結果を表す画像(立体画像)等を表示する。   The monitor LCD 44 is configured using a liquid crystal display, and receives an image signal from the processing unit 16 and displays an image to the user. The monitor LCD 44 displays, for example, an image (stereoscopic image) representing the detection result of the three-dimensional shape of the subject S.

図1に示すように、ケーシング20は、さらに、RF(無線)インタフェイスとしてのアンテナ50を備えている。   As shown in FIG. 1, the casing 20 further includes an antenna 50 as an RF (wireless) interface.

アンテナ50は、図2に示すように、RFドライバ52に接続されている。このアンテナ50は、上述の立体画像を表すデータ等を、RFドライバ52を介して、図示しない外部インタフェイスに無線によって送信する。   The antenna 50 is connected to the RF driver 52 as shown in FIG. The antenna 50 wirelessly transmits the above-described data representing a stereoscopic image to an external interface (not shown) via the RF driver 52.

図2には、ケーシング20の内部構成が概念的に表されている。ケーシング20は、前述のように、投影部12と、撮像部14と、処理部16とを主に内蔵している。   FIG. 2 conceptually shows the internal configuration of the casing 20. As described above, the casing 20 mainly includes the projection unit 12, the imaging unit 14, and the processing unit 16.

投影部12は、被写体Sにパターン光を投影するためのユニットである。この投影部12は、図2に示すように、基板60と、複数個のLED62(以下、それらのアレイを「LEDアレイ62A」という。)と、光源レンズ64と、モータ(例えば、パルスモータ)65を駆動源とする投影機構66と、投影光学系32とを、投影方向に沿って直列に備えている。   The projection unit 12 is a unit for projecting pattern light onto the subject S. As shown in FIG. 2, the projection unit 12 includes a substrate 60, a plurality of LEDs 62 (hereinafter referred to as “LED array 62A”), a light source lens 64, and a motor (for example, a pulse motor). A projection mechanism 66 using 65 as a drive source and a projection optical system 32 are provided in series along the projection direction.

図3および図4には、この投影部12のハードウエア構成のうち、基板60と、LEDアレイ62Aと、光源レンズ64と、投影光学系32とが詳細に示されている。図5には、この投影部12を含む3次元入力装置10全体のソフトウエア構成および電気的接続関係が詳細に示されている。図13ないし図20には、投影部12のハードウエア構成のうち、投影機構66が詳細に示されている。   3 and 4 show the substrate 60, the LED array 62A, the light source lens 64, and the projection optical system 32 in detail in the hardware configuration of the projection unit 12. FIG. 5 shows in detail the software configuration and the electrical connection relationship of the entire three-dimensional input apparatus 10 including the projection unit 12. FIGS. 13 to 20 show the projection mechanism 66 in detail in the hardware configuration of the projection unit 12.

撮像部14は、被写体Sを撮像するためのユニットである。この撮像部14は、図2に示すように、撮像光学系30と、CCD(Charge Coupled Device)70とを、画像光の入射方向に沿って直列に備えている。このCCD70は、インターライントランスファー方式でプログレッシブ走査を行うように構成されている。   The imaging unit 14 is a unit for imaging the subject S. As shown in FIG. 2, the imaging unit 14 includes an imaging optical system 30 and a CCD (Charge Coupled Device) 70 in series along the incident direction of image light. The CCD 70 is configured to perform progressive scanning by an interline transfer method.

撮像光学系30は、図2に示すように、複数枚のレンズを用いて構成されている。この撮像光学系30は、よく知られたオートフォーカス機能により、焦点距離および絞りを自動調整して外部からの光をCCD70上に結像する。   As shown in FIG. 2, the imaging optical system 30 is configured using a plurality of lenses. The imaging optical system 30 automatically adjusts a focal length and a diaphragm by a well-known autofocus function to form an image of external light on the CCD 70.

CCD70は、フォトダイオード素子などの光電変換素子をマトリクス状に配列して構成されている。このCCD70は、撮像光学系30を介してこのCCD70の表面に結像される画像の光の色および強さに応じた信号を各画素ごとに生成する。その生成された信号は、デジタルデータに変換されて処理部16に出力される。   The CCD 70 is configured by arranging photoelectric conversion elements such as photodiode elements in a matrix. The CCD 70 generates a signal corresponding to the color and intensity of light of an image formed on the surface of the CCD 70 via the imaging optical system 30 for each pixel. The generated signal is converted into digital data and output to the processing unit 16.

図5にブロック図で表すように、処理部16は、フラッシュ26、レリーズボタン40およびモード切替スイッチ42にそれぞれ電気的に接続されている。処理部16は、さらに、モニタLCD44にはモニタLCDドライバ72を介して、アンテナ50にはRFドライバ52を介して、バッテリ74には電源インタフェイス76を介してそれぞれ電気的に接続されている。   As shown in the block diagram of FIG. 5, the processing unit 16 is electrically connected to the flash 26, the release button 40, and the mode changeover switch 42. Further, the processing unit 16 is electrically connected to the monitor LCD 44 via the monitor LCD driver 72, to the antenna 50 via the RF driver 52, and to the battery 74 via the power interface 76.

処理部16は、さらに、外部メモリ78およびキャッシュメモリ80にそれぞれ電気的に接続されている。処理部16は、さらに、LEDアレイ62Aには光源ドライバ84を介して、投影機構66のモータ65にはモータドライバ86を介して、CCD70にはCCDインタフェイス88を介してそれぞれ電気的に接続されている。それらフラッシュ26等は、処理部16によって制御される。   The processing unit 16 is further electrically connected to the external memory 78 and the cache memory 80, respectively. The processing unit 16 is further electrically connected to the LED array 62A via the light source driver 84, to the motor 65 of the projection mechanism 66 via the motor driver 86, and to the CCD 70 via the CCD interface 88. ing. The flash 26 and the like are controlled by the processing unit 16.

外部メモリ78は、着脱可能なフラッシュROMであり、立体画像モードにおいて撮像された撮像画像や3次元情報を記憶することが可能である。外部メモリ78を構成するために、例えば、SDカード、コンパクトフラッシュ(登録商標)カード等を使用することができる。   The external memory 78 is a detachable flash ROM, and can store captured images and three-dimensional information captured in the stereoscopic image mode. In order to configure the external memory 78, for example, an SD card, a compact flash (registered trademark) card, or the like can be used.

キャッシュメモリ80は、データの読み書きを高速で行い得る記憶装置である。キャッシュメモリ80は、例えば、デジカメモードにおいて撮像された撮像画像を高速でキャッシュメモリ80に転送し、処理部16で画像処理を行ってから外部メモリ78に格納することを可能にするために使用される。キャッシュメモリ80を構成するために、例えば、SDRAM、DDRRAM等を使用することができる。   The cache memory 80 is a storage device that can read and write data at high speed. The cache memory 80 is used, for example, to enable a captured image captured in the digital camera mode to be transferred to the cache memory 80 at a high speed and stored in the external memory 78 after being processed by the processing unit 16. The In order to configure the cache memory 80, for example, SDRAM, DDRRAM, or the like can be used.

電源インタフェイス76、光源ドライバ84、モータドライバ86およびCCDインタフェイス88はそれぞれ、バッテリ74、LEDアレイ62A、投影機構66のモータ65およびCCD70を制御する各種のIC(Integrated Circuit)によって構成されている。   The power supply interface 76, the light source driver 84, the motor driver 86, and the CCD interface 88 are configured by various ICs (Integrated Circuits) that control the battery 74, the LED array 62A, the motor 65 of the projection mechanism 66, and the CCD 70, respectively. .

ここで、図3および図4を参照することにより、投影部12のハードウエア構成のうち、基板60と、LEDアレイ62Aと、光源レンズ64と、投影光学系32とを詳細に説明する。図3(a)は投影部12の拡大図であり、図3(b)は光源レンズ64の正面図である。図4は、LEDアレイ62Aの配列を説明するための図である。   Here, with reference to FIG. 3 and FIG. 4, the board | substrate 60, LED array 62A, the light source lens 64, and the projection optical system 32 among the hardware structures of the projection part 12 are demonstrated in detail. FIG. 3A is an enlarged view of the projection unit 12, and FIG. 3B is a front view of the light source lens 64. FIG. 4 is a diagram for explaining the arrangement of the LED array 62A.

前述のように、投影部12は、図3(a)に示すように、基板60と、LEDアレイ62Aと、光源レンズ64と、投影機構66と、投影光学系32とをパターン光の投影方向に沿って直列に備えている。   As described above, as shown in FIG. 3A, the projection unit 12 includes the substrate 60, the LED array 62A, the light source lens 64, the projection mechanism 66, and the projection optical system 32 in the pattern light projection direction. Are provided in series.

基板60は、それにLEDアレイ62Aが装着されることにより、その装着されたLEDアレイ62Aとの間において電気的な配線を行う。基板60は、例えば、アルミニウム製基板に絶縁性合成樹脂を塗布してから無電解メッキにてパターンを形成したものや、ガラスエポキシ基材をコアとする単層または多層構造の基板を使用して製作することができる。   When the LED array 62A is attached to the substrate 60, electrical wiring is performed between the substrate 60 and the attached LED array 62A. As the substrate 60, for example, an insulating synthetic resin is applied to an aluminum substrate and then a pattern is formed by electroless plating, or a single layer or multilayer structure substrate having a glass epoxy base as a core is used. Can be produced.

LEDアレイ62Aは、投影機構66に向けて放射状の光を発光する光源である。このLEDアレイ62Aにおいては、基板60上に複数個のLED(発光ダイオード)62が、図3(b)に示すように、千鳥状配列のもとに、銀ペーストを介して接着されている。それら基板60と複数個のLED62とは、ボンディングワイヤを介して電気的に結線されている。複数個のLED62を千鳥状に配列することによる効果は、後に図4を参照して詳細に説明する。   The LED array 62 </ b> A is a light source that emits radial light toward the projection mechanism 66. In this LED array 62A, a plurality of LEDs (light emitting diodes) 62 are bonded on a substrate 60 via a silver paste in a staggered arrangement as shown in FIG. The substrate 60 and the plurality of LEDs 62 are electrically connected via bonding wires. The effect obtained by arranging the plurality of LEDs 62 in a staggered manner will be described in detail later with reference to FIG.

このように、本実施形態においては、投影部12の光源として複数個のLED62が使用されているため、光源として白熱電球、ハロゲンランプ等が使用される場合に比べて、電気が光に変換される電気光変換効率の向上や、赤外線や紫外線の発生の抑制を容易に行い得る。よって、3次元入力装置10の節電、長寿命化、発熱抑制等を容易に図り得る。   As described above, in the present embodiment, since a plurality of LEDs 62 are used as the light source of the projection unit 12, electricity is converted into light as compared with the case where an incandescent bulb, a halogen lamp, or the like is used as the light source. Therefore, it is possible to easily improve the electro-optical conversion efficiency and suppress the generation of infrared rays and ultraviolet rays. Therefore, it is possible to easily achieve power saving, long life, and suppression of heat generation of the three-dimensional input device 10.

このように、LED62はハロゲンランプ等に比べて熱線の発生率が極めて低いため、光源レンズ64や投影光学系32に合成樹脂製のレンズを採用することができる。よって、ガラス製のレンズを採用する場合に比べて、光源レンズ64および投影光学系32を安価で軽量に構成することができる。   As described above, the LED 62 has an extremely low heat ray generation rate as compared with a halogen lamp or the like, and therefore, a synthetic resin lens can be used for the light source lens 64 and the projection optical system 32. Therefore, the light source lens 64 and the projection optical system 32 can be made cheaper and lighter than when a glass lens is employed.

さらに、本実施形態においては、LEDアレイ62Aを構成する各LED62が、互いに同じ色の光を発光し、具体的には、材料にAl、In、GaおよびPの4元素を用いたアンバー色を発光するように構成されている。したがって、複数色の光を発光させる場合に考慮しなければならない問題である色収差の補正を考慮する必要がなく、よって、色収差を補正するために投影光学系32に色消しレンズを採用する必要もない。その結果、投影光学系32の設計の自由度を向上させることができる。   Furthermore, in this embodiment, each LED 62 constituting the LED array 62A emits light of the same color, and specifically, an amber color using four elements of Al, In, Ga, and P as materials. It is configured to emit light. Therefore, it is not necessary to consider correction of chromatic aberration, which is a problem that must be taken into account when light of a plurality of colors is emitted. Therefore, it is also necessary to employ an achromatic lens in the projection optical system 32 in order to correct chromatic aberration. Absent. As a result, the degree of freedom in designing the projection optical system 32 can be improved.

さらに、本実施形態においては、LED62として、電気光変換効率が約80[lumen/W]というように他の発光色に比べて高い4元素材料のアンバー色LEDが採用されるため、3次元入力装置10の高輝度化、節電および長寿命化を容易に図り得る。   Furthermore, in this embodiment, since the LED 62 is an amber LED of a four-element material that has an electro-optical conversion efficiency of about 80 [lumen / W] compared to other emission colors, a three-dimensional input is used. The device 10 can easily achieve high brightness, power saving, and long life.

本実施形態においては、具体的には、LEDアレイ62Aが59個のLED62によって構成され、各LED62は50[mW](20[mA],2.5[V])で駆動され、結局、59個のLED62の全体は略3[W]の消費電力で駆動される。   Specifically, in this embodiment, the LED array 62A is composed of 59 LEDs 62, and each LED 62 is driven at 50 [mW] (20 [mA], 2.5 [V]). The entire LED 62 is driven with power consumption of about 3 [W].

さらに、本実施形態においては、各LED62から発光される光が光源レンズ64および投影機構66を通過して投影光学系32から出射する場合の光束値としての明るさが、全面照射の場合であっても25ANSIルーメン程度に設定されている。   Further, in the present embodiment, the brightness as the luminous flux value when the light emitted from each LED 62 passes through the light source lens 64 and the projection mechanism 66 and is emitted from the projection optical system 32 is the case of full-surface illumination. Even it is set to about 25 ANSI lumens.

本実施形態においては、3次元入力装置10の投影部12からの出射光の明るさがその程度に選定されるため、例えば、被写体Sが人や動物の顔である場合に、その被写体Sの3次元形状を検出するためにその被写体Sにパターン光を投影しても、被写体Sに眩しさを与えずに済む。したがって、本実施形態によれば、被写体Sが人や動物である場合に、その被写体Sが目をつぶらない状態でその被写体Sの3次元形状を検出することが容易となる。   In this embodiment, since the brightness of the emitted light from the projection unit 12 of the three-dimensional input device 10 is selected to that extent, for example, when the subject S is a human or animal face, the subject S Even if pattern light is projected onto the subject S in order to detect a three-dimensional shape, the subject S does not have to be dazzled. Therefore, according to the present embodiment, when the subject S is a person or an animal, it is easy to detect the three-dimensional shape of the subject S in a state where the subject S does not close his eyes.

図3に示すように、光源レンズ64は、LEDアレイ62Aから放射状に発光される光を集光するレンズであり、その材質はアクリルに代表される光学樹脂である。   As shown in FIG. 3, the light source lens 64 is a lens that collects light emitted radially from the LED array 62A, and the material thereof is an optical resin typified by acrylic.

図3(a)に示すように、光源レンズ64は、複数個の凸状のレンズ部90と、それらレンズ部90を支持するベース部92と、エポキシ封止材94と、複数本の位置決めピン96とを備えている。   As shown in FIG. 3A, the light source lens 64 includes a plurality of convex lens portions 90, a base portion 92 that supports the lens portions 90, an epoxy sealing material 94, and a plurality of positioning pins. 96.

図3(a)に示すように、各レンズ部90は、ベース部92のうちLEDアレイ62Aの各LED62に対向する位置に、ベース部92から投影機構66に向かって突設されている。エポキシ封止材94は、ベース部92のうちLEDアレイ62Aが気密に収容されるべき凹部98内に充填され、それにより、その凹部98内においてLEDアレイ62Aが封止される。このエポキシ封止材94は、LEDアレイ62Aの封止機能を有するのであり、さらに、基板60と光源レンズ64とを互いに接着する機能も有する。   As shown in FIG. 3A, each lens unit 90 protrudes from the base unit 92 toward the projection mechanism 66 at a position of the base unit 92 that faces each LED 62 of the LED array 62 </ b> A. The epoxy sealing material 94 is filled in the concave portion 98 in which the LED array 62 </ b> A of the base portion 92 is to be hermetically accommodated, whereby the LED array 62 </ b> A is sealed in the concave portion 98. The epoxy sealing material 94 has a function of sealing the LED array 62A, and further has a function of bonding the substrate 60 and the light source lens 64 to each other.

図3(a)に示すように、複数本の位置決めピン96は、光源レンズ64と基板60とを相対的に位置決めするために、光源レンズ64に、その光源レンズ64から基板60に向かって突設されている。図3(b)に示すように、複数本の位置決めピン96のうちの一部は、基板60に穿設された長穴100に挿入される一方、残りは、基板60に穿設された真円穴102に挿入され、それにより、基板60に光源レンズ64ががたなく正規の位置に固定される。   As shown in FIG. 3A, the plurality of positioning pins 96 protrude from the light source lens 64 toward the substrate 60 in order to relatively position the light source lens 64 and the substrate 60. It is installed. As shown in FIG. 3 (b), some of the plurality of positioning pins 96 are inserted into the long holes 100 formed in the substrate 60, while the rest are true holes formed in the substrate 60. The light source lens 64 is inserted into the circular hole 102, thereby fixing the light source lens 64 to the substrate 60 in a proper position.

このように、本実施形態においては、光源レンズ64と、LEDアレイ62Aと、基板60とが、投影方向に空間的に詰めて互いに積層されているため、それら光源レンズ64等の組立体のコンパクト化および省スペース化が容易となる。   Thus, in this embodiment, since the light source lens 64, the LED array 62A, and the substrate 60 are spatially packed in the projection direction and stacked on each other, the assembly of the light source lens 64 and the like is compact. And space saving become easy.

さらに、本実施形態においては、基板60が、LEDアレイ62Aを保持するという基本的な機能の他に、光源レンズ64を保持するという付随的な機能をも果たしている。したがって、本実施形態によれば、光源レンズ64を専ら保持する部品の追加を省略でき、その結果、3次元入力装置10の部品点数の削減が容易となる。   Further, in the present embodiment, the substrate 60 fulfills an additional function of holding the light source lens 64 in addition to the basic function of holding the LED array 62A. Therefore, according to the present embodiment, the addition of components that exclusively hold the light source lens 64 can be omitted, and as a result, the number of components of the three-dimensional input device 10 can be easily reduced.

さらに、本実施形態においては、各レンズ部90が、図3(a)に示すように、LEDアレイ62Aの各LED62に1対1の関係で正対するように配置されている。よって、各LED62から発光される放射状の光は、各LED62に対向する各レンズ部18によって効率良く集光され、図3(a)に示すように、指向性の高い放射光として投影機構66の入射面106(図4参照)に照射される。   Furthermore, in this embodiment, as shown in FIG. 3A, the lens units 90 are arranged so as to face each LED 62 of the LED array 62A in a one-to-one relationship. Therefore, the radial light emitted from each LED 62 is efficiently condensed by each lens unit 18 facing each LED 62, and as shown in FIG. The incident surface 106 (see FIG. 4) is irradiated.

このように指向性を高めたのは、投影機構66の入射面106に略垂直に光が入射すれば、その投影機構66のの入射面106内における透過率むらが抑制されて画質が向上し得るという理由からである。   The directivity is improved in this way because if the light is incident on the incident surface 106 of the projection mechanism 66 substantially perpendicularly, the transmittance unevenness in the incident surface 106 of the projection mechanism 66 is suppressed and the image quality is improved. This is because you get.

投影光学系32は、投影機構66を通過した光を被写体Sに向かって投影するための複数枚のレンズである。それらレンズは、ガラス製レンズと合成樹脂製レンズとの組合せから成るテレセントリックレンズによって構成されている。テレセントリックとは、投影光学系32を通過する主光線は、入射側の空間では光軸に平行になり、射出瞳の位置は無限になる構成をいう。   The projection optical system 32 is a plurality of lenses for projecting light that has passed through the projection mechanism 66 toward the subject S. These lenses are constituted by a telecentric lens composed of a combination of a glass lens and a synthetic resin lens. Telecentric means a configuration in which the principal ray passing through the projection optical system 32 is parallel to the optical axis in the incident-side space and the position of the exit pupil is infinite.

投影光学系32は、上述のようにテレセントリック特性を持ち、その入射NAが0.1程度であるため、垂直±5°以内の光のみが投影光学系32の内部の絞りを通過できるように、投影光学系32の光路が規制されている。   Since the projection optical system 32 has a telecentric characteristic as described above and its incident NA is about 0.1, only light within a vertical ± 5 ° can pass through the diaphragm inside the projection optical system 32. The optical path of the projection optical system 32 is restricted.

したがって、本実施形態においては、投影光学系32のテレセントリック性により、投影機構66を垂直±5°で通過する光のみを投影光学系32に投影し得る構成と相俟って、画質の向上を容易に図り得る。   Therefore, in the present embodiment, the telecentricity of the projection optical system 32 improves the image quality in combination with a configuration in which only light passing through the projection mechanism 66 at a vertical angle of ± 5 ° can be projected onto the projection optical system 32. Can be easily planned.

よって、本実施形態においては、画質向上のために、各LED62からの出射光が投影機構66の入射面106に略垂直に入射するように各LED62からの光の出射角度を揃え、かつ、各LED62からの出射光のほとんどが投影光学系32に垂直±5°の入射角度範囲内で入射させることが重要である。   Therefore, in the present embodiment, in order to improve the image quality, the light emission angles from the respective LEDs 62 are aligned so that the light emitted from the respective LEDs 62 enters the incident surface 106 of the projection mechanism 66 substantially perpendicularly, and each It is important that most of the light emitted from the LED 62 is incident on the projection optical system 32 within an incident angle range of vertical ± 5 °.

ここで、図4を参照することにより、LEDアレイ62Aの配列をさらに詳しく説明する。図4(a)は、光源レンズ64から出射する光の3次元形状を示す側面図である。図4(b)は、1個のLED62から投影機構66の入射面106に入射した光の照度分布を示すグラフである。図4(c)は、LEDアレイ62Aの配列を部分的に拡大して示す正面図である。図4(d)は、複数個のLED62から投影機構66の入射面106に入射した複数の光の合成照度分布を示すグラフである。   Here, the arrangement of the LED array 62A will be described in more detail with reference to FIG. FIG. 4A is a side view showing a three-dimensional shape of light emitted from the light source lens 64. FIG. 4B is a graph showing the illuminance distribution of light incident on the incident surface 106 of the projection mechanism 66 from one LED 62. FIG. 4C is a front view showing the LED array 62A partially enlarged. FIG. 4D is a graph showing a combined illuminance distribution of a plurality of lights incident on the incident surface 106 of the projection mechanism 66 from the plurality of LEDs 62.

図4(a)に示すように、光源レンズ64からの出射光が、半値拡がり半角θが略5°である状態で、図4(b)に示すような照度分布を有する光として、投影機構66の入射面106に到達するように光源レンズ64が設計されている。   As shown in FIG. 4 (a), the light emitted from the light source lens 64 is projected as a light having an illuminance distribution as shown in FIG. 4 (b) in a state where the half-value spread half angle θ is about 5 °. The light source lens 64 is designed to reach the 66 incident surface 106.

また、図4(c)に示すように、複数個のLED62は、基板上16に千鳥状に配列されている。具体的には、複数個のLED62がピッチdで横方向に直列に並んで成るLED列が複数、ピッチdの√3/2倍と等しいピッチで縦方向に並列に並んでいる。さらに、縦方向において互いに隣接する2つのLED列は、ピッチdと等しい長さで、横方向に互いにずらされている。   Further, as shown in FIG. 4C, the plurality of LEDs 62 are arranged in a staggered pattern on the substrate 16. Specifically, a plurality of LED rows each having a plurality of LEDs 62 arranged in series in the horizontal direction at a pitch d are arranged in parallel in the vertical direction at a pitch equal to √3 / 2 times the pitch d. Furthermore, two LED rows adjacent to each other in the vertical direction are shifted from each other in the horizontal direction with a length equal to the pitch d.

すなわち、本実施形態においては、それらLED62の配列が三角格子配列とされ、いずれのLED62も、それに隣接する別のいずれのLED62からもピッチdと等しい距離離れているのである。   That is, in this embodiment, the arrangement of the LEDs 62 is a triangular lattice arrangement, and any LED 62 is separated from any other LED 62 adjacent thereto by a distance equal to the pitch d.

そして、本実施形態においては、ピッチdの長さが、1個のLED62から出射した光によって投影機構66について与えられる照度分布の半値全幅(FWHM(Full Width Half Maximun))以下となるように、予め設定されている。   In this embodiment, the length of the pitch d is equal to or less than the full width at half maximum (FWHM (Full Width Half Maximun)) of the illuminance distribution given to the projection mechanism 66 by the light emitted from one LED 62. It is set in advance.

よって、本実施形態においては、光源レンズ64を通過して投影機構66の入射面106に到達する光の合成照度分布が、図4(d)に示すように、小さなリップルを有する略直線状のグラフで表され、その結果、投影機構66の入射面106の全体に略均一に光が照射される。したがって、本実施形態によれば、投影機構66の入射面106における照度むらが抑制され、その結果、パターン光が被写体Sに高品質で投影される。   Therefore, in this embodiment, the combined illuminance distribution of the light that passes through the light source lens 64 and reaches the incident surface 106 of the projection mechanism 66 is substantially linear with small ripples as shown in FIG. As a result, the entire incident surface 106 of the projection mechanism 66 is irradiated with light substantially uniformly. Therefore, according to the present embodiment, uneven illuminance on the incident surface 106 of the projection mechanism 66 is suppressed, and as a result, the pattern light is projected onto the subject S with high quality.

ここで、図13ないし図20を参照することにより、投影部12のハードウエア構成のうち投影機構66を詳細に説明する。   Here, the projection mechanism 66 in the hardware configuration of the projection unit 12 will be described in detail with reference to FIGS. 13 to 20.

この投影機構66は、光源としてのLEDアレイ62Aからの入射光を複数種類のパターン光に選択的に変換することにより、それら複数種類のパターン光を順次被写体Sに投影するために設けられている。図6には、この投影機構66が正面図で示され、図7には、この投影機構66が部分断面側面図で示されている。   The projection mechanism 66 is provided for sequentially projecting the plurality of types of pattern light onto the subject S by selectively converting incident light from the LED array 62A as a light source into a plurality of types of pattern light. . 6 shows the projection mechanism 66 in a front view, and FIG. 7 shows the projection mechanism 66 in a partial cross-sectional side view.

図6および図12に示すように、この投影機構66は、シート状を成して長さ方向に延びるマスク200を備えており、そのマスク200はモータ65によってそのマスク200の長さ方向に送られる。   As shown in FIGS. 6 and 12, the projection mechanism 66 includes a mask 200 that forms a sheet and extends in the length direction. The mask 200 is fed in the length direction of the mask 200 by a motor 65. It is done.

図8には、そのマスク200の長さ方向における一部が拡大されて正面図で示されている。このマスク200には、前記複数種類のパターン光にそれぞれ対応する複数のフレーム202がマスク200の長さ方向に並んで割り当てられている。図6に示すように、それらフレーム202は、選択的に前記入射光の照射領域に位置させられる。   In FIG. 8, a part of the mask 200 in the length direction is enlarged and shown in a front view. A plurality of frames 202 corresponding to the plurality of types of pattern light are allocated to the mask 200 side by side in the length direction of the mask 200. As shown in FIG. 6, the frames 202 are selectively positioned in the irradiation region of the incident light.

本実施形態においては、被写体Sを撮像するために8種類のパターン光が順次被写体Sに投影される。図8には、パターン番号PNが5であるパターン光を形成するためのフレーム202(図8において「コード5」を付して示す。)と、パターン番号PNが6であるパターン光を形成するためのフレーム202(図8において「コード6」を付して示す。)と、パターン番号PNが7であるパターン光を形成するためのフレーム202(図8において「コード7」を付して示す。)とが代表的に示されている。   In the present embodiment, eight types of pattern light are sequentially projected onto the subject S in order to image the subject S. In FIG. 8, a frame 202 for forming pattern light having a pattern number PN of 5 (shown with “code 5” in FIG. 8) and pattern light having a pattern number of PN 6 are formed. Frame 202 (shown with “code 6” in FIG. 8) and frame 202 for forming pattern light with pattern number PN 7 (shown with “code 7” in FIG. 8) )) Is representatively shown.

マスク200は、各フレーム202ごとに、マスク200をそれの厚さ方向に貫通する貫通穴(空気開口)204を、各フレーム202に対応するパターン光の形状に対応する形状を有する状態で備えている。図8に示すように、いずれのフレーム202においても、個々の貫通穴204が直線的に延びるスリット状を成している。複数個のフレーム202のうち、複数個の貫通穴204を有するものにおいては、それら複数個の貫通穴204がストライプ状を成すように配列されている。   The mask 200 includes a through hole (air opening) 204 that passes through the mask 200 in the thickness direction of each frame 202 in a state having a shape corresponding to the shape of the pattern light corresponding to each frame 202. Yes. As shown in FIG. 8, in any frame 202, each through hole 204 has a slit shape extending linearly. Among the plurality of frames 202 having a plurality of through holes 204, the plurality of through holes 204 are arranged in a stripe shape.

さらに、本実施形態においては、いずれのフレーム202においても、各貫通穴204がマスク200の長さ方向に平行に延びるように配置されている。この配置を採用することによって奏される効果の一例は後に詳述する。   Further, in the present embodiment, in any frame 202, each through hole 204 is disposed so as to extend in parallel to the length direction of the mask 200. An example of the effect produced by adopting this arrangement will be described in detail later.

そのマスク200は、長さ方向と厚さ方向との双方に平行な平面内において屈曲可能である。このマスク200は、金属製の薄いシートによって構成されている。マスク200を構成する金属は、不透明弾性材料の一例であり、そのような材料の一例はステンレスである。このマスク200の板厚の一例は、0.1mmである。   The mask 200 can be bent in a plane parallel to both the length direction and the thickness direction. The mask 200 is composed of a thin metal sheet. The metal constituting the mask 200 is an example of an opaque elastic material, and an example of such a material is stainless steel. An example of the thickness of the mask 200 is 0.1 mm.

本実施形態においては、厚さ0.1mmのステンレス板に対してウエットエッチングが施されることにより、そのステンレス板に複数個の貫通穴204がミクロン精度で形成され、それにより、マスク200が製作されている。   In the present embodiment, wet etching is performed on a stainless steel plate having a thickness of 0.1 mm, whereby a plurality of through holes 204 are formed in the stainless steel plate with micron accuracy, whereby the mask 200 is manufactured. Has been.

このマスク200は、弾性屈曲性を有しており、後述のようにローラに巻き取られて収容されていても、そのローラから解放されれば、真っ直ぐな平面を成す原形状に復元する性質を有する。   This mask 200 has elastic flexibility, and even if it is wound and accommodated on a roller as will be described later, if it is released from the roller, it will be restored to the original shape forming a straight plane. Have.

図6に示すように、投影機構66は、マスク200を巻き取り可能に保持しつつ送るために、ハウジング210を備えている。このハウジング210に、供給具としての供給ローラ220と、案内具としてのガイドローラ222と、送り具としての送りローラ224と、巻き取り具としての巻き取りローラ226とが、互いに平行な各軸線を有する姿勢で支持されている。それら供給ローラ200,ガイドローラ222,送りローラ224および巻き取りローラ226の軸線はいずれも、マスク200の幅方向に平行に延びている。   As shown in FIG. 6, the projection mechanism 66 includes a housing 210 for sending the mask 200 while holding it in a rollable manner. In the housing 210, a supply roller 220 as a supply tool, a guide roller 222 as a guide tool, a feed roller 224 as a feed tool, and a take-up roller 226 as a wind tool have their axes parallel to each other. It is supported by the posture it has. All of the axes of the supply roller 200, the guide roller 222, the feed roller 224 and the take-up roller 226 extend in parallel to the width direction of the mask 200.

図7に示すように、マスク200は、それの長さ方向における両端部においてそれぞれ、供給ローラ220と巻き取りローラ226とに結合されている。マスク200は、さらに、それら供給ローラ220と巻き取りローラ226との間において、供給ローラ220寄りのガイドローラ222と、巻き取りローラ226寄りの送りローラ224とに支持されている。   As shown in FIG. 7, the mask 200 is coupled to a supply roller 220 and a take-up roller 226 at both ends in the length direction thereof. The mask 200 is further supported between the supply roller 220 and the take-up roller 226 by a guide roller 222 near the supply roller 220 and a feed roller 224 near the take-up roller 226.

3次元入力装置10の不使用状態においては、マスク200は、供給ローラ220と巻き取りローラ226とのうち主に供給ローラ220に巻き付けられており、マスク200は、この状態で3次元入力装置10内において収容される。すなわち、マスク200のうちの未使用部分は、供給ローラ220に巻き付けられて収容されるのであり、供給ローラ220は、マスク200のうちの未使用部分を屈曲状態において収容するローラなのである。   In the non-use state of the three-dimensional input device 10, the mask 200 is mainly wound around the supply roller 220 among the supply roller 220 and the take-up roller 226, and the mask 200 is in this state in the three-dimensional input device 10. Housed inside. That is, the unused portion of the mask 200 is wound around and accommodated in the supply roller 220, and the supply roller 220 is a roller that accommodates the unused portion of the mask 200 in a bent state.

被写体Sの撮像が開始されると、マスク200のうちの未使用部分は、モータ65の正回転により、供給ローラ220から剥がされて巻き取りローラ226に向かって供給される。その未使用部分が被写体Sの撮像に使用されると、使用済部分として、巻き取りローラ226に巻き取られて収容される。すなわち、巻き取りローラ226は、マスク200のうちの使用済部分を屈曲状態において収容するローラなのである。   When imaging of the subject S is started, an unused portion of the mask 200 is peeled off from the supply roller 220 and supplied toward the take-up roller 226 by the normal rotation of the motor 65. When the unused portion is used for imaging the subject S, the unused portion is wound and accommodated as a used portion by the winding roller 226. That is, the winding roller 226 is a roller that accommodates a used portion of the mask 200 in a bent state.

被写体Sの撮像が終了した時点においては、マスク200は、供給ローラ220と巻き取りローラ226とのうち主に巻き取りローラ226に巻き付けられ、マスク200は、この状態で3次元入力装置10内において収容される。その後、次回の撮像に備えて、モータ65の逆回転により、マスク200は、供給ローラ220と巻き取りローラ226とのうち主に供給ローラ220に巻き取られ、それにより、マスク200は、供給ローラ220に巻き付けられた状態で、3次元入力装置10内において収容される。   At the time when the imaging of the subject S is completed, the mask 200 is mainly wound around the take-up roller 226 out of the supply roller 220 and the take-up roller 226, and the mask 200 is in this state in the three-dimensional input device 10. Be contained. Thereafter, in preparation for the next imaging, by reverse rotation of the motor 65, the mask 200 is mainly wound around the supply roller 220 out of the supply roller 220 and the take-up roller 226. It is housed in the three-dimensional input device 10 while being wound around 220.

図7に示すように、それらガイドローラ222と送りローラ224との間に、LEDアレイ62Aからの入射光がマスク200に照射される照射位置228が設定されている。マスク200のうちそれらガイドローラ222と送りローラ224とによって両端を支持される部分が、前記設定された照射位置228を前記入射光に直角な方向に通過する直線部230を形成している。   As shown in FIG. 7, an irradiation position 228 where incident light from the LED array 62 </ b> A is applied to the mask 200 is set between the guide roller 222 and the feed roller 224. The portions of the mask 200 that are supported at both ends by the guide roller 222 and the feed roller 224 form a linear portion 230 that passes through the set irradiation position 228 in a direction perpendicular to the incident light.

図7に示すように、本実施形態においては、マスク200のうち供給ローラ220とガイドローラ222とによって両端を支持される部分232(図7において直線部より左側の部分)と、送りローラ224と巻き取りローラ226とによって両端を支持される部分234(図7において直線部より右の部分)とがそれぞれ、直線部230に対して同じ側に傾斜させられている。その傾斜角度は、小さいほど、直線部230に対する部分232,234の弾性曲げに起因する直線部230の反りを軽減するために望ましい。一方、その傾斜角度は、大きいほど、マスク200の長さ方向においてこの投影機構66を小型化するために望ましい。   As shown in FIG. 7, in the present embodiment, a portion 232 (a portion on the left side of the straight portion in FIG. 7) of the mask 200 that is supported at both ends by the supply roller 220 and the guide roller 222, a feed roller 224, A portion 234 (a portion on the right side of the straight portion in FIG. 7) supported at both ends by the take-up roller 226 is inclined to the same side with respect to the straight portion 230. The smaller the inclination angle is, the more desirable is to reduce the warp of the straight portion 230 caused by the elastic bending of the portions 232 and 234 with respect to the straight portion 230. On the other hand, the larger the inclination angle, the more desirable for miniaturizing the projection mechanism 66 in the length direction of the mask 200.

図7に示すように、マスク200は、それの長さ方向における両端部においてそれぞれ、供給ローラ220と巻き取りローラ226とに結合されている。   As shown in FIG. 7, the mask 200 is coupled to a supply roller 220 and a take-up roller 226 at both ends in the length direction thereof.

供給ローラ220は、ハウジング210に固定されたシャフト240と、そのシャフト240を同軸に取り囲むローラ部242とを含むように構成されている。ローラ部242は、シャフト240に対して同軸に相対回転可能に支持されている。このローラ部242にマスク200の一端部が固定され、そのローラ部242の回転によってそのローラ部242の外周面にマスク200が巻き付けられる。ローラ部242の両回転方向のうち、ローラ部242にマスク200が巻き付けられる回転方向が戻り回転方向であり、ローラ部242からマスク200が剥がされる回転方向が送り回転方向である。   The supply roller 220 includes a shaft 240 fixed to the housing 210 and a roller portion 242 that surrounds the shaft 240 coaxially. The roller portion 242 is supported so as to be relatively rotatable coaxially with the shaft 240. One end portion of the mask 200 is fixed to the roller portion 242, and the mask 200 is wound around the outer peripheral surface of the roller portion 242 by the rotation of the roller portion 242. Of both rotation directions of the roller part 242, the rotation direction in which the mask 200 is wound around the roller part 242 is the return rotation direction, and the rotation direction in which the mask 200 is peeled off from the roller part 242 is the feed rotation direction.

ローラ部242には、付勢部材としてのスプリング246が係合させられており、それにより、ローラ部242は、戻り回転方向に常時付勢されている。そのスプリング246は、例えば、図7に示すように、ローラ部242とシャフト240との間の半径方向隙間内において、可動部材としてのローラ部242と静止部材としてのシャフト240とに係合させられるように使用される。そのスプリング246は、例えば、図7に示すように、シャフト240の外周面に巻き付けられるリーフスプリングとして構成される。そのスプリング246の弾性力により、マスク200にテンションがそのマスク200の長さ方向に作用させられる。   A spring 246 as an urging member is engaged with the roller portion 242, whereby the roller portion 242 is constantly urged in the return rotation direction. For example, as shown in FIG. 7, the spring 246 is engaged with the roller portion 242 as a movable member and the shaft 240 as a stationary member within a radial clearance between the roller portion 242 and the shaft 240. As used. For example, as shown in FIG. 7, the spring 246 is configured as a leaf spring that is wound around the outer peripheral surface of the shaft 240. A tension is applied to the mask 200 in the length direction of the mask 200 by the elastic force of the spring 246.

図6および図8に示すように、マスク200の両側縁部にはそれぞれ、マスク200の長さ方向に並んだ複数個の送り穴250から成るパーフォレーション領域252が形成されている。ガイドローラ222および送りローラ224は、それら送り穴250に貫通してそれら送り穴に係合する歯254,256を備えている。本実施形態においては、図7に示すように、ガイドローラ222も送りローラ224も、複数個の歯254,256を、各外周面上において等間隔に並んで備えている。   As shown in FIGS. 6 and 8, perforation regions 252 including a plurality of feed holes 250 arranged in the length direction of the mask 200 are formed on both side edges of the mask 200. The guide roller 222 and the feed roller 224 include teeth 254 and 256 that pass through the feed holes 250 and engage with the feed holes. In this embodiment, as shown in FIG. 7, both the guide roller 222 and the feed roller 224 are provided with a plurality of teeth 254 and 256 arranged at equal intervals on each outer peripheral surface.

ガイドローラ222はフリーローラであるのに対し、送りローラ224は、モータ65によって駆動される駆動ローラである。図6に示すように、本実施形態においては、モータ65が送りローラ224に同軸に連結されており、送りローラ224がモータ65によって回転駆動される。送りローラ224の両回転方向のうち、マスク200が供給ローラ220から剥がされる回転方向が送り回転方向であり、マスク200が供給ローラ220に巻き付けられる回転方向が戻り回転方向である。   The guide roller 222 is a free roller, whereas the feed roller 224 is a drive roller that is driven by a motor 65. As shown in FIG. 6, in this embodiment, the motor 65 is coaxially connected to the feed roller 224, and the feed roller 224 is rotationally driven by the motor 65. Of the rotation directions of the feed roller 224, the rotation direction in which the mask 200 is peeled off from the supply roller 220 is the feed rotation direction, and the rotation direction in which the mask 200 is wound around the supply roller 220 is the return rotation direction.

図7に示すように、そのモータ65は、送りローラ224を回転させる機能と、それと同期して巻き取りローラ226を回転させる機能とを有している。そのため、モータ65は、マスク200を送りつつ巻き取りローラ226によって巻き取られる正回転と、マスク200を巻き取りローラ226から剥がしつつ供給ローラ220に供給する逆回転とを選択的に行わせられる。   As shown in FIG. 7, the motor 65 has a function of rotating the feed roller 224 and a function of rotating the take-up roller 226 in synchronization therewith. Therefore, the motor 65 is selectively made to perform forward rotation that is taken up by the take-up roller 226 while feeding the mask 200 and reverse rotation that is supplied to the supply roller 220 while peeling the mask 200 from the take-up roller 226.

図6に示すように、本実施形態においては、送りローラ224およびモータ65と同軸かつ一体的に回転させられる回転体としての駆動プーリ260と、巻き取りローラ226と同軸かつ一体的に回転させられる回転体としての被動プーリ262とに、動力伝達体としてのベルト264が巻き掛けられている。このように構成された伝動機構266により、モータ65の回転力が巻き取りローラ226に伝達される。   As shown in FIG. 6, in the present embodiment, the driving pulley 260 as a rotating body that is rotated coaxially and integrally with the feed roller 224 and the motor 65, and is rotated coaxially and integrally with the take-up roller 226. A belt 264 serving as a power transmission body is wound around a driven pulley 262 serving as a rotating body. The rotational force of the motor 65 is transmitted to the take-up roller 226 by the transmission mechanism 266 configured as described above.

図6および図7に示すように、投影機構66は、照射位置228においてマスクガイド270を備えている。そのマスクガイド270は、マスク200のうちの直線部230の送りを案内するために設けられている。   As shown in FIGS. 6 and 7, the projection mechanism 66 includes a mask guide 270 at the irradiation position 228. The mask guide 270 is provided to guide the feeding of the straight portion 230 of the mask 200.

本実施形態においては、マスクガイド270が、マスク200の直線部230をそれの厚さ方向における両側から挟む構造を有しており、具体的には、マスク200の直線部230を隔てて互いに対向する一対のガイド板272,272を備えている。このマスクガイド270は、マスク200をそれの長さ方向にスライド可能に保持する一方、マスク200をそれの幅方向にはできる限り変位しないように保持する。   In the present embodiment, the mask guide 270 has a structure in which the straight portion 230 of the mask 200 is sandwiched from both sides in the thickness direction thereof. Specifically, the mask guide 270 faces each other with the straight portion 230 of the mask 200 interposed therebetween. A pair of guide plates 272 and 272 are provided. The mask guide 270 holds the mask 200 so as to be slidable in the length direction thereof, while holding the mask 200 so as not to be displaced in the width direction as much as possible.

各ガイド板272には、それを厚さ方向に貫通する窓276が形成されている。この窓276も、貫通穴204と同様に、空気開口として形成されている。LEDアレイ62Aからの入射光のうち窓276を通過する部分のみが、マスク200に照射される。   Each guide plate 272 is formed with a window 276 that passes through the guide plate 272 in the thickness direction. This window 276 is also formed as an air opening, like the through hole 204. Only a portion of the incident light from the LED array 62A that passes through the window 276 is irradiated on the mask 200.

図8に示すように、マスク200には、各フレーム202ごとに、位置基準穴280とID穴領域282とが、マスク200の幅方向に並んで形成されている。それら位置基準穴280およびID穴領域282は、いすれも貫通穴(空気開口)としてマスク200に形成されている。位置基準穴280は、いずれかのフレームが照射位置228に位置していることを光学的に検出するために設けられている。一方、ID穴領域282は、照射位置228に位置しているフレームのIDすなわちパターン番号PNを光学的に特定するために設けられている。   As shown in FIG. 8, a position reference hole 280 and an ID hole region 282 are formed in the mask 200 side by side in the width direction of the mask 200 for each frame 202. The position reference hole 280 and the ID hole region 282 are all formed in the mask 200 as through holes (air openings). The position reference hole 280 is provided for optically detecting that any frame is located at the irradiation position 228. On the other hand, the ID hole region 282 is provided for optically specifying the ID of the frame located at the irradiation position 228, that is, the pattern number PN.

本実施形態においては、ID穴領域282が、3ビットの情報によって8個のフレーム202すなわち8種類のパターン光をそれぞれ識別する。そのため、各フレーム202ごとのID穴領域282には、最大で3個のID穴290,292,294が形成される。   In the present embodiment, the ID hole area 282 identifies eight frames 202, that is, eight types of pattern lights, respectively, by 3-bit information. Therefore, a maximum of three ID holes 290, 292, and 294 are formed in the ID hole region 282 for each frame 202.

図9に示すように、投影機構66は、位置基準穴280を光学的に検出するために、位置センサ300を、マスク200の幅方向位置に関して位置基準穴280と一致する位置に備えている。本実施形態においては、その位置センサ300は、位置基準穴280を高い位置精度で検出するために、絞ったビームをマスク200に照射するとともに、マスク200からの反射光を絞って受光する。   As shown in FIG. 9, the projection mechanism 66 includes the position sensor 300 at a position that coincides with the position reference hole 280 with respect to the position in the width direction of the mask 200 in order to optically detect the position reference hole 280. In the present embodiment, the position sensor 300 irradiates the focused beam to the mask 200 and detects the reflected light from the mask 200 in order to detect the position reference hole 280 with high positional accuracy.

そのため、位置センサ300は、発光素子としてのLED302と、受光素子としてのフォトダイオード(以下、「PD」という。)304と、LED302のための集光素子としてのLEDレンズ306と、PD304のための集光素子としてのPDレンズ308とを含んでいる。この位置センサ300は、図5に示すように、処理部16に電気的に接続されている。   Therefore, the position sensor 300 includes an LED 302 as a light emitting element, a photodiode (hereinafter referred to as “PD”) 304 as a light receiving element, an LED lens 306 as a condensing element for the LED 302, and a PD 304. And a PD lens 308 as a condensing element. The position sensor 300 is electrically connected to the processing unit 16 as shown in FIG.

PD304は、マスク200からの反射光の受光の有無に応じて変化するPD信号を出力する。具体的には、PD信号は、図10にタイミングチャートで表すように、いずれの位置基準穴280も位置センサ300に対向しないために位置センサ300からの光がマスク200で反射して位置センサ300に入射する場合に、ハイレベルを示す一方、いずれかの位置基準穴280が位置センサ300に対向するために位置センサ300からの光がその位置基準穴280を透過して位置センサ300に入射しない場合に、ローレベルを示すように変化する。   The PD 304 outputs a PD signal that changes depending on whether or not the reflected light from the mask 200 is received. Specifically, as shown in the timing chart of FIG. 10, since the PD signal does not face any position reference hole 280, the light from the position sensor 300 is reflected by the mask 200 and the position sensor 300. When the light enters the position sensor 300, the position reference hole 280 faces the position sensor 300 because one of the position reference holes 280 faces the position sensor 300. In some cases, it changes to indicate a low level.

LEDレンズ306は、LED302からの光を集光してマスク200に照射する集光機能を有する。PDレンズ308は、マスク200からの反射光を集光してPD304に照射する集光機能を有する。それらLEDレンズ306およびPDレンズ308により、位置基準穴280の位置ひいてはフレーム202の位置を高精度に検出することが可能となっている。   The LED lens 306 has a condensing function for condensing the light from the LED 302 and irradiating the mask 200. The PD lens 308 has a condensing function for condensing the reflected light from the mask 200 and irradiating the PD 304. The LED lens 306 and the PD lens 308 can detect the position of the position reference hole 280 and the position of the frame 202 with high accuracy.

図9に示すように、投影機構66は、さらに、ID穴290,292,294を光学的に検出するために、第1ないし第3のIDセンサ310,312,314を備えている。それら第1ないし第3のIDセンサ310,312,314はそれぞれ、マスク200の幅方向位置に関して3個のID穴290,292,294と一致する位置に配置されている。いずれのIDセンサ310,312,314も、ID穴領域282に向けて光を照射する発光素子と、ID穴領域282からの反射光を受光する受光素子とを含んでいる。   As shown in FIG. 9, the projection mechanism 66 further includes first to third ID sensors 310, 312, and 314 to optically detect the ID holes 290, 292, and 294. The first to third ID sensors 310, 312, and 314 are arranged at positions corresponding to the three ID holes 290, 292, and 294 with respect to the position in the width direction of the mask 200, respectively. Each of the ID sensors 310, 312, and 314 includes a light emitting element that emits light toward the ID hole region 282 and a light receiving element that receives the reflected light from the ID hole region 282.

第1ないし第3のIDセンサ310,312,314の3個の受光素子はそれぞれ、ID穴領域282からの反射光の有無を表す信号を、信号S1ないしS3として出力する。それら信号S1ないしS3は、前述のPD信号と同様に変化する。それら第1ないし第3のIDセンサも、位置センサ300と同様に、図5に示すように、処理部16に電気的に接続されている。   The three light receiving elements of the first to third ID sensors 310, 312, and 314 output signals indicating the presence or absence of reflected light from the ID hole region 282 as signals S1 to S3. These signals S1 to S3 change in the same manner as the PD signal described above. The first to third ID sensors are also electrically connected to the processing unit 16 as shown in FIG.

図10には、PD信号およびS1ないしS3信号が互いに同期して変化する様子の一例がタイミングチャートで表されている。処理部16においては、後に詳述するが、モータ65の駆動によってマスク200が送られている間にいずれかの位置基準穴280が位置センサ300に対向したためにPD信号がハイレベルからレーレベルに変化した事象をトリガとして、第1ないし第3のIDセンサ310,312,314からそれぞれS1ないしS3信号がサンプリングされる。   FIG. 10 is a timing chart showing an example of how the PD signal and the S1 to S3 signals change in synchronization with each other. As will be described in detail later, the processing unit 16 changes the PD signal from a high level to a low level because one of the position reference holes 280 faces the position sensor 300 while the mask 200 is being sent by driving the motor 65. The S1 to S3 signals are sampled from the first to third ID sensors 310, 312, and 314, respectively, using the event as a trigger.

図9に示すマスク200の例においては、第1および第3のIDセンサ310,314がそれぞれ、ID穴290,294に対向するため、S1信号およびS3信号がそれぞれ、ハイレベルからローレベルに変化する一方、第2のIDセンサ312は、ID穴292に対向しないため、S2信号がハイレベルに維持される。それらサンプリングされたS1ないしS3信号のレベルの組合せにより、位置センサ300によって検出されたフレーム202のIDすなわちパターン番号PNが検出される。   In the example of the mask 200 shown in FIG. 9, since the first and third ID sensors 310 and 314 face the ID holes 290 and 294, respectively, the S1 signal and the S3 signal change from the high level to the low level, respectively. On the other hand, since the second ID sensor 312 does not face the ID hole 292, the S2 signal is maintained at a high level. The ID of the frame 202 detected by the position sensor 300, that is, the pattern number PN is detected by a combination of the levels of the sampled S1 to S3 signals.

ここで、図11および図12を参照することにより、各フレーム200において各貫通穴204をマスク200の長さ方向に平行な方向に配列したことによる効果を説明する。   Here, with reference to FIG. 11 and FIG. 12, an effect obtained by arranging the through holes 204 in each frame 200 in a direction parallel to the length direction of the mask 200 will be described.

図11には、マスク200がそれの一端部において巻き取りローラ226によって巻き取られる様子が示されている。ただし、説明の便宜上、送りローラ224は図示を省略されている。   FIG. 11 shows a state in which the mask 200 is taken up by the take-up roller 226 at one end thereof. However, the illustration of the feed roller 224 is omitted for convenience of explanation.

マスク200のうち、巻き取りローラ226に巻き付けられていないといえどもその巻き取りローラ226に近い部分に塑性変形による湾曲が発生する傾向がある。また、マスク200においては、それの長さ方向における複数個の離散位置にそれぞれ貫通穴204が形成されているため、マスク200の曲げ剛性がそれの長さ方向においてローカルに低下する。すなわち、マスク200の曲げ剛性がそのマスク200の長さ方向において一様に分布しないのである。このような曲げ剛性の非一様分布は、マスク200の曲がりがローカルに増加してそのマスク200の湾曲量(たわみ量)がローカルにないしは全体的に増加する要因となり得る。   Even though the mask 200 is not wound around the take-up roller 226, the portion near the take-up roller 226 tends to bend due to plastic deformation. Further, in the mask 200, since the through holes 204 are formed at a plurality of discrete positions in the length direction, the bending rigidity of the mask 200 is locally reduced in the length direction. That is, the bending rigidity of the mask 200 is not uniformly distributed in the length direction of the mask 200. Such a non-uniform distribution of bending stiffness may cause the bending of the mask 200 to increase locally and the amount of bending (deflection) of the mask 200 to increase locally or entirely.

一方、本実施形態においては、前述のように、図12に示すように、マスク200がマスクガイド270を一対のガイド板272,272にサンドイッチされる状態で通過する。それらガイド板272,272間のギャップが大きいほど、それらガイド板272,272とマスク200との間の摩擦抵抗が軽減される。その摩擦抵抗が軽減されれば、マスク200を移動させるのに必要な力が減少し、その結果、マスク200の移動に必要な消費電力も減少する。   On the other hand, in the present embodiment, as described above, as shown in FIG. 12, the mask 200 passes through the mask guide 270 while being sandwiched between the pair of guide plates 272 and 272. As the gap between the guide plates 272 and 272 is larger, the frictional resistance between the guide plates 272 and 272 and the mask 200 is reduced. If the frictional resistance is reduced, the force required to move the mask 200 decreases, and as a result, the power consumption required to move the mask 200 also decreases.

しかしながら、図12に示すように、マスク200の湾曲量が大きいほど、すなわち、照射位置228におけるマスク200の平面度が低いほど、そのマスク200から出射して投影光学系32を経て被写体Sに照射される光によってその被写体S上に形成される焦点面の、光軸方向における湾曲量が増加する。その焦点面湾曲量が大きいほど、3次元入力装置10が被写体Sを3次元的に入力する3次元入力精度が低下してしまう。   However, as shown in FIG. 12, the larger the amount of curvature of the mask 200, that is, the lower the flatness of the mask 200 at the irradiation position 228, the light exits from the mask 200 and irradiates the subject S through the projection optical system 32. The amount of curvature in the optical axis direction of the focal plane formed on the subject S by the emitted light increases. As the focal plane curvature amount increases, the three-dimensional input accuracy with which the three-dimensional input device 10 inputs the subject S three-dimensionally decreases.

マスク200の厚さもヤング率もそのマスク200の長さ方向において変化しないと仮定して、マスク200の断面係数ひいては曲げ剛性がそのマスク200の長さ方向において変化する傾向に関し、マスク200において各貫通穴204の長さ方向がマスク200の幅方向に一致する場合と、マスク200の長さ方向に一致する場合とを互いに比較する。各貫通穴204の長さ方向がマスク200の幅方向に一致する場合には、マスク200の長さ方向に一致する場合より、マスク200の断面係数ひいては曲げ剛性が、マスク200のうち貫通穴204ではない部分と貫通穴204である部分との間で大きく変化し、塑性変形により湾曲する傾向が強い。   Assuming that neither the thickness nor the Young's modulus of the mask 200 changes in the length direction of the mask 200, regarding the tendency that the section modulus of the mask 200 and thus the bending rigidity change in the length direction of the mask 200, The case where the length direction of the hole 204 matches the width direction of the mask 200 and the case where it matches the length direction of the mask 200 are compared with each other. When the length direction of each through hole 204 coincides with the width direction of the mask 200, the section modulus of the mask 200 and the bending rigidity thereof are larger in the through hole 204 of the mask 200 than when the length direction of the mask 200 coincides. There is a strong tendency to bend due to plastic deformation, changing greatly between the portion that is not and the portion that is the through hole 204.

このような知見に基づき、本実施形態においては、図11に示すように、マスク200において各貫通穴204の長さ方向とマスク200の長さ方向とが互いに一致させられている。したがって、マスク200の曲げ剛性がそれの長さ方向において変化する傾向が抑制される。   Based on such knowledge, in this embodiment, as shown in FIG. 11, the length direction of each through hole 204 and the length direction of the mask 200 are made to coincide with each other in the mask 200. Therefore, the tendency for the bending rigidity of the mask 200 to change in its length direction is suppressed.

よって、本実施形態によれば、マスク200の曲げ剛性がそれの長さ方向においてローカルに低下する傾向があるにもかかわらず、マスク200において各貫通穴204が延びる向きが適正化されることにより、マスク200の湾曲量の増加が抑制される。その結果、被写体Sの位置における焦点面湾曲量の増加が抑制され、ひいては、3次元入力装置10の3次元入力精度の低下も抑制される。   Therefore, according to the present embodiment, although the bending rigidity of the mask 200 tends to decrease locally in the length direction, the direction in which each through hole 204 extends in the mask 200 is optimized. An increase in the amount of bending of the mask 200 is suppressed. As a result, an increase in the amount of curvature of the focal plane at the position of the subject S is suppressed, and as a result, a decrease in the three-dimensional input accuracy of the three-dimensional input device 10 is also suppressed.

図5には、3次元入力装置10の電気的な構成がブロック図で表されている。処理部16はコンピュータ110を主体として構成されており、そのコンピュータ110は、CPU112と、ROM114と、RAM116とを含むように構成されている。   FIG. 5 is a block diagram showing the electrical configuration of the three-dimensional input device 10. The processing unit 16 is configured mainly by a computer 110, and the computer 110 is configured to include a CPU 112, a ROM 114, and a RAM 116.

CPU112は、ROM114に記憶されたプログラムをRAM116を利用しつつ実行することにより、レリーズボタン40の操作状態の検出、CCD70からの画像データの取込み、その取り込まれた画像データの転送および格納、モード切替スイッチ42の操作状態の検出等の各種処理を行う。   The CPU 112 executes the program stored in the ROM 114 while using the RAM 116, thereby detecting the operation state of the release button 40, taking in the image data from the CCD 70, transferring and storing the taken image data, and mode switching. Various processes such as detection of the operation state of the switch 42 are performed.

ROM114には、カメラ制御プログラム114aと、撮像処理プログラム114bと、輝度画像生成プログラム114cと、コード画像生成プログラム114dと、コード境界抽出プログラム114eと、レンズ収差補正プログラム114fと、三角測量演算プログラム114gと、モータ制御プログラム114hとが格納されている。   The ROM 114 includes a camera control program 114a, an imaging processing program 114b, a luminance image generation program 114c, a code image generation program 114d, a code boundary extraction program 114e, a lens aberration correction program 114f, and a triangulation calculation program 114g. The motor control program 114h is stored.

カメラ制御プログラム114aは、3次元入力装置10全体の制御を実行するために実行され、その制御には、図13にフローチャートで概念的に表されているメイン処理が含まれる。   The camera control program 114a is executed to execute control of the entire three-dimensional input device 10, and the control includes main processing conceptually shown in the flowchart of FIG.

撮像処理プログラム114bは、被写体Sの3次元形状を検出するためにパターン光が投影された被写体Sを撮像してパターン光有画像を取得し、さらに、パターン光が投影されていない被写体Sを撮像してパターン光無画像を取得するために実行される。   In order to detect the three-dimensional shape of the subject S, the imaging processing program 114b captures the subject S on which the pattern light is projected to obtain an image with pattern light, and further captures the subject S on which the pattern light is not projected. Then, it is executed to obtain a pattern light no image.

輝度画像生成プログラム114cは、撮像処理プログラム114bの実行によって被写体Sについて取得された各画素のRGB値に基づき、複数枚のパターン光有画像にそれぞれ対応する複数枚の輝度画像が生成される。   The luminance image generation program 114c generates a plurality of luminance images respectively corresponding to the plurality of pattern light-present images based on the RGB values of each pixel acquired for the subject S by the execution of the imaging processing program 114b.

本実施形態においては、同じ被写体Sに対して複数種類のパターン光が時系列に順次投影され、各パターン光が投影されるごとに被写体Sが撮像される。そのようにして撮像された複数枚のパターン光有画像の各々について各画素のRGB値が取得され、その結果、パターン光の種類と同数の輝度画像が生成される。   In the present embodiment, a plurality of types of pattern light are sequentially projected in time series on the same subject S, and the subject S is imaged each time each pattern light is projected. The RGB values of each pixel are acquired for each of the plurality of pattern light existence images thus captured, and as a result, the same number of luminance images as the types of pattern light are generated.

コード画像生成プログラム114dは、輝度画像生成プログラム114cの実行によって生成された複数枚の輝度画像それぞれに対する閾値処理により生成される2値化画像から、各画素毎に空間コードが割り当てられたコード画像を生成するために実行される。   The code image generation program 114d generates a code image in which a spatial code is assigned to each pixel from a binarized image generated by threshold processing for each of a plurality of luminance images generated by the execution of the luminance image generation program 114c. Executed to generate.

概略的に説明するに、このコード画像生成プログラム114dが実行されると、複数種類のパターン光のうちパターンライン間の間隔が最も狭いものが投影された被写体Sの輝度画像におけるパターンライン間の間隔が周期として取得され、その周期の輝度画像全体における分布が周期分布として取得される。   Briefly, when the code image generation program 114d is executed, the interval between pattern lines in the luminance image of the subject S on which the narrowest interval between pattern lines is projected among the plurality of types of pattern light. Is acquired as a period, and the distribution of the entire luminance image of the period is acquired as a period distribution.

このコード画像生成プログラム114dが実行されると、さらに、その取得された周期分布に従ってサイズが変化する可変窓が各パターン光ごとの輝度画像にローカルに設定されることにより、前記可変窓を用いたフィルタ処理により輝度画像全体に対して閾値がローカルに算出されて設定される。そのようにして設定された閾値の分布を表す閾値画像と各パターン光ごとの輝度画像との関係から、各パターン光ごとに2値化画像が生成される。   When the code image generation program 114d is executed, a variable window whose size changes according to the acquired periodic distribution is set locally in the luminance image for each pattern light, thereby using the variable window. A threshold value is locally calculated and set for the entire luminance image by the filter processing. A binarized image is generated for each pattern light from the relationship between the threshold image representing the threshold distribution set in this way and the luminance image for each pattern light.

可変窓を用いたフィルタ処理により輝度画像全体に対して閾値をローカルに算出する技術は、本出願人の特願2004−285736号に詳細に開示されており、その明細書を参照することによってその明細書の内容を本明細書に引用する。   A technique for locally calculating a threshold value for the entire luminance image by filtering using a variable window is disclosed in detail in Japanese Patent Application No. 2004-285736 of the present applicant. The contents of the specification are incorporated herein by reference.

コード境界抽出プログラム114eは、コード画像生成プログラム114dの実行によって生成されたコード画像と、輝度画像生成プログラム114cの実行によって生成された輝度画像とを利用することにより、コードの境界座標をサブピクセル精度で求めるために実行される。   The code boundary extraction program 114e uses the code image generated by the execution of the code image generation program 114d and the luminance image generated by the execution of the luminance image generation program 114c, thereby converting the boundary coordinates of the code into subpixel accuracy. Run to ask for.

レンズ収差補正プログラム114fは、コード境界抽出プログラム114eの実行によってサブピクセル精度で求められたコードの境界座標に対して、撮像光学系20の収差補正を行うために実行される。   The lens aberration correction program 114f is executed to correct the aberration of the imaging optical system 20 with respect to the code boundary coordinates obtained with subpixel accuracy by the execution of the code boundary extraction program 114e.

三角測量演算プログラム114gは、レンズ収差補正プログラム114fの実行によって収差補正が行われたコードの境界座標から、その境界座標に関する実空間の3次元座標を演算するために実行される。   The triangulation calculation program 114g is executed to calculate the three-dimensional coordinates of the real space related to the boundary coordinates from the boundary coordinates of the code subjected to the aberration correction by the execution of the lens aberration correction program 114f.

モータ制御プログラム114hは、複数種類のパターン光を順次被写体Sに投影すべくモータ65を制御するために実行される。このモータ制御プログラム114hは、図18にフローチャートで概念的に表されている。   The motor control program 114h is executed to control the motor 65 so as to sequentially project a plurality of types of pattern light onto the subject S. The motor control program 114h is conceptually represented by a flowchart in FIG.

図5に示すように、RAM116には、パターン光有画像格納部116aと、パターン光無画像格納部116bと、輝度画像格納部116cと、コード画像格納部116dと、コード境界座標格納部116eと、収差補正座標格納部116gと、3次元座標格納部116hと、周期分布格納部116pと、閾値画像格納部116qと、2値化画像格納部116rと、ワーキングエリア120とがそれぞれ記憶領域として割り当てられている。   As illustrated in FIG. 5, the RAM 116 includes a pattern light existence image storage unit 116 a, a pattern light no image storage unit 116 b, a luminance image storage unit 116 c, a code image storage unit 116 d, and a code boundary coordinate storage unit 116 e. The aberration correction coordinate storage unit 116g, the three-dimensional coordinate storage unit 116h, the periodic distribution storage unit 116p, the threshold image storage unit 116q, the binarized image storage unit 116r, and the working area 120 are allocated as storage areas. It has been.

パターン光有画像格納部116aは、撮像処理プログラム114bの実行によって撮像されたパターン光有画像を表すパターン光有画像データを格納する。パターン光無画像格納部116bは、撮像処理プログラム114bの実行によって撮像されたパターン光無画像を表すパターン光無画像データを格納する。   The pattern light present image storage unit 116a stores pattern light present image data representing the pattern light present image captured by the execution of the image capturing processing program 114b. The pattern light no-image storage unit 116b stores pattern light no-image data representing the pattern light no-image captured by the execution of the imaging processing program 114b.

輝度画像格納部116cは、輝度画像生成プログラム114cの実行によって生成された輝度画像を表すデータを格納する。コード画像格納部116dは、コード画像生成プログラム114dの実行によって生成されたコード画像を表すデータを格納する。コード境界座標格納部116eは、コード境界抽出プログラム114eの実行によってサブピクセル精度で抽出された各コードの境界座標を表すデータを格納する。   The luminance image storage unit 116c stores data representing a luminance image generated by executing the luminance image generation program 114c. The code image storage unit 116d stores data representing a code image generated by executing the code image generation program 114d. The code boundary coordinate storage unit 116e stores data representing the boundary coordinates of each code extracted with subpixel accuracy by the execution of the code boundary extraction program 114e.

収差補正座標格納部116gは、レンズ収差補正プログラム114fの実行によって収差補正が行われたコードの境界座標を表すデータを格納する。3次元形状座標格納部116hは、三角測量演算プログラム114gの実行によって演算された実空間の3次元座標を表すデータを格納する。   The aberration correction coordinate storage unit 116g stores data representing the boundary coordinates of the code that has been subjected to aberration correction by executing the lens aberration correction program 114f. The three-dimensional shape coordinate storage unit 116h stores data representing the three-dimensional coordinates of the real space calculated by executing the triangulation calculation program 114g.

周期分布格納部116p、閾値画像格納部116qおよび2値化画像格納部116rは、コード画像生成プログラム114dの実行によって取得された周期分布、閾値画像および2値化画像を表すデータをそれぞれ格納する。   The period distribution storage unit 116p, the threshold image storage unit 116q, and the binarized image storage unit 116r store data representing the period distribution, the threshold image, and the binarized image acquired by executing the code image generation program 114d, respectively.

ワーキングエリア120は、CPU112がその動作のために一時的に使用するデータを格納する。   The working area 120 stores data temporarily used by the CPU 112 for its operation.

ここで、図13を参照することにより、カメラ制御プログラム114aを説明する。このカメラ制御プログラム114aがコンピュータ110によって実行されることにより、前述のメイン処理が実行される。   Here, the camera control program 114a will be described with reference to FIG. When the camera control program 114a is executed by the computer 110, the main process described above is executed.

このメイン処理においては、まず、ステップS101(以下、単に「S101」で表す。他のステップについても同じとする。)において、バッテリ74を含む電源がONされる。次に、S102において、処理部16、周辺インタフェイス等が初期化される。   In this main process, first, in step S101 (hereinafter simply referred to as “S101”; the same applies to other steps), the power source including the battery 74 is turned on. Next, in S102, the processing unit 16, peripheral interfaces, and the like are initialized.

続いて、S103において、モード切替スイッチ42の操作状態を判別するためにキースキャンが行われ、その後、S104において、モード切替スイッチ42の操作によってSLOWモードが選択されたか否かが判定される。今回は、SLOWモードが選択されたと仮定すれば、判定がYESとなり、S105において、前述の非間引き画像処理モードが設定される。このS105の実行後、後に詳述するS108が実行され、続いて、S103に戻る。   Subsequently, in S103, a key scan is performed to determine the operation state of the mode changeover switch 42. Thereafter, in S104, it is determined whether or not the SLOW mode is selected by the operation of the mode changeover switch 42. If it is assumed that the SLOW mode is selected this time, the determination is YES, and the above-described non-decimated image processing mode is set in S105. After execution of S105, S108, which will be described in detail later, is executed, and then the process returns to S103.

これに対し、今回は、モード切替スイッチ42の操作によってSLOWモードが選択されなかったと仮定すれば、S104の判定がNOとなり、S106において、モード切替スイッチ42の操作によってFASTモードが選択されたか否かが判定される。今回は、FASTモードが選択されたと仮定すれば、判定がYESとなり、S107において、前述の間引き画像処理モードが設定される。このS107の実行後、後に詳述するS108が実行され、続いて、S103に戻る。   On the other hand, this time, if it is assumed that the SLOW mode is not selected by the operation of the mode change switch 42, the determination in S104 is NO, and whether or not the FAST mode is selected by the operation of the mode change switch 42 in S106. Is determined. If it is assumed that the FAST mode is selected this time, the determination is YES, and the above-described thinned image processing mode is set in S107. After execution of S107, S108, which will be described in detail later, is executed, and then the process returns to S103.

これに対し、今回は、モード切替スイッチ42の操作によってFASTモードが選択されなかったと仮定すれば、S106の判定がNOとなり、S112において、モード切替スイッチ42の操作によってオフモードが選択されたか否かが判定される。今回は、モード切替スイッチ42の操作によってオフモードが選択されたと仮定すれば、判定がYESとなり、直ちに今回のメイン処理が終了するが、今回は、モード切替スイッチ42の操作によってオフモードが選択されなかったと仮定すれば、判定がYESとなり、S103に戻る。   On the other hand, this time, if it is assumed that the FAST mode is not selected by the operation of the mode switch 42, the determination in S106 is NO, and whether or not the off mode is selected by the operation of the mode switch 42 in S112. Is determined. If it is assumed that the off mode is selected by operating the mode switch 42 this time, the determination is YES, and the main process of this time is immediately terminated. However, this time, the off mode is selected by operating the mode switch 42. If it is assumed that there is not, the determination is YES and the process returns to S103.

図14には、図13におけるS108が立体画像処理ルーチンとしてフローチャートで概念的に表されている。この立体画像処理ルーチンの実行により、被写体Sの3次元形状を立体画像として検出し、表示する立体画像処理が実行される。この立体画像処理においては、さらに、同じ被写体Sの表面色も検出される。それら立体画像の検出結果と表面色の検出結果とが位置に関連付けて組み合わされたものが3次元色形状検出結果である。   FIG. 14 conceptually shows a flowchart of S108 in FIG. 13 as a stereoscopic image processing routine. By executing this stereoscopic image processing routine, stereoscopic image processing for detecting and displaying the three-dimensional shape of the subject S as a stereoscopic image is executed. In this stereoscopic image processing, the surface color of the same subject S is also detected. The three-dimensional color shape detection result is a combination of the detection result of the stereoscopic image and the detection result of the surface color in association with the position.

この立体画像処理においては、まず、S1001において、ファインダ画像、すなわち、撮像光学系30を通して見える範囲の画像と同じ画像がモニタLCD44に表示される。よって、ユーザは、モニタLCD44に表示された画像を見ることにより、実際の撮像前に、撮像画像(撮像範囲)を確認することができる。   In this stereoscopic image processing, first, in S1001, the finder image, that is, the same image as the image in the range visible through the imaging optical system 30 is displayed on the monitor LCD 44. Therefore, the user can confirm the captured image (imaging range) before actual imaging by viewing the image displayed on the monitor LCD 44.

次に、S1002において、レリーズボタン40の操作状態がスキャンされ、その後、S1003において、そのスキャン結果に基づき、レリーズボタン40が半押し状態にあるか否かが判定される。半押し状態にあれば、判定がYESとなり、S1004において、オートフォーカス(AF)および自動露出(AE)機能が起動し、それにより、ピント、絞りおよびシャッタスピードが調節される。レリーズボタン40が半押し状態になければ、S1003の判定がNOとなり、S1010に移行する。   Next, in S1002, the operation state of the release button 40 is scanned, and then, in S1003, it is determined based on the scan result whether the release button 40 is in a half-pressed state. If it is in the half-pressed state, the determination is yes, and in S1004, the autofocus (AF) and automatic exposure (AE) functions are activated, thereby adjusting the focus, aperture, and shutter speed. If the release button 40 is not half-pressed, the determination in S1003 is NO, and the flow proceeds to S1010.

S1004の実行後、S1005において、再度、レリーズボタン40の操作状態がスキャンされ、その後、S1006において、そのスキャン結果に基づき、レリーズボタン40が全押し状態にあるか否かが判定される。レリーズボタン40が全押し状態になければ、このS1006の判定がNOとなってS1002に戻る。   After the execution of S1004, the operation state of the release button 40 is scanned again in S1005, and thereafter, in S1006, it is determined whether or not the release button 40 is fully pressed based on the scan result. If the release button 40 is not fully pressed, the determination in S1006 is NO and the process returns to S1002.

レリーズボタン40が半押し状態から全押し状態に移行すれば、S1006の判定がYESとなり、S1007において、後述の3次元色形状検出処理が実行され、それにより、被写体Sの3次元形状および表面色が検出される。   If the release button 40 shifts from the half-pressed state to the fully-pressed state, the determination in S1006 becomes YES, and in S1007, the three-dimensional color shape detection process described later is executed, whereby the three-dimensional shape and surface color of the subject S are determined. Is detected.

概略的に説明するに、その3次元色形状検出処理により、被写体Sについて3次元色形状検出結果が生成される。ここに、3次元色形状検出結果とは、後述の空間コード画像において検出される複数の空間コード境界画像を3次元座標に変換した結果取得される頂点座標の集合体であって、各頂点ごとに色形状情報とポリゴン情報とが互いに関連付けられたものを意味する。色形状情報は、実空間座標とRGB値との組合せを表す情報である。ポリゴン情報は、複数個の頂点のうち、被写体Sを3次元的に表面する立体を構成するために互いに連結されるべき複数の頂点の組合せを表す情報である。   Briefly described, a three-dimensional color shape detection result for the subject S is generated by the three-dimensional color shape detection process. Here, the three-dimensional color shape detection result is a set of vertex coordinates acquired as a result of converting a plurality of spatial code boundary images detected in a spatial code image, which will be described later, into three-dimensional coordinates. Means that color shape information and polygon information are associated with each other. The color shape information is information representing a combination of real space coordinates and RGB values. The polygon information is information representing a combination of a plurality of vertices to be connected to each other in order to form a solid that three-dimensionally faces the subject S among the plurality of vertices.

その後、S1008において、その3次元色形状検出結果が外部メモリ78に格納され、続いて、S1009において、その3次元色形状検出結果が3次元コンピュータグラフィック画像としてモニタLCD44に表示される。   Thereafter, in S1008, the three-dimensional color shape detection result is stored in the external memory 78. Subsequently, in S1009, the three-dimensional color shape detection result is displayed on the monitor LCD 44 as a three-dimensional computer graphic image.

その後、S1010において、図13におけるS103と同様にしてキースキャンが行われる。続いて、S1011において、モード切替スイッチ42の操作状態に変化が無いか否かが判定される。変化が無ければ、S1011の判定がYESとなり、S1001に戻るが、変化が有れば、S1011の判定がNOとなり、今回の立体画像処理が終了する。   Thereafter, in S1010, key scanning is performed in the same manner as in S103 in FIG. Subsequently, in S1011, it is determined whether or not the operation state of the mode switch 42 has changed. If there is no change, the determination in S1011 is YES and the process returns to S1001, but if there is a change, the determination in S1011 is NO and the current stereoscopic image processing ends.

図14のS1007において実行される3次元色形状検出処理においては、空間コード化法を用いて被写体Sの3次元形状が検出される。以下、図15を参照することにより、空間コード化法を説明する。図15(a)には、3次元座標系XYZが設定された実空間をY座標軸方向に見た図と、X座標軸方向に見た図と、純2進コードによる3種類のマスクA,BおよびCのパターンとが示されている。これに対し、図15(b)には、グレイコードによる3種類のマスクA,BおよびCのパターンと、複数個の空間コードとが示されている。   In the three-dimensional color shape detection process executed in S1007 in FIG. 14, the three-dimensional shape of the subject S is detected using a spatial coding method. Hereinafter, the spatial coding method will be described with reference to FIG. FIG. 15A shows a real space in which the three-dimensional coordinate system XYZ is set in the Y coordinate axis direction, a view in the X coordinate axis direction, and three types of masks A and B using pure binary codes. And C pattern. On the other hand, FIG. 15B shows three types of masks A, B, and C patterns using a gray code and a plurality of spatial codes.

図15(a)に示すように、空間コード化法は、観察対象である被写体Sの像である観察画像と、その被写体Sに光(拡散光)を投影する投影光源(例えば、プロジェクタ)と、被写体Sを観測する観測器(例えば、カメラ)との間に三角測量の原理を適用することによって被写体Sの3次元形状を検出する手法の一種である。この空間コード化法においては、図15(a)に示すように、投影光源L(PROJECTOR)と観測器O(CAMERA)とが距離dだけ離して設置される。したがって、観測空間内の任意の点Pは、投影光の向きψと、観測器Oから見える向きθとが計測できれば、特定できる。この空間コード化法においては、さらに、被写体Sの表面上の任意の位置を特定するため、観測空間が複数個の細長い扇状領域に分割されてコード化されている。   As shown in FIG. 15A, the spatial encoding method is an observation image that is an image of a subject S that is an observation target, and a projection light source (for example, a projector) that projects light (diffused light) onto the subject S. This is a kind of technique for detecting the three-dimensional shape of the subject S by applying the principle of triangulation to an observer (for example, a camera) that observes the subject S. In this spatial coding method, as shown in FIG. 15A, the projection light source L (PROJECTOR) and the observation device O (CAMERA) are set apart by a distance d. Therefore, an arbitrary point P in the observation space can be specified if the direction ψ of the projection light and the direction θ seen from the observer O can be measured. In this spatial coding method, in order to specify an arbitrary position on the surface of the subject S, the observation space is coded by being divided into a plurality of elongated fan-shaped regions.

被写体Sの表面上の任意の位置のコードを観測画像から取得するために、複数種類のストライプ状のパターン光が時系列的に被写体Sに投影される。パターン光の切換えは、パターン光の種類と同数のマスクを用意し、マスクを機械的に交換する機械式として実施したり、電気光学効果を有する材料を用いてストライプ状の光シャッタ列を構成し、その光シャッタ列における各ストライプの光透過率を電子的に制御する電子式として実施することが可能である。もっとも、本実施形態においては、後者の電子式が採用され、具体的には、投影機構66によって複数種類のマスクパターンが時系列的に再現すなわち表示される。   In order to obtain a code at an arbitrary position on the surface of the subject S from the observation image, a plurality of types of stripe pattern light are projected onto the subject S in time series. Pattern light can be switched by preparing the same number of masks as the type of pattern light and mechanically exchanging the masks, or by forming a striped optical shutter array using a material having an electro-optic effect. It is possible to implement as an electronic system that electronically controls the light transmittance of each stripe in the optical shutter row. However, in the present embodiment, the latter electronic method is adopted. Specifically, a plurality of types of mask patterns are reproduced or displayed in time series by the projection mechanism 66.

図15(a)に示す例においては、投影光源Lと被写体S(四角柱と円柱)との間にマスクが交換可能に設置される。この例においては、パターンが互いに異なる3種類のマスクA,BおよびCが用意されており、よって、3種類のパターン光が時系列的に被写体Sに投影される。   In the example shown in FIG. 15A, a mask is installed in a replaceable manner between the projection light source L and the subject S (a quadrangular column and a cylinder). In this example, three types of masks A, B, and C having different patterns are prepared, and therefore, three types of pattern light are projected onto the subject S in time series.

各マスクA,B,Cによって生成されたパターン光を被写体Sに投影すると、8個の扇状領域のそれぞれが、明領域「1」と暗領域「0」とのいずれかにコード化される。3枚のマスクA,B,Cを経た光をそれらの順に被写体Sに投影すると、各扇状領域には、3ビットから成るコードが割り当てられる。それら3ビットは、最初のマスクAに対応する最上位ビットMSBから、最後のマスクCに対応する最下位ビットLSMまで順に並んでいる。例えば、図15(a)に示す例においては、点Pが属する扇状領域は、マスクA,Bによって光が遮られるのに対し、マスクCによってのみ光が通過して明領域になるため、「001(A=0、B=0、C=1)」としてコード化される。   When the pattern light generated by the masks A, B, and C is projected onto the subject S, each of the eight fan-shaped areas is encoded into either the bright area “1” or the dark area “0”. When the light that has passed through the three masks A, B, and C is projected onto the subject S in that order, a code consisting of 3 bits is assigned to each fan-shaped area. These 3 bits are arranged in order from the most significant bit MSB corresponding to the first mask A to the least significant bit LSM corresponding to the last mask C. For example, in the example shown in FIG. 15A, the fan-shaped region to which the point P belongs is blocked by the masks A and B, whereas the light passes only by the mask C and becomes a bright region. 001 (A = 0, B = 0, C = 1) ”.

このように、各扇状領域には、投影光源Lからの向きψに相当するコードが割り当てられる。一方、各パターン光が投影された被写体Sの明暗パターンを各マスクごとに2値化してメモリの各ビットプレーンを構成すれば、各ビットプレーン画像の横方向の位置(アドレス)は、観測器Oからの向きθに相当する。また、3枚のマスクにそれぞれ対応する3枚のビットプレーンのメモリ内容を各ビット(各画素)ごとに注目すれば、各画素ごとに3ビットのコードが取得される。このコードから、各扇状領域の投影光源Lからの向きψが特定される。そして、距離dが既知である状況において、向きψおよびθが特定されれば、三角測量の原理により、被写体Sの表面上の注目点の3次元座標が特定される。   Thus, a code corresponding to the direction ψ from the projection light source L is assigned to each fan-shaped region. On the other hand, if each bit plane of the memory is constructed by binarizing the light / dark pattern of the subject S on which each pattern light is projected for each mask, the horizontal position (address) of each bit plane image is determined by the observer O. This corresponds to the direction θ from If attention is paid to the memory contents of the three bit planes corresponding to the three masks for each bit (each pixel), a 3-bit code is acquired for each pixel. From this code, the direction ψ from the projection light source L of each fan-shaped region is specified. In a situation where the distance d is known, if the directions ψ and θ are specified, the three-dimensional coordinates of the point of interest on the surface of the subject S are specified by the principle of triangulation.

図15(a)には、マスクA,BおよびCの如き複数のマスクを用いることにより、空間を純2進コードを用いてコード化する例が示されているが、図15(b)には、マスクA,BおよびCの如き複数のマスクを用いることにより、隣接するコード間のハミング距離が常に1であるグレイコードを空間コードとして用いて空間をコード化する例が示されている。   FIG. 15A shows an example in which a space is coded using a pure binary code by using a plurality of masks such as masks A, B and C. FIG. 15B shows an example. Shows an example in which a space is coded by using a gray code whose Hamming distance between adjacent codes is always 1 as a space code by using a plurality of masks such as masks A, B and C.

本実施形態においては、前述の3次元色形状検出処理において、純2進コードによる空間コード化法を採用しても、グレイコードによる空間コード化法を採用してもよい。   In the present embodiment, in the above-described three-dimensional color shape detection process, a spatial encoding method using a pure binary code or a spatial encoding method using a Gray code may be used.

この空間コード化法の詳細は、例えば、佐藤宏介、他1名、「空間コード化による距離画像入力」、電子通信学会論文誌、85/3Vol.J 68−D No3 p369〜375に詳細に開示されている。   Details of this spatial coding method are described in, for example, Kosuke Sato and one other, “Distance Image Input by Spatial Coding”, IEICE Transactions, 85/3 Vol. J 68-D No3 p369-375.

図16には、図14におけるS1007が3次元色形状検出処理ルーチンとしてフローチャートで概念的に表されている。   FIG. 16 conceptually shows a flowchart of S1007 in FIG. 14 as a three-dimensional color shape detection processing routine.

この3次元色形状検出処理ルーチンにおいては、まず、S1210において、撮像処理が実行される。この撮像処理が実行されれば、例えば、図15(b)に示す複数枚のグレイコードのマスクパターンを利用して投影部12からストライプ状のパターン光が時系列的に被写体Sに投影される。さらに、複数種類のパターン光が投影されている被写体Sをそれぞれ撮像した複数枚のパターン光有画像と、パターン光が投影されていない同じ被写体Sを撮像した1枚のパターン光無画像とが取得される。   In this three-dimensional color shape detection processing routine, first, in S1210, an imaging process is executed. If this imaging process is executed, for example, the striped pattern light is projected onto the subject S in time series from the projection unit 12 using a plurality of gray code mask patterns shown in FIG. . Further, a plurality of pattern light existence images obtained by imaging the subject S on which a plurality of types of pattern light are projected and a single pattern light no image obtained by imaging the same subject S on which the pattern light is not projected are acquired. Is done.

撮像処理が終了すると、S1220において、3次元計測処理が実行される。この3次元計測処理が実行されると、上述の撮像処理によって取得された複数枚のパターン光有画像と1枚のパターン光無画像とが利用されて、実際に被写体Sの3次元形状が計測される。   When the imaging process ends, a three-dimensional measurement process is executed in S1220. When this three-dimensional measurement process is executed, the three-dimensional shape of the subject S is actually measured using a plurality of pattern-lighted images and one pattern-lightless image acquired by the above-described imaging process. Is done.

この3次元計測処理が終了すると、S1230において、被写体Sについて計測された3次元形状と表面色とを組み合わせることにより、3次元色形状検出結果が生成される。この3次元色形状検出結果が生成されると、今回の3次元色形状検出処理が終了する。   When this three-dimensional measurement process is completed, a three-dimensional color shape detection result is generated by combining the three-dimensional shape measured for the subject S and the surface color in S1230. When this three-dimensional color shape detection result is generated, the current three-dimensional color shape detection process ends.

図16におけるS1210においては、上述の撮像処理のために撮像処理プログラム114bが実行される。図17には、この撮像処理プログラム114bがフローチャートで概念的に表されている。   In S1210 in FIG. 16, the imaging process program 114b is executed for the above-described imaging process. FIG. 17 conceptually shows the imaging processing program 114b in a flowchart.

この撮像処理プログラム114bにおいては、まず、S2001において、パターン光を形成するために使用されるマスクパターンの番号を表すパターン番号PNが0に初期化される。続いて、S2002において、そのパターン番号PNの現在値が最大値PNmaxより小さいか否かが判定される。その最大値PNmaxは、使用されるマスクパターンの合計数に応じて決定される。例えば、8種類のマスクパターンが使用される場合には、最大値PNmaxが8に設定される。   In this imaging processing program 114b, first, in S2001, a pattern number PN representing a mask pattern number used for forming pattern light is initialized to zero. Subsequently, in S2002, it is determined whether or not the current value of the pattern number PN is smaller than the maximum value PNmax. The maximum value PNmax is determined according to the total number of mask patterns used. For example, when 8 types of mask patterns are used, the maximum value PNmax is set to 8.

今回は、パターン番号PNの現在値が最大値PNmaxより小さいと仮定すれば、S2002の判定がYESとなり、続いて、S2002aにおいて、モータ制御プログラム114hが実行される。   If it is assumed that the current value of the pattern number PN is smaller than the maximum value PNmax this time, the determination in S2002 is YES, and then the motor control program 114h is executed in S2002a.

このモータ制御プログラム114hにおいては、図18に示すように、まず、S2201において、モータ65を一定速度で回転駆動するための信号がモータドライバ86に供給される。これにより、マスク200が供給ローラ220から照射位置228に供給される向きにマスク200が送られる。   In this motor control program 114h, as shown in FIG. 18, first, in S2201, a signal for rotationally driving the motor 65 at a constant speed is supplied to the motor driver 86. Thereby, the mask 200 is sent in the direction in which the mask 200 is supplied from the supply roller 220 to the irradiation position 228.

次に、S2202において、位置センサ300からPD信号が読み取られる。続いて、S2203において、その読み取られたPD信号がローレベルを示すか否かが判定される。すなわち、位置センサ300がいずれかの位置基準穴280(今回は、先頭の位置基準穴280)が検出されたか否かが判定されるのである。   Next, in S2202, the PD signal is read from the position sensor 300. Subsequently, in S2203, it is determined whether or not the read PD signal indicates a low level. That is, it is determined whether or not the position sensor 300 has detected any position reference hole 280 (this time, the first position reference hole 280).

今回は、PD信号がハイレベルを示すと仮定すれば、S2203の判定がNOとなり、S2201に戻り、モータ65の駆動およびPD信号の読み取りが繰り返される。S2201ないしS2203の実行が何回か繰り返された結果、PD信号がハイレベルからローラベルに変化したと仮定すれば、S2203の判定がYESとなる。   If it is assumed that the PD signal indicates a high level this time, the determination in S2203 is NO, the process returns to S2201, and the driving of the motor 65 and the reading of the PD signal are repeated. If it is assumed that the PD signal has changed from the high level to the low label as a result of the execution of S2201 to S2203 several times, the determination in S2203 is YES.

その後、S2204において、第1ないし第3のIDセンサ310ないし314からS1ないしS3信号がそれぞれ読み取られる。続いて、S2205において、それら読み取られたS1ないしS3信号のレベルの組合せ(3ビットの情報)がパターン番号PNの現在値を表すか否かが判定される。すなわち、マスク200における複数のフレーム202のうち現在、照射位置228に位置しているものすなわち現在フレーム202のパターン番号PNが、パターン番号PNの現在値と一致するか否かが判定されるのである。   Thereafter, in S2204, the S1 to S3 signals are read from the first to third ID sensors 310 to 314, respectively. Subsequently, in S2205, it is determined whether or not the combination of the levels of the read S1 to S3 signals (3-bit information) represents the current value of the pattern number PN. That is, it is determined whether the frame number currently in the irradiation position 228 among the plurality of frames 202 in the mask 200, that is, the pattern number PN of the current frame 202 matches the current value of the pattern number PN. .

今回は、現在フレーム202のパターン番号PNがパターン番号PNの現在値と一致しないと仮定すると、S2205の判定がNOとなり、S2201に戻る。これに対し、今回は、今回は、現在フレーム202のパターン番号PNがパターン番号PNの現在値と一致すると仮定すると、S2205の判定がYESとなる。本実施形態においては、マスク200において複数のフレーム202が並ぶ順序と同じ順序に、パターン番号PNが1ずつ増加させられるようになっている。すなわち、マスク200がシーケンシャルに送られるようになっているのであり、よって、S2205の判定は、3次元入力装置10に異常が存在しない限り、YESとなる。   This time, assuming that the pattern number PN of the current frame 202 does not match the current value of the pattern number PN, the determination in S2205 is NO, and the process returns to S2201. On the other hand, this time, if it is assumed that the pattern number PN of the current frame 202 matches the current value of the pattern number PN, the determination in S2205 is YES. In the present embodiment, the pattern number PN is incremented by one in the same order as the order in which the plurality of frames 202 are arranged in the mask 200. That is, since the mask 200 is sent sequentially, the determination in S2205 is YES as long as there is no abnormality in the three-dimensional input device 10.

S2205の判定がYESとなると、その後、S2206において、モータ65が停止させられ、それにより、現在フレーム202が照射位置228に停止させられる。その結果、現在フレーム202の位置決めが完了する。   If the determination in S2205 is YES, then in S2206, the motor 65 is stopped, whereby the current frame 202 is stopped at the irradiation position 228. As a result, the positioning of the current frame 202 is completed.

以上で、このモータ制御プログラム114hの一回の実行が終了する。   This completes one execution of the motor control program 114h.

なお付言するに、本実施形態においては、モータ65の間欠的駆動によるマスク200の間欠的送りにより、複数のフレーム202が順次、照射位置228に位置決めされるように、モータ65が制御される。これに対し、モータ65の連続的駆動によるマスク200の連続的送りにより、複数のフレーム202が順次、照射位置228に位置決めされるように、モータ65が制御される態様で本発明を実施することが可能である。   In addition, in this embodiment, the motor 65 is controlled so that the plurality of frames 202 are sequentially positioned at the irradiation position 228 by the intermittent feed of the mask 200 by the intermittent drive of the motor 65. On the other hand, the present invention is implemented in such a manner that the motor 65 is controlled so that the plurality of frames 202 are sequentially positioned at the irradiation position 228 by the continuous feeding of the mask 200 by the continuous driving of the motor 65. Is possible.

ところで、前述のように、本実施形態においては、マスク200において各貫通穴204の長さ方向がマスク200の送り方向に一致させられている。よって、マスク200の移動中でも、いずれかのフレーム202が照射位置228を通過する際に、同じフレーム202によって同じパターン光が生成されて被写体Sに投影される時間を確保することが容易である。   Incidentally, as described above, in the present embodiment, the length direction of each through hole 204 in the mask 200 is matched with the feed direction of the mask 200. Therefore, even when the mask 200 is moving, it is easy to secure time for the same pattern light to be generated by the same frame 202 and projected onto the subject S when any of the frames 202 passes the irradiation position 228.

したがって、マスク200が一時的に停止しないにもかかわらず、同じパターン光を事実上、静止画像として被写体Sに投影することが容易である。このことは、マスク200の連続的送りにより、複数のフレーム202を順次、照射位置228に確実に位置決めするために好都合である。   Therefore, even though the mask 200 does not stop temporarily, it is practically easy to project the same pattern light onto the subject S as a still image. This is advantageous for reliably positioning the plurality of frames 202 sequentially at the irradiation position 228 by continuous feeding of the mask 200.

本実施形態においては、モータ制御プログラム114hの一回の実行が終了すると、図17におけるS2003において、使用される複数種類のマスクパターンのうち、パターン番号PNの現在値と等しい番号が付されたPN番目のマスクパターンの投影が開始される。   In the present embodiment, when one execution of the motor control program 114h is completed, in S2003 in FIG. 17, a PN assigned a number equal to the current value of the pattern number PN among a plurality of types of mask patterns used. The projection of the second mask pattern is started.

続いて、S2004において、PN番目のマスクパターンを被写体Sに投影するための投影処理が行われる。図19には、このS2004の詳細が投影処理サブルーチンとしてフローチャートで概念的に表されている。この投影処理サブルーチンの実行により、PN番目のマスクパターンを有するパターン光を投影部12から被写体Sに投影する投影処理が投影機構66との共同作用によって実行される。   Subsequently, in S2004, a projection process for projecting the PN-th mask pattern onto the subject S is performed. FIG. 19 conceptually shows the details of S2004 as a projection processing subroutine in a flowchart. By executing this projection processing subroutine, the projection processing for projecting the pattern light having the PN-th mask pattern from the projection unit 12 onto the subject S is executed in cooperation with the projection mechanism 66.

この投影処理においては、まず、S3004において、光源ドライバ84が駆動され、続いて、S3005において、その光源ドライバ84からの電気信号によってLEDアレイ62Aが発光する。以上で、今回の投影処理が終了する。   In this projection processing, first, the light source driver 84 is driven in S3004, and then, in S3005, the LED array 62A emits light by an electrical signal from the light source driver 84. This is the end of the current projection process.

LEDアレイ62Aから発光した光は、光源レンズ64を経て投影機構66に到達する。その投影機構66においては、マスク200の現在フレーム202の開口パターンに応じた空間変調が施され、その結果、投影機構66への入射光がパターン光に変換されて出力される。その投影機構66から出力されるパターン光は、投影光学系32を経て被写体Sに投影画像として投影される。   The light emitted from the LED array 62 </ b> A reaches the projection mechanism 66 through the light source lens 64. In the projection mechanism 66, spatial modulation according to the opening pattern of the current frame 202 of the mask 200 is performed, and as a result, incident light on the projection mechanism 66 is converted into pattern light and output. The pattern light output from the projection mechanism 66 is projected as a projection image onto the subject S via the projection optical system 32.

以上のようにして、PN番目のマスクパターンによって形成されるPN番目のパターン光が被写体Sに投影されると、続いて、図17におけるS2005において、そのPN番目のパターン光が投影されている被写体Sが撮像部14によって撮像される。   As described above, when the PN-th pattern light formed by the PN-th mask pattern is projected onto the subject S, the subject on which the PN-th pattern light is projected in S2005 in FIG. S is imaged by the imaging unit 14.

その撮像により、PN番目のパターン光が投影されている被写体Sを撮像したPN番目のパターン光有画像が取得される。その取得されたパターン光有画像は、対応するパターン番号PNに関連付けてパターン光有画像格納部116aに格納される。   By the imaging, a PN-th pattern light existence image obtained by imaging the subject S on which the PN-th pattern light is projected is acquired. The acquired pattern light present image is stored in the pattern light present image storage unit 116a in association with the corresponding pattern number PN.

その撮像が終了すると、S2006において、PN番目のパターン光の投影が終了し、続いて、S2007において、次のパターン光を投影すべく、パターン番号PNが1だけインクリメントされ、その後、S2002に戻る。   When the imaging is finished, the projection of the PN-th pattern light is finished in S2006. Subsequently, in S2007, the pattern number PN is incremented by 1 to project the next pattern light, and then the process returns to S2002.

S2002ないしS2007の実行がパターン光の種類の数と同数回繰り返された結果、パターン番号PNの現在値が最大値PNmaxより小さくはない値になると、S2002の判定がNOとなり、今回の撮像処理が終了する。したがって、一回の撮像処理により、最大値PNmaxと同数枚のパターン光有画像が取得されることになる。   As a result of the execution of S2002 to S2007 being repeated the same number of times as the number of types of pattern light, if the current value of the pattern number PN becomes a value not smaller than the maximum value PNmax, the determination in S2002 becomes NO, and the current imaging process is performed. finish. Therefore, the same number of images with pattern light as the maximum value PNmax are acquired by one imaging process.

続いて、S2008において、フラッシュモードが選択されているか否かが判定される。フラッシュモードが選択されていれば、その判定がYESとなり、S2009において、フラッシュ26が発光させられるが、フラッシュモードが選択されていなければ、S2008の判定がNOとなり、S2009がスキップされる。いずれにしても、その後、S2010において、被写体Sが撮像される。   Subsequently, in S2008, it is determined whether or not the flash mode is selected. If the flash mode is selected, the determination is YES, and the flash 26 is caused to emit light in S2009. If the flash mode is not selected, the determination in S2008 is NO and S2009 is skipped. In any case, the subject S is then imaged in S2010.

この撮像は、被写体Sの表面色を計測することを目的として、投影部12からパターン光を被写体Sに投影することなく、行われる。その結果、被写体12について1枚のパターン光無画像が取得される。その取得されたパターン光無画像はパターン光無画像格納部116bに格納される。   This imaging is performed without projecting pattern light from the projection unit 12 onto the subject S for the purpose of measuring the surface color of the subject S. As a result, one pattern light no image is acquired for the subject 12. The acquired pattern light no image is stored in the pattern light no image storage unit 116b.

続いて、S2011において、マスク200のうちの長さ方向における先頭部分が照射位置228に位置するようにマスク200の長さ方向位置を初期化すべくモータ65が駆動される。   Subsequently, in S2011, the motor 65 is driven to initialize the position in the length direction of the mask 200 so that the head portion in the length direction of the mask 200 is positioned at the irradiation position 228.

以上で、この撮像処理プログラム114bの一回の実行が終了する。   This completes one execution of the imaging processing program 114b.

図20には、この撮像処理プログラム114bの一回の実行に伴うこの3次元入力装置10の作動の一例がタイミングチャートで表されている。この作動例は、ユーザによってFASTモードが選択されている状態でユーザによってレリーズボタン40が全押し状態に操作された場合にこの3次元入力装置10によって実行されるものである。   FIG. 20 is a timing chart showing an example of the operation of the three-dimensional input apparatus 10 that accompanies one execution of the imaging processing program 114b. This operation example is executed by the three-dimensional input device 10 when the user operates the release button 40 in a fully-pressed state while the FAST mode is selected by the user.

図20(a)には、被写体Sからの入射光によってCCD70が複数回、連続して露光される様子が示されている。図20(b)には、それら複数回の露光のそれぞれにつき、被写体Sからの入射光によって表される全体画像のうちの各画素ごとに光がCCD70によって電気信号に変換されてCCD70から出力される信号出力タイミングがタイミングチャートで表されている。図20(c)には、撮像部14の画像処理モードが前述の間引き画像処理モードと非間引き画像処理モードとに時間的に切り替わるタイミングがタイミングチャートで表されている。   FIG. 20A shows a state in which the CCD 70 is continuously exposed a plurality of times by the incident light from the subject S. In FIG. 20B, for each of these multiple exposures, light is converted into an electrical signal by the CCD 70 for each pixel in the entire image represented by the incident light from the subject S and output from the CCD 70. The signal output timing is represented by a timing chart. In FIG. 20C, timing at which the image processing mode of the imaging unit 14 is temporally switched between the thinned image processing mode and the non-thinned image processing mode is represented by a timing chart.

さらに、図20(d)には、撮像部14の状態が、待機状態と、撮像および信号取り出しのための作動状態とに時間的に切り替わるタイミングがタイミングチャートで表されている。図20(e)には、各パターン光を形成するためにマスク200において各フレーム202が割り出されるタイミングがタイミングチャートで表されている。図20(f)には、レリーズボタン40が、非操作状態と操作状態とに時間的に切り替わるタイミングがタイミングチャートで表されている。   Furthermore, in FIG. 20D, timings at which the state of the imaging unit 14 is temporally switched between a standby state and an operation state for imaging and signal extraction are shown in a timing chart. FIG. 20E shows a timing chart showing the timing at which each frame 202 is determined in the mask 200 in order to form each pattern light. FIG. 20F shows a timing chart showing the timing at which the release button 40 is temporally switched between the non-operation state and the operation state.

本実施形態においては、被写体Sからの入射光によるCCD70の露光後に、その露光を反映した信号のCCD70からの取り出しが行われる。1回の露光に1回の信号取り出しが対応しており、それら露光と信号取り出しとが互いに共同して1回の個別撮像処理を構成する。   In the present embodiment, after the CCD 70 is exposed by incident light from the subject S, a signal reflecting the exposure is taken out from the CCD 70. One signal extraction corresponds to one exposure, and these exposure and signal extraction together constitute one individual imaging process.

本実施形態においては、同じ被写体Sについて3次元形状情報の取得と表面色情報の取得とが連続的に、かつ、それらの順で行われる。   In the present embodiment, the acquisition of the three-dimensional shape information and the acquisition of the surface color information for the same subject S are continuously performed in that order.

前述のように、被写体Sの3次元形状情報を取得するために、その被写体Sに8種類のパターン光(パターン番号PN=0〜7)が順次投影され、各パターン光の投影ごとに、CCD70の露光とCCD70からの信号取り出しとが行われる。すなわち、被写体Sの3次元形状情報を取得するために、その被写体Sに対する個別撮像処理が順次、合計8回行われるのである。図20においては、3次元形状情報を取得するための各回の個別撮像処理に対応するパターン光の番号PNが、「0」ないし「7」の数字によって示されている。   As described above, in order to acquire the three-dimensional shape information of the subject S, eight types of pattern light (pattern numbers PN = 0 to 7) are sequentially projected on the subject S, and the CCD 70 is projected for each projection of the pattern light. Exposure and signal extraction from the CCD 70 are performed. That is, in order to acquire the three-dimensional shape information of the subject S, the individual imaging processing for the subject S is sequentially performed a total of eight times. In FIG. 20, the number PN of the pattern light corresponding to each individual imaging process for acquiring the three-dimensional shape information is indicated by the numbers “0” to “7”.

被写体Sの表面色情報を取得するために、被写体Sからの入射光によってCCD70が1回露光され、その後に信号取り出しが行われる。すなわち、被写体Sの表面色情報を取得するために、被写体Sに対する個別撮像処理が1回行われるのである。図20においては、表面色情報を取得するための1回の個別撮像処理が「c」という記号によって示されている。   In order to acquire the surface color information of the subject S, the CCD 70 is exposed once by the incident light from the subject S, and then the signal is extracted. That is, in order to acquire the surface color information of the subject S, the individual imaging process for the subject S is performed once. In FIG. 20, a single individual imaging process for acquiring surface color information is indicated by a symbol “c”.

3次元形状情報取得のための撮像においては、照明光としてパターン光を被写体Sに投影することが必須であるのに対し、表面色情報取得のための撮像においては、照明光を被写体Sに投影することが選択的である。具体的には、表面色情報取得のための撮像においては、被写体Sからの受光量が不足している場合に、フラッシュ26が自動的に発光させられ、それにより、被写体Sに照明光が投影される。   In imaging for obtaining three-dimensional shape information, it is indispensable to project pattern light as illumination light on the subject S, whereas in imaging for obtaining surface color information, illumination light is projected onto the subject S. It is selective to do. Specifically, in imaging for acquiring surface color information, when the amount of light received from the subject S is insufficient, the flash 26 is automatically caused to emit light, thereby projecting illumination light onto the subject S. Is done.

したがって、本実施形態においては、3次元形状情報取得のための8回の個別撮像処理と、表面色情報取得のための1回の個別撮像処理とが連続的に行われ、合計9回の個別撮像処理が連続的に行われる。本実施形態においては、それら9回の個別撮像処理が互いに共同して1回の全体撮像処理を構成している。   Therefore, in the present embodiment, eight individual imaging processes for acquiring three-dimensional shape information and one individual imaging process for acquiring surface color information are continuously performed, for a total of nine individual imaging processes. Imaging processing is continuously performed. In the present embodiment, these nine individual imaging processes cooperate with each other to constitute one whole imaging process.

それら9回の個別撮像処理においては、同じ被写体Sについて9回の露光が順次行われ、それら9回の露光は、例えば、ビデオレートと同じ速度で同一周期で行われる。それら9回の露光が連続的に行われる期間は、被写体Sと3次元入力装置10との相対位置が変化するとその影響がCCD70の撮像結果に現れる期間である。この期間は、3次元入力装置10の撮像時間である。この撮像時間が短いほど、3次元入力装置10の動画撮像能力が高いことを意味する。   In these nine individual imaging processes, nine exposures are sequentially performed on the same subject S, and these nine exposures are performed at the same cycle as the video rate, for example. The period in which these nine exposures are continuously performed is a period in which the influence appears in the imaging result of the CCD 70 when the relative position between the subject S and the three-dimensional input device 10 changes. This period is the imaging time of the three-dimensional input device 10. It means that the moving image imaging capability of the three-dimensional input device 10 is higher as the imaging time is shorter.

図20に示す一作動例においては、3次元形状情報取得のための8回の個別撮像処理における信号取り出しがいずれも、間引き画像処理として実行される。したがって、3次元形状情報取得のための各回の個別撮像処理においては、CCD70の露光に後続し、必要な信号取り出し時間t1の経過後、CCD70から電気信号が出力される。信号取り出し時間t1は、1フレーム取り出し時間ともいい、各パターン光の投影ごとに、CCD70の露光が終了してから、3次元形状情報が1フレーム分、CCD70から出力されるまでに必要な3次元形状情報出力時間を意味する。   In one operation example shown in FIG. 20, signal extraction in eight individual imaging processes for obtaining three-dimensional shape information is performed as a thinned image process. Accordingly, in each individual imaging process for obtaining three-dimensional shape information, an electrical signal is output from the CCD 70 after the CCD 70 has been exposed and after a necessary signal extraction time t1 has elapsed. The signal extraction time t1 is also referred to as one frame extraction time. For each pattern light projection, the three-dimensional necessary for the three-dimensional shape information to be output from the CCD 70 after the exposure of the CCD 70 is completed. It means shape information output time.

これに対し、図20に示す一例においては、表面色情報取得のための1回の個別撮像処理における信号取り出しが、非間引き画像処理として実行される。したがって、表面色情報取得のための1回の個別撮像処理については、CCD70の露光に後続し、必要な信号取り出し時間t2の経過後、CCD70から電気信号が出力される。信号取り出し時間t2は、1フレーム取り出し時間ともいい、CCD70の露光が終了してから、表面色状情報が1フレーム分、CCD70から出力されるまでに必要な表面色情報出力時間を意味する。   On the other hand, in the example shown in FIG. 20, signal extraction in one individual imaging process for acquiring surface color information is executed as non-decimated image processing. Therefore, for one individual imaging process for acquiring surface color information, an electrical signal is output from the CCD 70 after the exposure of the CCD 70 and after a necessary signal extraction time t2. The signal extraction time t2 is also called one frame extraction time, and means the surface color information output time required until the surface color information is output from the CCD 70 for one frame after the exposure of the CCD 70 is completed.

間引き画像処理に必要な信号取り出し時間t1は、非間引き画像処理に必要な信号取り出し時間t2より短い。例えば、信号取り出し時間t1は、約33msであるのに対し、信号取り出し時間t2は、約0.5sである。   The signal extraction time t1 required for the thinned-out image processing is shorter than the signal extraction time t2 required for the non-thinned-out image processing. For example, the signal extraction time t1 is about 33 ms, while the signal extraction time t2 is about 0.5 s.

図20(a)および(b)に示すように、1回の個別撮像処理においては、露光が終了した後に信号取り出しが開始されるが、次回の個別撮像処理における露光は、前回の個別撮像処理における信号取り出しが終了する前に開始される。すなわち、ある回の個別撮像処理における信号取り出しと次回の個別撮像処理における露光とが時間的に部分的にオーバラップするように行われるのである。ただし、ある回の個別撮像処理における信号取り出しは、次回の個別撮像処理における露光が終了する前に終了する。   As shown in FIGS. 20A and 20B, in one individual imaging process, signal extraction is started after the exposure is completed, but the exposure in the next individual imaging process is performed in the previous individual imaging process. This is started before the signal extraction at is finished. That is, the signal extraction in one individual imaging process and the exposure in the next individual imaging process are performed so as to partially overlap in time. However, the signal extraction in a certain individual imaging process ends before the exposure in the next individual imaging process ends.

したがって、本実施形態においては、図20(b)に示すように、3次元形状情報取得のための8回の信号取り出しが時間的に隙間なく連続的に行われる。   Therefore, in the present embodiment, as shown in FIG. 20B, eight signal extractions for acquiring the three-dimensional shape information are continuously performed with no time gap.

各回の信号取り出しは、それが間引き画像処理として実行される場合には、約33msで終了する。したがって、8回の信号取り出しは約0.26sで終了する。よって、図20に示す撮像時間(全体撮像時間)のうち3次元形状情報取得のための撮像に必要な部分(以下、「部分撮像時間」という。)の長さは、信号取り出し時間の長さの合計値によって支配されるため、約0.26sの程度の長さで済む。   Each signal extraction is completed in about 33 ms if it is executed as a thinned image process. Therefore, eight signal extractions are completed in about 0.26 s. Therefore, the length of the part (hereinafter referred to as “partial imaging time”) necessary for imaging for obtaining the three-dimensional shape information in the imaging time (total imaging time) shown in FIG. 20 is the length of the signal extraction time. Therefore, a length of about 0.26 s is required.

これに対し、各回の信号取り出しは、それを非間引き画像処理として実行すると、約0.5sも必要である。そのため、8回の信号取り出しに約5sも必要となり、よって、それに対応する部分撮像時間もその程度の長さが必要となる。   On the other hand, if each signal is extracted as non-decimated image processing, about 0.5 s is required. Therefore, about 5 s is required for eight signal extractions, and accordingly, the corresponding partial imaging time is also required to be as long as that.

このように、CCD70からの信号取り出しを間引き画像処理として実行する場合には、撮像時間が短縮され、その結果、被写体Sの動きや3次元入力装置10の手振れにもかかわらず、被写体Sの3次元形状を高精度で計測できる。   As described above, when the signal extraction from the CCD 70 is executed as the thinned image processing, the imaging time is shortened. As a result, the 3 of the subject S can be obtained regardless of the movement of the subject S and the camera shake of the three-dimensional input device 10. Dimensional shape can be measured with high accuracy.

さらに、図20に示すように、本実施形態においては、3次元形状情報取得のための2回目ないし8回目の露光のそれぞれと、表面色情報取得のための露光とが、それぞれ、先行する直前の露光に対応する信号取り出しの終了を待つことなく、開始される。先行する露光に対応する信号取り出しと、後続する露光とが互いに並行して行われるのであり、これにより、9回の信号取出しが時間的に隙間なく連続的に行われる。したがって、図20に示す撮像時間、すなわち、3次元形状情報取得のための撮像と表面色情報取得のための撮像との双方を連続的に行うのに必要な時間が短縮される。   Furthermore, as shown in FIG. 20, in the present embodiment, each of the second to eighth exposures for acquiring the three-dimensional shape information and the exposure for acquiring the surface color information are immediately preceding each other. The process is started without waiting for the end of signal extraction corresponding to the exposure. The signal extraction corresponding to the preceding exposure and the subsequent exposure are performed in parallel with each other, whereby nine signal extractions are continuously performed with no time gap. Therefore, the imaging time shown in FIG. 20, that is, the time required to continuously perform both imaging for acquiring three-dimensional shape information and imaging for acquiring surface color information is shortened.

具体的には、各回の信号取り出しは、それが間引き画像処理として実行される場合には、約33msで終了するため、9回の信号取り出しは約0.3sで終了し、よって、それに対応する全体撮像時間もその程度の長さで済む。   Specifically, since each signal extraction is completed in about 33 ms when it is executed as a thinned-out image process, nine signal extractions are completed in about 0.3 s, and thus correspond to it. The entire imaging time can be as long as that.

仮に、表面色情報取得のための1回の個別撮像処理すなわち表面色計測撮像処理(信号取り出しが非間引き画像処理として実行される。)を先に、3次元形状情報取得のための8回の個別撮像処理すなわち3次元計測撮像処理(信号取り出しが間引き画像処理として実行される。)を後に実行した場合には、先行する表面色計測撮像処理における信号取出しがほとんど終了するまで、3次元形状情報取得のための初回の露光を待たせなければならない。その待ち時間は、信号取り出し時間t2の長さにほぼ等しく、約0.5sである。   Temporarily, one individual imaging process for surface color information acquisition, that is, surface color measurement imaging process (signal extraction is executed as non-decimated image processing) is performed eight times for acquiring three-dimensional shape information. When individual imaging processing, that is, three-dimensional measurement imaging processing (signal extraction is executed as a thinned-out image processing) is performed later, three-dimensional shape information is obtained until signal extraction in the preceding surface color measurement imaging processing is almost completed. You have to wait for the first exposure for acquisition. The waiting time is approximately equal to the length of the signal extraction time t2 and is about 0.5 s.

この場合には、表面色情報取得のための露光と、3次元形状情報取得のための初回の露光との間にやや長い時間間隔が存在し、図20に示す全体撮像時間が長くなる。一方、被写体Sが静止物体であり、かつ、この3次元入力装置10の手振れの程度が大きくはない場合には、その全体撮像時間がやや長いことは問題にならない。これに対し、図1に示す如き、被写体Sが動作物体である場合や、3次元入力装置10の手振れの程度が大きい場合には、その全体撮像時間が長いと、表面色情報と3次元形状情報とが画素の位置に関して互いに十分に正確にマッチングしなくなってしまう。すなわち、テクスチャマッピング精度が低下してしまうのである。   In this case, there is a slightly longer time interval between the exposure for acquiring the surface color information and the first exposure for acquiring the three-dimensional shape information, and the total imaging time shown in FIG. 20 becomes longer. On the other hand, when the subject S is a stationary object and the degree of camera shake of the three-dimensional input device 10 is not large, it is not a problem that the entire imaging time is slightly long. On the other hand, as shown in FIG. 1, when the subject S is a moving object or when the degree of camera shake of the three-dimensional input device 10 is large, if the entire imaging time is long, the surface color information and the three-dimensional shape Information does not match each other sufficiently accurately with respect to the pixel position. That is, the texture mapping accuracy is lowered.

これに対し、本実施形態においては、図20に示すように、3次元形状情報取得のための8回の個別撮像処理が先に、表面色情報取得のための1回の個別撮像処理が後に行われる。その結果、先行する3次元形状情報取得のための8回目の露光と、後続する表面色情報取得のための露光とを、先行する3次元形状情報取得のための8回の露光が行われる周期と同じ周期で連続して行うことが可能となる。よって、本実施形態によれば、全体撮像時間を、約0.3s程度にまで短縮することが可能となる。   On the other hand, in the present embodiment, as shown in FIG. 20, eight individual imaging processes for acquiring three-dimensional shape information are performed first, and one individual imaging process for acquiring surface color information is performed later. Done. As a result, the eighth exposure for acquiring the preceding three-dimensional shape information and the subsequent exposure for acquiring the surface color information are performed eight times for acquiring the preceding three-dimensional shape information. It becomes possible to carry out continuously with the same period. Therefore, according to the present embodiment, it is possible to reduce the total imaging time to about 0.3 s.

したがって、本実施形態によれば、3次元形状情報取得のための露光と表面色情報取得のための露光とを十分に短い時間間隔で連続して行うことが可能となり、その結果、被写体Sの動きの程度や3次元入力装置10の手振れの程度にかかわらず、高いテクスチャマッッピング精度が実現される。   Therefore, according to the present embodiment, it is possible to continuously perform exposure for acquiring three-dimensional shape information and exposure for acquiring surface color information at sufficiently short time intervals. Regardless of the degree of movement or the degree of camera shake of the three-dimensional input device 10, high texture mapping accuracy is realized.

よって、本実施形態によれば、3次元形状情報取得のためのCCD70からの信号取り出しを間引き画像処理モードで実行する場合(ユーザがFASTモードを選択する場合)には、高いテクスチャ解像度すなわち表面色計測精度を確保しつつ、高いテクスチャマッピング精度で動画を撮像するのに適した3次元入力装置10が提供される。   Therefore, according to the present embodiment, when the signal extraction from the CCD 70 for obtaining the three-dimensional shape information is executed in the thinned image processing mode (when the user selects the FAST mode), the high texture resolution, that is, the surface color A three-dimensional input device 10 suitable for capturing a moving image with high texture mapping accuracy while ensuring measurement accuracy is provided.

さらに、本実施形態においては、ユーザが、3次元形状情報を取得するための画像処理モードを、間引き画像処理モードすなわちFASTモードと、非間引き画像処理モードすなわちSLOWモードとに適宜変更することが可能である。テクスチャマッピング精度の低下が懸念される環境において、ユーザがFASTモードを選択すれば、そのような環境にもかかわらず、テクスチャマッピング精度が低下せずに済む。一方、テクスチャマッピング精度の低下が懸念されない環境において、ユーザがSLOWモードを選択すれば、高いテクスチャマッピング精度のみならず高い3次元形状計測精度も実現される。   Furthermore, in this embodiment, the user can appropriately change the image processing mode for acquiring the three-dimensional shape information into a thinned image processing mode, that is, a FAST mode, and a non-thinned image processing mode, that is, a SLOW mode. It is. If the user selects the FAST mode in an environment where a decrease in texture mapping accuracy is a concern, the texture mapping accuracy does not decrease in spite of such an environment. On the other hand, if the user selects the SLOW mode in an environment where there is no concern about a decrease in texture mapping accuracy, not only high texture mapping accuracy but also high three-dimensional shape measurement accuracy is realized.

このように、本実施形態によれば、3次元入力装置10の使用環境や3次元形状計測精度とテクスチャマッピング精度とのそれぞれに対するユーザの要望に応じて、3次元入力装置10の設定をユーザが任意に変更することができ、よって、3次元入力装置10の使い勝手が向上する。   As described above, according to the present embodiment, the user sets the three-dimensional input device 10 according to the use environment of the three-dimensional input device 10 and the user's request for each of the three-dimensional shape measurement accuracy and the texture mapping accuracy. It can be arbitrarily changed, so that the usability of the three-dimensional input device 10 is improved.

図21には、図16におけるS1220が3次元計測処理サブルーチンとしてフローチャートで概念的に表されている。   In FIG. 21, S1220 in FIG. 16 is conceptually represented by a flowchart as a three-dimensional measurement processing subroutine.

この3次元計測処理サブルーチンにおいては、まず、S4001において、輝度画像生成プログラム114cの実行により、輝度画像が生成される。   In this three-dimensional measurement processing subroutine, first, in S4001, a luminance image is generated by executing the luminance image generation program 114c.

このS4001においては、輝度値が、YCbCr空間におけるY値として定義されており、各画素のRGB値より、   In S4001, the luminance value is defined as the Y value in the YCbCr space, and from the RGB value of each pixel,

Y=0.2989・R+0.5866・G+0.1145・B   Y = 0.2989 · R + 0.5866 · G + 0.1145 · B

なる式を用いて計算される。各画素についてY値を求めることにより、複数枚のパターン光有画像にそれぞれ対応複数枚の輝度画像が生成される。それら生成された輝度画像は、パターン番号PNに関連付けて輝度画像格納部116cに格納される。ただし、輝度値の算出に用いられる式は、上記式に限定されるものではなく、他の式に適宜変更することが可能である。 It is calculated using the following formula. By obtaining the Y value for each pixel, a plurality of luminance images corresponding to the plurality of pattern light existence images are generated. The generated luminance images are stored in the luminance image storage unit 116c in association with the pattern number PN. However, the formula used for calculating the luminance value is not limited to the above formula, and can be appropriately changed to another formula.

次に、S4002において、コード画像生成プログラム114dが実行される。このコード画像生成プログラム114dが実行されると、生成された複数枚の輝度画像が前述の空間コード化法を利用して組み合わされることにより、各画素ごとに空間コードが割り当てられたコード画像が生成される。そのコード画像は、輝度画像格納部116cに格納された複数種類のパターン光有画像に関する輝度画像と、各画素ごとに輝度閾値が割り当てられた閾値画像との比較による2値化処理によって生成される。その生成されたコード画像はコード画像格納部116dに格納される。   Next, in S4002, the code image generation program 114d is executed. When the code image generation program 114d is executed, a plurality of generated luminance images are combined using the above-described spatial encoding method, thereby generating a code image in which a spatial code is assigned to each pixel. Is done. The code image is generated by binarization processing by comparing a luminance image related to a plurality of types of pattern light existence images stored in the luminance image storage unit 116c with a threshold image to which a luminance threshold is assigned for each pixel. . The generated code image is stored in the code image storage unit 116d.

図22には、このコード画像生成プログラム114dの詳細がフローチャートで概念的に表されている。このコード画像生成プログラム114dにおいて採用されている技術は、本出願人の特願2004−285736号に詳細に記載されているため、その特許出願を参照することにより、その特許出願の内容を本明細書に引用する。   FIG. 22 conceptually shows details of the code image generation program 114d in a flowchart. Since the technology employed in the code image generation program 114d is described in detail in Japanese Patent Application No. 2004-285736 of the present applicant, the contents of the patent application are described in this specification by referring to the patent application. Quote in the book.

以下、このコード画像生成プログラム114dを時系列的に説明するが、それに先立ち、原理的に説明する。   Hereinafter, the code image generation program 114d will be described in time series, but prior to that, it will be described in principle.

本実施形態においては、同じ被写体S(3次元対象物)につき、複数種類のパターン光のもとにそれぞれ複数枚の輝度画像が生成される。それらパターン光はいずれも、明部、すなわち、幅を有する明るいパターンラインと、暗部、すなわち、幅を有する暗いパターンラインとが交互に一定の周期で繰り返すように形成される。それらパターン光は、その周期に関して互いに異なっており、それぞれ、パターン番号PNを有するパターン光と称される。それらパターン光のうち最も短い周期を有するパターン光が、パターン番号PNが0であるパターン光であり、最も長い周期を有するパターン光が、パターン番号PNが(PNmax−1)であるパターン光である。   In the present embodiment, a plurality of luminance images are generated for the same subject S (three-dimensional object) under a plurality of types of pattern light. Each of the pattern lights is formed such that a bright part, that is, a bright pattern line having a width, and a dark part, that is, a dark pattern line having a width, are alternately repeated at a constant period. The pattern lights are different from each other with respect to the period, and are each referred to as a pattern light having a pattern number PN. Among the pattern lights, the pattern light having the shortest cycle is the pattern light having the pattern number PN of 0, and the pattern light having the longest cycle is the pattern light having the pattern number PN of (PNmax-1). .

いずれの輝度画像も、対応するパターン光のもとに取得されるため、明部としての明るいパターンラインと、暗部としての暗いパターンラインとが交互に並んで成るパターン画像として形成される。パターンライン間の間隔すなわち周期は、3次元入力装置10と被写体Sとの間における相対的な幾何学的関係(位置および向きに関する関係)に依存するため、各輝度画像内のすべての位置において一定であるとは限らない。複数種類のパターン光のもとにそれぞれ取得される複数枚の輝度画像は、対応するパターン光のパターン番号PNを用いて特定される。   Since any luminance image is acquired under the corresponding pattern light, it is formed as a pattern image in which bright pattern lines as bright portions and dark pattern lines as dark portions are alternately arranged. Since the interval, that is, the period between the pattern lines depends on the relative geometric relationship (relationship between position and orientation) between the three-dimensional input device 10 and the subject S, it is constant at all positions in each luminance image. Not necessarily. A plurality of luminance images respectively acquired under a plurality of types of pattern light are specified using the pattern number PN of the corresponding pattern light.

本実施形態においては、それら複数枚の輝度画像のうちのいずれかが代表パターン画像に選択される。その代表パターン画像の一典型例は、複数種類のパターン光のうちパターンライン周期が最小であるものに対応する輝度画像であり、これは、パターン番号PNが0である輝度画像である。   In the present embodiment, any one of the plurality of luminance images is selected as the representative pattern image. A typical example of the representative pattern image is a luminance image corresponding to one of a plurality of types of pattern light having a minimum pattern line cycle. This is a luminance image having a pattern number PN of 0.

パターン光が投影された被写体Sを撮像した輝度画像においては、輝度値が画素列の方向において空間的にかつ周期的に変化する。その周期的変化を表すグラフにそれの複数個の下ピーク点(最低輝度点)において接する包絡線が存在する。この包絡線は、同じ被写体Sを無照射状態で撮像した輝度画像における輝度値、すなわち、被写体Sの背景光の輝度値の空間的変化を表している。このような包絡線が存在する輝度画像については、各画素の輝度値を閾値処理によって正確に2値化するためには、閾値を画素位置に応じて変化させることが望ましい。すなわち、輝度画像の実際の輝度値変化をトラッキングすることによって閾値を適応的に変化させることが望ましいのである。   In the luminance image obtained by imaging the subject S on which the pattern light is projected, the luminance value changes spatially and periodically in the direction of the pixel column. In the graph representing the periodic change, there is an envelope that touches at a plurality of lower peak points (lowest luminance points). This envelope represents a spatial change in the luminance value in the luminance image obtained by imaging the same subject S in the non-irradiated state, that is, the luminance value of the background light of the subject S. For a luminance image in which such an envelope exists, in order to binarize the luminance value of each pixel accurately by threshold processing, it is desirable to change the threshold according to the pixel position. That is, it is desirable to adaptively change the threshold value by tracking the actual luminance value change of the luminance image.

このような知見に基づき、本実施形態においては、輝度画像に対してフィルタ処理を行うことによって閾値を算出するフィルタ窓がローカルに設定され、フィルタ処理されることによりその位置に適した閾値が、輝度画像に対してローカルに設定される。輝度画像のうちのあるローカル位置に窓が設定されれば、輝度画像を構成する複数本のパターンラインのうちその窓内に存在する画素の輝度値が取り出されて参照されることにより、そのあるローカル位置に対応する閾値が設定される。   Based on such knowledge, in this embodiment, a filter window for calculating a threshold value by performing filter processing on the luminance image is set locally, and the threshold value suitable for the position by the filter processing is Set locally for the luminance image. If a window is set at a certain local position in the luminance image, the luminance value of the pixel existing in the window is extracted and referred to from among the plurality of pattern lines constituting the luminance image, and the window is set. A threshold value corresponding to the local position is set.

本実施形態において使用される窓は、方形窓である。この方形窓を採用する場合には、その方形窓内に存在する複数本のパターンラインを構成する画素の輝度値が取り出され、それら輝度値に対して同一の重み係数が用いられて閾値が算出される。その重み係数により、方形窓の窓関数が定義される。   The window used in this embodiment is a rectangular window. When this rectangular window is adopted, the luminance values of the pixels constituting the plurality of pattern lines existing in the rectangular window are extracted, and the threshold value is calculated by using the same weighting coefficient for the luminance values. Is done. The window function of the rectangular window is defined by the weight coefficient.

さらに、方形窓を採用する場合には、その方形窓の、パターンラインが延びるライン方向におけるライン方向サイズに応じて、その方形窓内においてライン方向に存在する画素の数を可変とすることができる。一方、その方形窓の、複数本のパターンラインが列を成して並ぶ列方向における列方向サイズに応じて、その方形窓内において列方向に存在するパターンラインの数も画素の数も可変とすることができる。   Further, when a rectangular window is adopted, the number of pixels existing in the line direction in the rectangular window can be made variable according to the line direction size in the line direction in which the pattern line extends. . On the other hand, the number of pattern lines and the number of pixels existing in the column direction in the rectangular window are variable according to the column direction size in the column direction in which a plurality of pattern lines are arranged in a row. can do.

したがって、方形窓を採用する場合には、その方形窓の列方向サイズにより、輝度画像に窓を設定することによってその輝度画像から算出される閾値が変化することになる。よって、その閾値を適応的に変化させることが必要である場合には、方形窓の列方向サイズを適応的に変化させればよい。   Therefore, when a rectangular window is adopted, the threshold value calculated from the luminance image changes by setting the window in the luminance image depending on the column direction size of the rectangular window. Therefore, when it is necessary to adaptively change the threshold value, the column direction size of the rectangular window may be adaptively changed.

本実施形態においては、方形窓として構成される窓のサイズが、その窓内に存在するパターンラインの数がそれらパターンラインの間隔すなわち周期(例えば、明るいパターンラインが繰り返される周期)の整数倍であるように設定することが望ましい。すなわち、窓内に、明るいパターンラインと暗いパターンラインとが同数ずつ存在するように窓のサイズを設定することが望ましいのである。このように設定すれば、窓内に存在する複数本のパターンラインの輝度値の平均値を算出することにより、望ましい閾値を高精度取得することができる。   In the present embodiment, the size of the window configured as a rectangular window is such that the number of pattern lines existing in the window is an integral multiple of the interval between the pattern lines, that is, the period (for example, the period in which bright pattern lines are repeated). It is desirable to set so that there is. That is, it is desirable to set the size of the window so that the same number of bright pattern lines and dark pattern lines exist in the window. With this setting, it is possible to obtain a desired threshold with high accuracy by calculating the average value of the luminance values of a plurality of pattern lines existing in the window.

しかしながら、同じ輝度画像上であっても、パターンラインの周期は場所によって異なる可能性がある。そのため、窓のサイズを固定した場合には、窓内に存在するパターンラインの数が場所によって変動してしまい、閾値の設定精度が低下してしまう。   However, even on the same luminance image, the pattern line period may vary depending on the location. Therefore, when the size of the window is fixed, the number of pattern lines existing in the window varies depending on the location, and the threshold setting accuracy is lowered.

本実施形態においては、複数枚の輝度画像のうち、パターンラインの周期が最小であるパターン光のもとに撮像されたもの、すなわち、パターン番号PNが0である輝度画像が代表パターン画像として選択される。さらに、本実施形態においては、その代表パターン画像に対してローカルに設定される窓VWが、それのサイズが可変である可変窓として構成されている。それにより、その可変窓VWのサイズが、代表パターン画像の実際のパターンライン周期に適応して変化させられる。   In the present embodiment, among a plurality of luminance images, an image captured under the pattern light having the minimum pattern line period, that is, a luminance image having a pattern number PN of 0 is selected as the representative pattern image. Is done. Furthermore, in this embodiment, the window VW set locally with respect to the representative pattern image is configured as a variable window whose size is variable. Thereby, the size of the variable window VW is changed in conformity with the actual pattern line period of the representative pattern image.

したがって、本実施形態によれば、代表パターン画像におけるパターンライン周期が列方向位置に応じて変動しても、それに追従するように可変窓VWのサイズが変更され、その結果、パターンライン周期の変動にもかかわらず、可変窓VW内に存在する明部と暗部のパターンラインの数が一定に維持される。本実施形態においては、代表パターン画像に対して可変窓VWが設定される各ローカル位置ごとに閾値THが取得される。各ローカル位置ごとの閾値THは、各ローカル位置に最適なサイズを有する可変窓VWのもとに精度よく取得されることになる。   Therefore, according to the present embodiment, even if the pattern line period in the representative pattern image varies according to the position in the column direction, the size of the variable window VW is changed so as to follow it, and as a result, the pattern line period varies. Nevertheless, the number of bright and dark pattern lines existing in the variable window VW is kept constant. In the present embodiment, the threshold value TH is acquired for each local position where the variable window VW is set for the representative pattern image. The threshold value TH for each local position is accurately obtained based on the variable window VW having the optimum size for each local position.

また、明部と暗部のパターンラインの数が一定に維持されるような可変窓VWのサイズは、パターン番号PNが0である輝度画像において最小となる。したがって、パターン番号PNが0である輝度画像を代表パターン画像として選択することにより、最小の可変窓VWのサイズが可能になり、可変窓VWを用いた後のフィルタ処理の計算負荷を抑えることが可能になる。   In addition, the size of the variable window VW that keeps the number of bright and dark pattern lines constant is minimum in a luminance image having a pattern number PN of zero. Therefore, by selecting a luminance image whose pattern number PN is 0 as a representative pattern image, the size of the minimum variable window VW can be made, and the calculation load of filter processing after using the variable window VW can be suppressed. It becomes possible.

本実施形態においては、その可変窓VWが、サイズが可変である方形窓として構成されている。その可変窓VWのサイズは、代表パターン画像の列方向には可変であるが、ライン方向には固定であるように設定されている。   In the present embodiment, the variable window VW is configured as a rectangular window having a variable size. The size of the variable window VW is set so as to be variable in the column direction of the representative pattern image but fixed in the line direction.

本実施形態においては、その可変窓VWのサイズ、すなわち、代表パターン画像の列方向におけるサイズが、その代表パターン画像の実際のパターンライン周期を適応的に反映するように設定される。そのため、可変窓VWのサイズを設定するために、代表パターン画像の実際のパターンライン周期分布が事前に判明していることが必要である。   In the present embodiment, the size of the variable window VW, that is, the size in the column direction of the representative pattern image is set so as to adaptively reflect the actual pattern line period of the representative pattern image. Therefore, in order to set the size of the variable window VW, it is necessary that the actual pattern line period distribution of the representative pattern image is known in advance.

よって、本実施形態においては、可変窓VWのサイズの設定に先立ち、サイズが固定された固定窓が代表パターン画像に対して設定される。その設定された固定窓によって捕捉される複数個の連続画素が複数個の注目画素として選択され、それら選択された注目画素の輝度値に基づき、代表パターン画像の実際のパターンライン周期分布が取得される。   Therefore, in this embodiment, prior to setting the size of the variable window VW, a fixed window with a fixed size is set for the representative pattern image. A plurality of continuous pixels captured by the set fixed window are selected as a plurality of target pixels, and an actual pattern line period distribution of the representative pattern image is acquired based on the luminance values of the selected target pixels. The

本実施形態においては、さらに、代表パターン画像における複数個の注目画素の輝度値に対してFFT(Fast Fourier Transform:高速フーリエ変換)処理が施され、それにより、代表パターン画像の列方向において輝度値変化の周波数成分のそれぞれについて強度(例えば、パワースペクトル)が取得される。ここに、「周波数成分」は、1個の固定窓によって捕捉される複数個の注目画素を列方向に辿った場合に、輝度値の変化が反復される反復回数を意味する。   In the present embodiment, further, FFT (Fast Fourier Transform) processing is performed on the luminance values of a plurality of pixels of interest in the representative pattern image, whereby the luminance value in the column direction of the representative pattern image. Intensity (eg, power spectrum) is acquired for each frequency component of the change. Here, the “frequency component” means the number of repetitions in which the change in luminance value is repeated when a plurality of target pixels captured by one fixed window are traced in the column direction.

本実施形態においては、代表パターン画像において列方向に連続的に並んだ複数個の連続画素のそれぞれが順次注目画素に選定され、その選定された各注目画素ごとにパターンライン周期が、代表パターン画像の輝度値分布に基づいて取得される。   In the present embodiment, each of a plurality of continuous pixels continuously arranged in the column direction in the representative pattern image is sequentially selected as a target pixel, and the pattern line period for each of the selected target pixels is the representative pattern image. Obtained based on the luminance value distribution.

以上、このコード画像生成プログラム114dを原理的に説明したが、以下、図22を参照することにより、時系列的に説明する。   The code image generation program 114d has been described in principle above, but will be described in time series with reference to FIG.

このコード画像生成プログラム114dにおいては、まず、S5001において、パターン番号PNが0であるパターン光が投影された被写体Sが撮像された輝度画像が輝度画像格納部116cから、代表パターン画像として読み込まれる。   In the code image generation program 114d, first, in S5001, a luminance image obtained by imaging the subject S onto which pattern light having a pattern number PN of 0 is captured is read from the luminance image storage unit 116c as a representative pattern image.

次に、S5002において、その代表パターン画像につき、前記読み込まれた輝度画像に基づき、前述のFFT変換によるアプローチにより、代表パターン画像において列方向に連続的に並んだ各画素ごとにパターンライン周期が演算される。演算された複数個のパターンライン周期は各画素(各列方向画素位置)に関連付けて周期分布格納部116pに格納される。   Next, in S5002, the pattern line cycle is calculated for each pixel that is continuously arranged in the column direction in the representative pattern image based on the read luminance image for the representative pattern image by the above-described approach by FFT conversion. Is done. The calculated plurality of pattern line periods are stored in the period distribution storage unit 116p in association with each pixel (each column direction pixel position).

続いて、S5003において、演算された複数個のパターンライン周期に基づき、可変窓VWの特性がローカルに設定される。本実施形態においては、可変窓VWのライン方向サイズは、その可変窓VWが設定される代表パターン画像上の位置にかかわらず、変化しないように設定されるのに対し、可変窓VWの列方向サイズは、各列方向画素位置に関連付けて演算されたパターンライン周期の整数倍に相当するように設定される。   Subsequently, in S5003, the characteristics of the variable window VW are set locally based on the plurality of calculated pattern line periods. In the present embodiment, the line direction size of the variable window VW is set so as not to change regardless of the position on the representative pattern image where the variable window VW is set, whereas the column direction of the variable window VW The size is set so as to correspond to an integral multiple of the pattern line period calculated in association with each column direction pixel position.

その後、S5004において、代表パターン画像に対して可変窓VWが、ライン方向と列方向とに沿って平面的に、かつ、各画素に関連付けて設定される。それにより、各画素ごとに、可変窓VW内に存在する複数個の画素の輝度値の平均値がローカルな閾値として演算される。このS5004においては、さらに、演算された閾値が各画素に割り当てられた閾値画像が生成される。生成された閾値画像は閾値画像格納部116qに格納される。   After that, in S5004, a variable window VW is set for the representative pattern image in a plane along the line direction and the column direction and in association with each pixel. Thereby, for each pixel, an average value of luminance values of a plurality of pixels existing in the variable window VW is calculated as a local threshold value. In S5004, a threshold image in which the calculated threshold value is assigned to each pixel is further generated. The generated threshold image is stored in the threshold image storage unit 116q.

続いて、S5005において、パターン番号PNが0に初期化され、その後、S5006において、パターン番号PNの現在値が最大値PNmaxより小さいか否かが判定される。今回は、パターン番号PNの現在値が0であるため、判定がNOとなり、S5007に移行する。   Subsequently, in S5005, the pattern number PN is initialized to 0. Thereafter, in S5006, it is determined whether or not the current value of the pattern number PN is smaller than the maximum value PNmax. Since the current value of the pattern number PN is 0 this time, the determination is no and the process moves to S5007.

このS5007においては、パターン番号PNの現在値と等しいパターン番号PNが割り当てられた輝度画像の輝度値と、前記生成された閾値画像の閾値とが、各画素ごとに互いに比較される。その比較結果は、各画素ごとに2値化画像に反映される。具体的には、輝度画像の輝度値が閾値より大きい場合には、「1」を表すデータが、2値化画像のうち対応する画素位置に関連付けて2値化画像格納部116rに格納され、一方、輝度画像の輝度値が閾値より大きくはない場合には、「0」を表すデータが、2値化画像のうち対応する画素位置に関連付けて2値化画像格納部116rに格納される。   In S5007, the luminance value of the luminance image assigned the pattern number PN equal to the current value of the pattern number PN and the threshold value of the generated threshold image are compared with each other for each pixel. The comparison result is reflected in the binarized image for each pixel. Specifically, when the luminance value of the luminance image is larger than the threshold value, data representing “1” is stored in the binarized image storage unit 116r in association with the corresponding pixel position in the binarized image, On the other hand, when the luminance value of the luminance image is not greater than the threshold value, data representing “0” is stored in the binarized image storage unit 116r in association with the corresponding pixel position in the binarized image.

その後、S5008において、パターン番号PNが1だけインクリメントされる。続いて、S5006に戻り、パターン番号PNの現在値が最大値PNmaxより小さいか否かが判定される。今回も、最大値PNmaxより小さい場合には、判定がNOとなり、S107に移行する。   Thereafter, in S5008, the pattern number PN is incremented by one. Subsequently, returning to S5006, it is determined whether or not the current value of the pattern number PN is smaller than the maximum value PNmax. Again, if it is smaller than the maximum value PNmax, the determination is no and the process moves to S107.

S5006ないしS5008の実行がパターン光の種類の数と同数回繰り返された結果、パターン番号PNの現在値が最大値PNmaxより小さくはない値になると、S5006の判定がYESとなり、S5009に移行する。   As a result of the execution of S5006 to S5008 being repeated the same number of times as the number of types of pattern light, if the current value of the pattern number PN becomes a value not smaller than the maximum value PNmax, the determination in S5006 becomes YES, and the process proceeds to S5009.

このS5009においては、各画素ごとに、最大値PNmaxと同数枚の2値化画像から画素値(「1」または「0」)が、パターン番号PNが0である輝度画像に対応する2値化画像から、パターン番号PNが(PNmax−1)である輝度画像に対応する2値化画像に至る順序に従って抽出され、最下位ビットLSMから最上位ビットMSBに至る順序に従って並んだ空間コードが生成される。各画素ごとの空間コードのビット数は、最大値PNmaxと同数である。各画素ごとに空間コードが生成されることにより、今回の被写体Sに対応する空間コード画像が生成される。生成された空間コードは、各画素位置に関連付けて空間コード格納部116dに格納される。例えば、最大値PNmaxが8である場合には、生成される空間コードは0から255までの範囲内の値を有する。   In S5009, for each pixel, the binarization corresponding to the luminance image in which the pixel value (“1” or “0”) from the same number of binarized images as the maximum value PNmax is the pattern number PN is 0. The spatial code is extracted from the image in accordance with the order from the binary image corresponding to the luminance image having the pattern number PN of (PNmax-1), and the spatial code arranged in the order from the least significant bit LSM to the most significant bit MSB is generated. The The number of bits of the spatial code for each pixel is the same as the maximum value PNmax. By generating a spatial code for each pixel, a spatial code image corresponding to the current subject S is generated. The generated spatial code is stored in the spatial code storage unit 116d in association with each pixel position. For example, when the maximum value PNmax is 8, the generated spatial code has a value in the range of 0 to 255.

以上で、このコード画像生成プログラム114dの一回の実行が終了する。   Thus, one execution of the code image generation program 114d is completed.

その後、図21におけるS4003において、コード境界抽出プログラム114eの実行により、コード境界座標検出処理が実施される。前述の空間コード化法によるコード化は、各画素単位で行われるため、実際のパターン光における明暗の境界線と、前記生成されたコード画像における空間コードの境界線(ある空間コードが割り当てられた領域と別の空間コードが割り当てられた領域との間の境界線)との間にサブピクセル精度の誤差が生ずる。そのため、このコード境界座標検出処理は、空間コードの境界座標値をサブピクセル精度で検出することを目的として実施される。   Thereafter, in S4003 in FIG. 21, a code boundary coordinate detection process is performed by executing the code boundary extraction program 114e. Since the coding by the above-described spatial coding method is performed in units of pixels, the bright / dark boundary line in the actual pattern light and the spatial code boundary line in the generated code image (a certain spatial code is assigned) An error in sub-pixel accuracy occurs between the region and the boundary between the region assigned with another spatial code. Therefore, this code boundary coordinate detection process is performed for the purpose of detecting the boundary coordinate value of the spatial code with subpixel accuracy.

例えば、各パターン光のライン方向と交差する離散的な基準線の位置をCCD座標系において255本設定すると、最大値PNmaxが8(空間コードを256有するため、境界は255)である場合には、図13におけるS4003(コード境界抽出プログラム114eの実行)により、最大約6万5千の空間コードの境界座標値が検出される。   For example, when 255 discrete reference line positions intersecting the line direction of each pattern light are set in the CCD coordinate system, the maximum value PNmax is 8 (the boundary is 255 because it has 256 spatial codes). By S4003 (execution of the code boundary extraction program 114e) in FIG. 13, boundary coordinate values of a maximum of about 65,000 spatial codes are detected.

検出されたコード境界座標値はコード境界座標格納部116eに格納される。コード境界座標値は、CCD70の結像面に設定された2次元座標系であるCCD座標系ccdx−ccdyにおいて定義される。   The detected code boundary coordinate value is stored in the code boundary coordinate storage unit 116e. The code boundary coordinate values are defined in a CCD coordinate system ccdx-ccdy, which is a two-dimensional coordinate system set on the imaging plane of the CCD 70.

続いて、S4004において、レンズ収差補正プログラム114fの実行により、レンズ収差補正処理が実施される。このレンズ収差補正処理は、撮像光学系30に入射した光束の実際の結像位置であってその撮像光学系30の収差の影響を受けたものを、その撮像光学系30が理想レンズであったならば結像されるはずである理想結像位置に近づくように補正する処理である。   Subsequently, in S4004, a lens aberration correction process is performed by executing the lens aberration correction program 114f. In this lens aberration correction processing, the actual imaging position of the light beam incident on the imaging optical system 30 that is affected by the aberration of the imaging optical system 30 is the ideal lens. If so, it is a process of correcting the image so as to approach the ideal image formation position where the image should be formed.

このレンズ収差補正処理により、S4003において検出されたコード境界座標値が、撮像光学系30の歪みなどに起因した誤差が除去されるように補正される。そのようにして補正されたコード境界座標は収差補正座標格納部116gに格納される。   By this lens aberration correction process, the code boundary coordinate value detected in S4003 is corrected so that an error caused by distortion of the imaging optical system 30 or the like is removed. The code boundary coordinates corrected in this way are stored in the aberration correction coordinate storage unit 116g.

それらコード境界座標検出処理およびレンズ収差補正処理はいずれも、本発明を理解するために不可欠な事項ではなく、しかも、本出願人の特願2004−105426号明細書に詳細に開示されているため、それを参照することによって引用することにより、本明細書においては詳細な説明を省略する。   Neither the code boundary coordinate detection process nor the lens aberration correction process is indispensable for understanding the present invention, and is disclosed in detail in the specification of the applicant's Japanese Patent Application No. 2004-105426. The detailed description is omitted in this specification by citing it by referring to it.

その後、S4005において、三角測量演算プログラム114gの実行により、三角測量の原理による実空間変換処理が実施される。この実空間変換処理が実施されれば、三角測量の原理により、前述の、CCD座標系ccdx−ccdy上のコード境界座標値であって収差補正が施されたものが、実空間に設定された3次元座標系である実空間座標系X−Y−Z上の3次元座標値に変換され、その結果、3次元色形状検出結果としての3次元座標値が取得される。その取得された3次元座標値は3次元座標格納部116hに格納される。   Thereafter, in S4005, real space conversion processing based on the principle of triangulation is performed by executing the triangulation calculation program 114g. If this real space conversion process is performed, the above-described code boundary coordinate values on the CCD coordinate system ccdx-ccdy and subjected to aberration correction are set in the real space according to the principle of triangulation. It is converted into a three-dimensional coordinate value on the real space coordinate system XYZ which is a three-dimensional coordinate system, and as a result, a three-dimensional coordinate value as a three-dimensional color shape detection result is acquired. The acquired three-dimensional coordinate value is stored in the three-dimensional coordinate storage unit 116h.

ここで、図23を参照することにより、三角測量の原理により、CCD座標系ccdx−ccdy上の2次元座標値を実空間座標系X−Y−Z上の3次元座標値に変換する手法を詳細に説明する。   Here, referring to FIG. 23, a method of converting a two-dimensional coordinate value on the CCD coordinate system ccdx-ccdy into a three-dimensional coordinate value on the real space coordinate system XYZ based on the principle of triangulation. This will be described in detail.

本実施形態においては、実空間座標系X−Y−Zが3次元入力装置10に固定され、この実空間座標系X−Y−Z上において、撮像対象である被写体Sが撮像される。図23に示すように、この実空間座標系X−Y−Zは3次元入力装置10に対し、X軸は水平方向に延び、Y軸は垂直方向に延び、Z軸は撮像光学系30の光軸方向に延びるように位置決めされている。図23(a)には、実空間座標系X−Y−ZがX軸方向に観察された状態で示され、図23(b)には、実空間座標系X−Y−ZがY軸方向に観察された状態で示されている。この実空間座標系X−Y−Zは3次元入力装置10に対し、原点が、撮像光学系30の入力瞳位置からZ軸に沿って距離VPZ離れた位置に位置するように設定されている。   In the present embodiment, the real space coordinate system XYZ is fixed to the three-dimensional input device 10, and the subject S that is the imaging target is imaged on the real space coordinate system XYZ. As shown in FIG. 23, the real space coordinate system XYZ extends in the horizontal direction, the Y axis extends in the vertical direction, and the Z axis extends from the imaging optical system 30 with respect to the three-dimensional input device 10. It is positioned so as to extend in the optical axis direction. FIG. 23A shows the real space coordinate system XYZ observed in the X-axis direction, and FIG. 23B shows the real space coordinate system XYZ Y-axis. It is shown as observed in the direction. The real space coordinate system XYZ is set with respect to the three-dimensional input device 10 so that the origin is located at a position VPZ away from the input pupil position of the imaging optical system 30 along the Z axis. .

この実空間座標系X−Y−Zにおいては、投影部12から被写体Sへの投影角度が「θp」で表記され、撮像光学系30の光軸と投影部12の光軸との距離が「D」で表記されている。投影角度θpは、各画素ごとに割り当てられた空間コードによって一義的に特定される。   In the real space coordinate system XYZ, the projection angle from the projection unit 12 to the subject S is expressed as “θp”, and the distance between the optical axis of the imaging optical system 30 and the optical axis of the projection unit 12 is “ D ”. The projection angle θp is uniquely specified by a spatial code assigned to each pixel.

この実空間座標系X−Y−Zにおいては、さらに、被写体S上の対象点targetからの反射光がCCD70に入射する光路が逆向きに延長された直線とX−Y平面との交点のY座標値が「Ytarget」、X座標値が「Xtarget」でそれぞれ表記されている。この実空間座標系X−Y−Zにおいては、さらに、撮像光学系30のY方向の視野が、「Yftop」で示す表記される点から「Yfbottom」で表記される点までの領域として定義され、X方向の視野が、「Xfstart」で表記される点から「Xfend」で表記される点までの領域として定義されている。さらに、CCD70のY軸方向における長さ(高さ)が「Hc」で表記され、X軸方向における長さ(幅)が「Wc」で表記されている。   In the real space coordinate system XYZ, further, the intersection Y between the straight line in which the optical path where the reflected light from the target point on the subject S enters the CCD 70 is extended in the opposite direction and the XY plane is used. The coordinate value is expressed as “Ytarget”, and the X coordinate value is expressed as “Xtarget”. In this real space coordinate system XYZ, the field of view of the imaging optical system 30 in the Y direction is further defined as a region from a point represented by “Yftop” to a point represented by “Yfbottom”. , The field of view in the X direction is defined as a region from a point represented by “Xfstart” to a point represented by “Xfend”. Further, the length (height) of the CCD 70 in the Y-axis direction is represented by “Hc”, and the length (width) in the X-axis direction is represented by “Wc”.

このように定義された実空間座標系X−Y−Z上においては、CCD70のCCD座標系上の任意座標値(ccdx,ccdy)に対応する実空間座標系上の3次元座標値(X,Y,Z)は、   On the real space coordinate system XYZ defined in this way, the three-dimensional coordinate values (X, X, Y) on the real space coordinate system corresponding to the arbitrary coordinate values (ccdx, ccdy) on the CCD coordinate system of the CCD 70. Y, Z) is

(a)被写体S上の対象点target(X,Y,Z)(図23において引出し線を付して「(a)」示す。)と、   (A) A target point target (X, Y, Z) on the subject S (indicated by “(a)” with a leader line in FIG. 23);

(b)撮像光学系30の入力瞳位置(図23において引出し線を付して「(b)」示す。)と、   (B) The input pupil position of the imaging optical system 30 (shown as “(b)” with a leader line in FIG. 23);

(c)投影光学系32の出力瞳位置(図23において引出し線を付して「(c)」示す。)と、   (C) The output pupil position of the projection optical system 32 (shown as “(c)” with a leader line in FIG. 23);

(d)撮像光学系30の入力瞳位置と被写体S上の対象点を通る直線とX−Y平面との交点(Xtarget,Ytarget)(図23において引出し線を付して「(d)」示す。)と、   (D) Intersection (Xtarget, Ytarget) between the input pupil position of the imaging optical system 30 and a straight line passing through the target point on the subject S and the XY plane (shown as “(d)” with a leader line in FIG. 23) .)When,

(e)投影光学系32の出力瞳位置と被写体S上の対象点を通る直線とX−Y平面との交点(図23において引出し線を付して「(e)」示す。)と   (E) The intersection of the output pupil position of the projection optical system 32 and a straight line passing through the target point on the subject S and the XY plane (shown as “(e)” with a leader line in FIG. 23).

に関する関係を示す次の5つの式を解くことにより、取得される。 It is obtained by solving the following five expressions showing the relationship regarding

(1)Y=(PPZ−Z)・tanθp−D+cmp(Xtarget) (1) Y = (PPZ−Z) tan θp−D + cmp (Xtarget)

(2)Y=−(Ytarget/VPZ)Z+Ytarget (2) Y = − (Ytarget / VPZ) Z + Ytarget

(3)X=−(Xtarget/VPZ)Z+Xtarget (3) X = − (Xtarget / VPZ) Z + Xtarget

(4)Ytarget=Yftop−(ccdcy/Hc)×(Yftop−Yfbottom) (4) Ytarget = Yftop− (ccdcy / Hc) × (Yftop−Yfbottom)

(5)Xtarget=Xfstart+(ccdcx/Wc)×(Xfend−Xfstart) (5) Xtarget = Xfstart + (ccdcx / Wc) × (Xfend−Xfstart)

ただし、式(1)における「cmp(Xtarget)」は、撮像光学系20と投影部12とのズレを補正する関数であり、ズレが無い理想的な場合には、0とみなすことができる。   However, “cmp (Xtarget)” in the equation (1) is a function for correcting the deviation between the imaging optical system 20 and the projection unit 12, and can be regarded as 0 in an ideal case where there is no deviation.

さらに、この実空間変換処理においては、実画像における任意点の座標値(ccdx,ccdy)が、理想カメラで撮像された画像における座標値(ccdcx,ccdcy)に変換される。この変換は、次の3つの式、すなわち、カメラキャリブレーションのための近似式を用いて行われる。   Further, in this real space conversion process, the coordinate value (ccdx, ccdy) of an arbitrary point in the real image is converted into the coordinate value (ccdcx, ccdcy) in the image captured by the ideal camera. This conversion is performed using the following three expressions, that is, an approximate expression for camera calibration.

(6)ccdcx=(ccdx−Centx)/(1+dist/100)+Centx (6) ccdcx = (ccdx−Centx) / (1 + dist / 100) + Centx

(7)ccdcy=(ccdy−Centy)/(1+dist/100)+Centy (7) ccdcy = (ccdy−Centy) / (1 + dist / 100) + Centy

(8)hfa=arctan[(((ccdx−Centx) +(ccdy−Centy)0.5)×pixellength/focallength] (8) hfa = arctan [(((ccdx−Centx) 2 + (ccdy−Centy) 2 ) 0.5 ) × pixellength / focallength]

ただし、収差量dist(%)は、半画角hfa(deg)の関数fを用いてdist=f(hfa)と記述される。また、撮像光学系30の焦点距離は、「focallength(mm)」で表記され、ccd画素長は、「pixellength(mm)」で表記され、CCD70におけるレンズの中心の座標値は、(Centx,Centy)として定義されている。   However, the aberration amount dist (%) is described as dist = f (hfa) using the function f of the half field angle hfa (deg). Further, the focal length of the imaging optical system 30 is expressed as “focallength (mm)”, the ccd pixel length is expressed as “pixelwell (mm)”, and the coordinate value of the center of the lens in the CCD 70 is (Centx, Centy). ).

この実空間座標系X−Y−Zにおいては、図23に示すように、光束が投影部12から被写体S上の対象点targetに入射する光路が同じ向きに延長された直線とX−Y平面との交点のY座標値が「Yptarget」、X座標値が「Xptarget」でそれぞれ表記されている。さらに、投影部12の出力瞳位置が(0,0,PPZ)として定義されている。さらに、投影部12のY方向の視野が、「Ypftop」で表記される点から「Ypfbottom」で表記される点までの領域として定義され、X方向の視野が、「Xpfstart」で表記される点から「Xpfend」で表記される点までの領域として定義されている。さらに、投影機構66のY軸方向における長さ(高さ)が「Hp」で表記され、X軸方向における長さ(幅)が「Wp」で表記されている。   In this real space coordinate system XYZ, as shown in FIG. 23, an XY plane and an XY plane in which light paths from which light beams enter the target point target on the subject S from the projection unit 12 are extended in the same direction. The Y-coordinate value of the intersection with is expressed as “Yptarget” and the X-coordinate value as “Xptarget”. Furthermore, the output pupil position of the projection unit 12 is defined as (0, 0, PPZ). Further, the field of view of the projection unit 12 in the Y direction is defined as a region from a point represented by “Ypftop” to a point represented by “Ypfbottom”, and the field of view in the X direction is represented by “Xpfstart”. To the point represented by “Xpfend”. Further, the length (height) in the Y-axis direction of the projection mechanism 66 is represented by “Hp”, and the length (width) in the X-axis direction is represented by “Wp”.

S4005においては、被写体Sの3次元形状を複数個の3次元頂点の集まりとして空間離散的に計測するために、2次元的なコード画像が、各パターン光のライン方向と交差する離散的な複数本の基準線に関して空間離散的に参照される。これにより、そのコード画像の外周境界上の複数個の離散点にそれぞれ対応する複数個の3次元頂点が取得されるのみならず、そのコード画像の内部の複数個の離散点(S4003において検出されたコードの境界座標点)にそれぞれ対応する複数個の3次元頂点が取得される。   In step S4005, in order to spatially discretely measure the three-dimensional shape of the subject S as a collection of a plurality of three-dimensional vertices, the two-dimensional code image intersects with the line direction of each pattern light. Referenced spatially with respect to the baseline of the book. As a result, not only a plurality of three-dimensional vertices respectively corresponding to a plurality of discrete points on the outer boundary of the code image are acquired, but also a plurality of discrete points (detected in S4003) inside the code image. A plurality of three-dimensional vertices respectively corresponding to the boundary coordinate points of the codes are acquired.

図24には、図16におけるS1230が3次元色形状検出結果生成サブルーチンとして概念的にフローチャートで表されている。   FIG. 24 conceptually shows a flowchart of S1230 in FIG. 16 as a three-dimensional color shape detection result generation subroutine.

まず、S6001において、前述の実空間3次元座標系に座標変換された3次元頂点群の各実座標空間座標値に対応するRGB値(R輝度値、G輝度値およびB輝度値)が前述の表面色画像から抽出される。   First, in S6001, the RGB values (R luminance value, G luminance value, and B luminance value) corresponding to each real coordinate space coordinate value of the three-dimensional vertex group coordinate-converted to the above-described real space three-dimensional coordinate system are described above. Extracted from the surface color image.

実空間座標系と、表面色画像を定義する平面座標系との関係は、前述の三角測量計算によって幾何学的に互いに対応付けられている。すなわち、コード画像、すなわち、被写体Sの3次元形状を計測するための2次元画像である形状画像を定義する平面座標系を実空間3次元座標系に計算によってマッピングさせるために用いられる関数が存在する場合に、その関数の逆関数を用いることにより、実空間3次元座標系を、表面色画像を定義する平面座標系に計算によってマッピングさせることが可能なのである。したがって、このS6001においては、2次元的な表面色画像から、各3次元頂点ごとに、それに対応する表面色値すなわちRGB値を抽出することが可能である。   The relationship between the real space coordinate system and the plane coordinate system that defines the surface color image is geometrically associated with each other by the triangulation calculation described above. That is, there is a function used for mapping a code image, that is, a plane coordinate system defining a shape image, which is a two-dimensional image for measuring the three-dimensional shape of the subject S, to a real space three-dimensional coordinate system by calculation. In this case, by using an inverse function of the function, a real space three-dimensional coordinate system can be mapped by calculation to a plane coordinate system that defines a surface color image. Therefore, in S6001, it is possible to extract the surface color value, that is, the RGB value, corresponding to each three-dimensional vertex from the two-dimensional surface color image.

次に、S6002において、各頂点ごとに、対応する実空間座標値とRGB値とが組み合わされて色形状情報が生成される。さらに、その生成された色形状情報が、対応する頂点に直接にまたは間接に関連付けてワーキングエリア120にローカル保存される。   In step S6002, color shape information is generated by combining corresponding real space coordinate values and RGB values for each vertex. Further, the generated color shape information is stored locally in the working area 120 in association with the corresponding vertex directly or indirectly.

続いて、S6003において、被写体Sの表面形状を複数個のポリゴンの一例である三角形に分割することによって近似的に表現するために、その被写体Sについて取得された複数個の頂点のうち、距離的に互いに近接する複数個の頂点が3個ずつ、グループ分けされる。各グループごとに、3個の頂点が互いに連結されることにより、1個のポリゴンが形成される。   Subsequently, in S6003, in order to approximately represent the surface shape of the subject S by dividing it into triangles, which are examples of a plurality of polygons, among the plurality of vertices acquired for the subject S, the distance A plurality of vertices adjacent to each other are grouped in groups of three. For each group, three vertices are connected to each other to form one polygon.

その後、S6004において、各ポリゴンごとに、そのポリゴンを形成するために互いに連結すべき3個の頂点の組合せがポリゴン情報として、各ポリゴンに直接にまたは間接に関連付けてワーキングエリア120にローカル保存される。   Thereafter, in S6004, for each polygon, a combination of three vertices to be connected to form the polygon is locally stored in the working area 120 as polygon information, directly or indirectly associated with each polygon. .

以上で、この3次元色形状検出結果生成サブルーチンの一回の実行が終了し、それに伴い、図16に示す3次元色形状検出処理ルーチンの一回の実行が終了する。   Thus, one execution of this three-dimensional color shape detection result generation subroutine is completed, and accordingly, one execution of the three-dimensional color shape detection processing routine shown in FIG. 16 is completed.

以上の説明から明らかなように、本実施形態においては、投影部12(鏡筒24、投影光学系32、LED62、光源レンズ64、投影機構66およびモータドライバ86)と、コンピュータ110のうち図17におけるS2001,S2002,S2002a,S2003,S2004,2006ないしS2009およびS2011を実行する部分とが互いに共同して前記(1)項における「投影部」の一例を構成しているのである。   As is apparent from the above description, in the present embodiment, the projection unit 12 (the lens barrel 24, the projection optical system 32, the LED 62, the light source lens 64, the projection mechanism 66, and the motor driver 86) and the computer 110 shown in FIG. S2001, S2002, S2002a, S2003, S2004, 2006 through S2009, and S2011 cooperate with each other to constitute an example of the “projection unit” in the above item (1).

さらに、本実施形態においては、撮像部14(撮像光学系30、CCD70およびCCDインタフェース88)と、コンピュータ110のうち図17におけるS2005およびS2010を実行する部分とが互いに共同して前記(1)項における「撮像部」の一例を構成しているのである。   Further, in the present embodiment, the imaging unit 14 (imaging optical system 30, CCD 70, and CCD interface 88) and the part of the computer 110 that executes S2005 and S2010 in FIG. This constitutes an example of the “imaging unit”.

さらに、本実施形態においては、処理部16(特に、コンピュータ110のうち図13、図14、図16、図17、図21、図22および図24に示す複数のステップのうち撮像部14に関連するステップを除くものを実行する部分)が前記(1)項における「処理部」の一例を構成しているのである。   Furthermore, in the present embodiment, the processing unit 16 (particularly related to the imaging unit 14 among the plurality of steps shown in FIGS. 13, 14, 16, 17, 21, 22, and 24 of the computer 110). The part that executes the steps excluding the step to be performed) constitutes an example of the “processing unit” in the item (1).

さらに、本実施形態においては、投影機構66のうち、供給ローラ220および巻き取りローラ226を除く部分が前記(1)項における「送り装置」の一例を構成し、それら供給ローラ220および巻き取りローラ226がそれぞれ同項における「屈曲装置」の一例を構成しているのである。   Further, in the present embodiment, the portion of the projection mechanism 66 excluding the supply roller 220 and the take-up roller 226 constitutes an example of the “feed device” in the above section (1), and the supply roller 220 and the take-up roller 226 constitutes an example of the “bending device” in the same section.

さらに、本実施形態においては、供給ローラ220および巻き取りローラ226がそれぞれ前記(2)項における「収容装置」の一例を構成し、それら供給ローラ220および巻き取りローラ226がそれぞれ前記(3)項における「ローラ」の一例を構成し、スプリング246が前記(4)項における「テンション付与装置」の一例を構成しているのである。   Further, in the present embodiment, the supply roller 220 and the take-up roller 226 each constitute an example of the “accommodating device” in the item (2), and the supply roller 220 and the take-up roller 226 are each the item (3). And the spring 246 constitutes an example of the “tension applying device” in the above item (4).

さらに、本実施形態においては、複数個の送り穴250が前記(5)項における「複数個のマスク側係合部」の一例を構成し、複数個の歯254および複数個の歯256が同項における「送り装置側係合部」の一例を構成しているのである。   Further, in the present embodiment, the plurality of feed holes 250 constitute one example of “a plurality of mask side engaging portions” in the above item (5), and the plurality of teeth 254 and the plurality of teeth 256 are the same. This constitutes an example of the “feeding device side engaging portion” in the section.

さらに、本実施形態においては、位置基準穴280が前記(6)項における「第1被検出部」の一例を構成し、位置センサ300が同項における「第1センサ」の一例を構成しているのである。   Further, in the present embodiment, the position reference hole 280 constitutes an example of the “first detected portion” in the item (6), and the position sensor 300 constitutes an example of the “first sensor” in the item. It is.

さらに、本実施形態においては、ID穴290,292,294が互いに共同して前記(7)項における「第2被検出部」の一例を構成し、第1ないし第3のIDセンサ310ないし314が互いに共同して同項における「第2センサ」の一例を構成しているのである。   Further, in the present embodiment, the ID holes 290, 292, and 294 cooperate with each other to constitute an example of the “second detected portion” in the item (7), and the first to third ID sensors 310 to 314 are configured. Are configured as an example of the “second sensor” in the same section.

さらに、本実施形態においては、コンピュータ110のうちモータ制御プログラム114hを実行するための部分が前記(9)項における「コントローラ」の一例を構成しているのである。   Further, in the present embodiment, the portion of the computer 110 for executing the motor control program 114h constitutes an example of the “controller” in the item (9).

次に、本発明の第2実施形態を説明する。ただし、本実施形態は、第1実施形態に対し、マスクが異なるのみで、他の要素については共通するため、異なる要素についてのみ詳細に説明し、共通する要素については、同一の符号または名称を使用して引用することにより、重複した説明を省略する。   Next, a second embodiment of the present invention will be described. However, this embodiment is different from the first embodiment only in the mask, and the other elements are common, so only the different elements will be described in detail, and the common elements have the same reference numerals or names. By using and quoting, duplicate description is omitted.

図25には、本実施形態に従う3次元入力装置10の投影機構66が用いるマスク330が部分的に正面図で示されている。このマスク330は、第1実施形態におけるマスク200と同様に、マスク330の長さ方向において複数のフレーム202が一列に並んで割り当てられるとともに、各フレーム202ごとに、少なくとも1個の貫通穴204が形成されることにより、ストライプ状の開口パターンが形成されている。   FIG. 25 partially shows a mask 330 used by the projection mechanism 66 of the three-dimensional input apparatus 10 according to the present embodiment in a front view. Like the mask 200 in the first embodiment, the mask 330 is assigned with a plurality of frames 202 arranged in a line in the length direction of the mask 330, and at least one through hole 204 is provided for each frame 202. As a result, a striped opening pattern is formed.

本実施形態においては、第1実施形態とは異なり、マスク330において各貫通穴204の長さ方向がマスク330の幅方向すなわちマスク330の送り方向と直角な方向に一致させられている。そのため、マスク330の曲げ剛性が、第1実施形態におけるマスク200に比較し、長さ方向において変化する傾向が強い。しかしながら、本実施形態においては、その傾向を解消ないしは軽減すべく、マスク330に補強部340が形成されている。このマスク330は、貫通穴204の向きおよび補強部340の存在以外の点については、マスク200と共通する。   In the present embodiment, unlike the first embodiment, the length direction of each through hole 204 in the mask 330 is aligned with the width direction of the mask 330, that is, the direction perpendicular to the feed direction of the mask 330. Therefore, the bending rigidity of the mask 330 is more likely to change in the length direction than the mask 200 in the first embodiment. However, in the present embodiment, the reinforcing portion 340 is formed on the mask 330 in order to eliminate or reduce the tendency. The mask 330 is common to the mask 200 except for the orientation of the through hole 204 and the presence of the reinforcing portion 340.

本実施形態においては、その補強部340が、マスク330の断面係数の増加によってそれの曲げ剛性を増加させるためにマスク330に形成されている。具体的には、補強部340は、マスク330のうちフレーム202を除く両側縁部350にそれぞれ割り当てられており、それにより、各側縁部350の幅寸法が通常より増加させられている。補強部340は、各側縁部350のうち、通常の幅寸法より延長された延長部に相当する。各側縁部350に補強部340が追加された結果、例えば、各側縁部350の幅寸法が各貫通穴204の長さの約80パーセントに当たる長さ以上の長さを有する。   In the present embodiment, the reinforcing portion 340 is formed on the mask 330 in order to increase the bending rigidity thereof by increasing the section modulus of the mask 330. Specifically, the reinforcing portions 340 are respectively assigned to the side edge portions 350 excluding the frame 202 in the mask 330, and thereby the width dimension of each side edge portion 350 is increased more than usual. The reinforcing portion 340 corresponds to an extended portion of each side edge portion 350 that is extended from a normal width dimension. As a result of the reinforcement portion 340 being added to each side edge portion 350, for example, the width dimension of each side edge portion 350 has a length equal to or longer than about 80% of the length of each through hole 204.

したがって、本実施形態によれば、マスク330において各貫通穴204の長さ方向がマスク330の幅方向に一致するにもかかわらず、補強部340により、マスク330の曲げ剛性がそれの長さ方向において大きく変化することが抑制される。よって、マスク330が照射位置228において湾曲する量が減少し、ひいては、貫通穴204の向きに起因した3次元入力装置10の3次元入力精度の低下が抑制される。   Therefore, according to the present embodiment, although the length direction of each through hole 204 in the mask 330 matches the width direction of the mask 330, the bending rigidity of the mask 330 is increased in the length direction by the reinforcing portion 340. It is possible to suppress a large change in Therefore, the amount by which the mask 330 is bent at the irradiation position 228 is reduced, and as a result, a decrease in the three-dimensional input accuracy of the three-dimensional input device 10 due to the direction of the through hole 204 is suppressed.

以上、本発明の実施の形態のうちのいくつかを図面に基づいて詳細に説明したが、これらは例示であり、前記[発明の開示]の欄に記載の態様を始めとして、当業者の知識に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能である。   As described above, some of the embodiments of the present invention have been described in detail with reference to the drawings. However, these are merely examples, and the knowledge of those skilled in the art including the aspects described in the above [Disclosure of the Invention] section. It is possible to implement the present invention in other forms in which various modifications and improvements are made based on the above.

本発明の第1実施形態に従う3次元入力装置10の外観を示す斜視図である。It is a perspective view which shows the external appearance of the three-dimensional input device 10 according to 1st Embodiment of this invention. 図1におけるケーシング20の内部の構成を示す平面図である。It is a top view which shows the structure inside the casing 20 in FIG. 図2における投影部12を拡大して示す平面図、および図2における光源レンズ64を拡大して示す正面図である。FIG. 3 is an enlarged plan view showing a projection unit 12 in FIG. 2 and an enlarged front view showing a light source lens 64 in FIG. 2. 図3における複数個のLED62の配列を説明するための側面図、1個のLED62によって個別的に実現される照度分布を示すグラフ、それら複数個のLED62を示す正面図、およびそれら複数個のLED62により総合的に実現される合成照度分布を示グラフである。FIG. 3 is a side view for explaining the arrangement of the plurality of LEDs 62, a graph showing the illuminance distribution individually realized by the one LED 62, a front view showing the plurality of LEDs 62, and the plurality of LEDs 62. It is a graph which shows the synthetic | combination illumination intensity distribution implement | achieved synthetically by. 図1に示す3次元入力装置10の電気的構成を概念的に表すブロック図である。FIG. 2 is a block diagram conceptually showing an electrical configuration of the three-dimensional input device 10 shown in FIG. 1. 図2における投影機構66を示す正面図である。It is a front view which shows the projection mechanism 66 in FIG. 図6に示す投影機構66を示す部分側面断面図である。It is a partial side sectional view showing projection mechanism 66 shown in FIG. 図6におけるマスク200を部分的に拡大して示す正面図である。It is a front view which expands and shows the mask 200 in FIG. 6 partially. 図6におけるマスク200を部分的に示す正面図および図5における位置センサ300および第1ないし第3のIDセンサ310ないし314をマスク200と共に示す側面図である。6 is a front view partially showing the mask 200 in FIG. 6 and a side view showing the position sensor 300 and the first to third ID sensors 310 to 314 in FIG. 図9における位置センサ300のPD信号および第1ないし第3のIDセンサ310ないし314のS1ないしS3信号を説明するためのタイミングチャートである。10 is a timing chart for explaining the PD signal of the position sensor 300 and the S1 to S3 signals of the first to third ID sensors 310 to 314 in FIG. 9. 図6におけるマスク200における貫通穴204の配列による効果を説明するための正面図および側面図である。It is the front view and side view for demonstrating the effect by the arrangement | sequence of the through-hole 204 in the mask 200 in FIG. 図11におけるマスク200の湾曲量と被写体S上における焦点面の湾曲量との関係を説明するための側面図である。12 is a side view for explaining the relationship between the amount of curvature of the mask 200 in FIG. 11 and the amount of curvature of the focal plane on the subject S. FIG. 図5におけるカメラ制御プログラムにおいて実行されるメイン処理を概念的に表すフローチャートである。6 is a flowchart conceptually showing main processing executed in the camera control program in FIG. 5. 図13におけるS108において実行される立体画像処理を概念的に表すフローチャートである。14 is a flowchart conceptually showing stereoscopic image processing executed in S108 in FIG. 図14の立体画像処理において採用される空間コード化法の原理を説明するための平面図および側面図と、2組のマスクパターンを示す平面図とである。It is the top view and side view for demonstrating the principle of the spatial encoding method employ | adopted in the stereo image processing of FIG. 14, and the top view which shows two sets of mask patterns. 図14におけるS1007において実行される3次元色形状検出処理を3次元色形状検出処理ルーチンとして概念的に表すフローチャートである。FIG. 15 is a flowchart conceptually showing the three-dimensional color shape detection processing executed in S1007 in FIG. 14 as a three-dimensional color shape detection processing routine. 図14におけるS1210を撮像処理プログラム114bとして概念的に表すフローチャートである。15 is a flowchart conceptually showing S1210 in FIG. 14 as an imaging processing program 114b. 図17におけるS200aをモータ制御プログラム114hとして概念的に表すフローチャートである。18 is a flowchart conceptually showing S200a in FIG. 17 as a motor control program 114h. 図17におけるS2004において実行される投影処理を投影処理サブルーチンとして概念的に表すフローチャートである。18 is a flowchart conceptually showing a projection process executed in S2004 in FIG. 17 as a projection process subroutine. 図1に示す3次元入力装置10の作動の一例を説明するためのタイミングチャートである。It is a timing chart for demonstrating an example of the action | operation of the three-dimensional input device 10 shown in FIG. 図16におけるS1220を3次元計測処理サブルーチンとして概念的に表すフローチャートである。FIG. 17 is a flowchart conceptually showing S1220 in FIG. 16 as a three-dimensional measurement processing subroutine. 図21におけるS4002において実行されるコード画像生成プログラム114dを概念的に表すフローチャートである。22 is a flowchart conceptually showing a code image generation program 114d executed in S4002 in FIG. 図21におけるS4005の実行によって2次元のCCD座標系と3次元の実空間座標系との間において行われる座標変換と、2次元のLCD座標系と3次元の実空間座標系との間とにおいて座標変換とを説明するための側面図および平面図である。21, coordinate transformation performed between the two-dimensional CCD coordinate system and the three-dimensional real space coordinate system by executing S4005 and between the two-dimensional LCD coordinate system and the three-dimensional real space coordinate system. It is the side view and top view for demonstrating coordinate transformation. 図14におけるS1230を3次元色形状検出結果生成ルーチンとして概念的に表すフローチャートである。15 is a flowchart conceptually showing S1230 in FIG. 14 as a three-dimensional color shape detection result generation routine. 本発明の第2実施形態に従う3次元入力装置10の投影機構66が用いるマスク330を部分的に示す正面図である。It is a front view which shows partially the mask 330 which the projection mechanism 66 of the three-dimensional input device 10 according to 2nd Embodiment of this invention uses.

符号の説明Explanation of symbols

10 3次元入力装置
12 投影部
14 撮像部
16 処理部
65 モータ
86 モータドライバ
110 コンピュータ
200 マスク
202 フレーム
204 貫通穴
220 供給ローラ
222 カイドローラ
224 送りローラ
226 巻き取りローラ
228 照射位置
230 直線部
250 送り穴
252 パーフォレーション
254 歯
256 歯
280 位置基準穴
282 ID穴領域
290 ID穴
292 ID穴
294 ID穴
300 位置センサ
310 第1のIDセンサ
312 第2のIDセンサ
314 第3のIDセンサ
330 マスク
DESCRIPTION OF SYMBOLS 10 3D input device 12 Projection part 14 Imaging part 16 Processing part 65 Motor 86 Motor driver 110 Computer 200 Mask 202 Frame 204 Through-hole 220 Supply roller 222 Guide roller 224 Feed roller 226 Take-up roller 228 Irradiation position 230 Linear part 250 Feed hole 252 Perforation 254 Teeth 256 Teeth 280 Position reference hole 282 ID hole area 290 ID hole 292 ID hole 294 ID hole 300 Position sensor 310 First ID sensor 312 Second ID sensor 314 Third ID sensor 330 Mask

Claims (12)

物体の3次元形状を入力する3次元入力装置であって、
光源からの入射光を複数種類のパターン光に選択的に変換することにより、それら複数種類のパターン光を順次前記物体に投影する投影部と、
その投影された各パターン光に関連付けて前記物体を撮像する撮像部と、
その撮像部による撮像結果を処理することにより、前記物体の3次元形状を入力する処理部と
を含み、
前記投影部は、シート状を成して長さ方向に延びるマスクを含み、
そのマスクは、前記複数種類のパターン光にそれぞれ対応する複数のフレームが前記長さ方向に並んで割り当てられており、それらフレームが選択的に前記入射光の照射領域に位置させられ、
そのマスクは、前記各フレームごとに、前記マスクをそれの厚さ方向に貫通する貫通穴を、各フレームに対応するパターン光の形状に対応する形状を有する状態で備えており、
そのマスクは、前記長さ方向と前記厚さ方向との双方に平行な平面内において屈曲可能であり、
前記投影部は、さらに、
前記マスクを前記長さ方向に送る送り装置と、
前記マスクのうち前記照射領域に位置させられる部分から前記長さ方向に外れた部分を少なくとも一箇所において屈曲させる屈曲装置と
を含む3次元入力装置。
A three-dimensional input device for inputting a three-dimensional shape of an object,
A projection unit that sequentially projects the plurality of types of pattern light onto the object by selectively converting incident light from the light source into a plurality of types of pattern light; and
An imaging unit that images the object in association with each projected pattern light;
A processing unit that inputs a three-dimensional shape of the object by processing an imaging result of the imaging unit;
The projection unit includes a mask that forms a sheet and extends in the length direction,
In the mask, a plurality of frames respectively corresponding to the plurality of types of pattern light are assigned in the length direction, and the frames are selectively positioned in the irradiation region of the incident light,
The mask is provided with a through hole penetrating the mask in the thickness direction for each frame in a state corresponding to the shape of the pattern light corresponding to each frame,
The mask is bendable in a plane parallel to both the length direction and the thickness direction;
The projection unit further includes:
A feeding device for sending the mask in the length direction;
A three-dimensional input device comprising: a bending device that bends at least one portion of the mask that deviates in the length direction from a portion positioned in the irradiation region.
前記屈曲装置は、前記マスクのうち前記長さ方向における両端部のうちの少なくとも一方を巻き取って収容する収容装置である請求項1に記載の3次元入力装置。   The three-dimensional input device according to claim 1, wherein the bending device is a storage device that winds and stores at least one of both end portions in the length direction of the mask. 前記収容装置は、前記マスクを巻き付けるローラを含む請求項2に記載の3次元入力装置。   The three-dimensional input device according to claim 2, wherein the storage device includes a roller around which the mask is wound. さらに、前記撮像部が前記物体を撮像する撮像期間を少なくとも含む期間において、前記マスクのうち前記照射領域に位置させられる部分にテンションを前記長さ方向に付与するテンション付与装置を含む請求項1ないし3のいずれかに記載の3次元入力装置。   2. The apparatus according to claim 1, further comprising a tension applying device that applies tension in the length direction to a portion of the mask positioned in the irradiation region in a period including at least an imaging period in which the object is imaged. The three-dimensional input device according to any one of 3. 前記マスクは、前記送り装置によって送られるためにその送り装置と機械的に係合するマスク側係合部を前記長さ方向に並んで複数個含み、
前記送り装置は、それら複数個のマスク側係合部に離脱可能に機械的に係合する送り装置側係合部を少なくとも1個含む請求項1ないし4のいずれかに記載の3次元入力装置。
The mask includes a plurality of mask side engaging portions that are mechanically engaged with the feeding device in order to be fed by the feeding device, aligned in the length direction,
The three-dimensional input device according to any one of claims 1 to 4, wherein the feeding device includes at least one feeding device side engaging portion that is detachably mechanically engaged with the plurality of mask side engaging portions. .
前記マスクは、そのマスクの前記送り装置による送り位置を測定するために検出される第1被検出部を前記長さ方向に並んで複数個、前記マスクと一体的に移動可能に含み、
当該3次元入力装置は、さらに、
前記複数個の第1被検出部を選択的に検出する第1センサを含む請求項1ないし5のいずれかに記載の3次元入力装置。
The mask includes a plurality of first detected portions that are detected in order to measure a feed position of the mask by the feed device, arranged in the length direction, and can be moved integrally with the mask,
The three-dimensional input device further includes:
The three-dimensional input device according to claim 1, further comprising a first sensor that selectively detects the plurality of first detected parts.
前記マスクは、前記各フレームを識別するために検出される第2被検出部を含み、
当該3次元入力装置は、さらに、
前記第2被検出部を検出する第2センサを含む請求項1ないし6のいずれかに記載の3次元入力装置。
The mask includes a second detected portion that is detected to identify each frame,
The three-dimensional input device further includes:
The three-dimensional input device according to claim 1, further comprising a second sensor that detects the second detected portion.
前記投影部は、さらに、前記マスクの連続的送りによって前記複数のフレームが順次前記照射領域に位置させられるように前記送り装置を制御するコントローラを含む請求項1ないし7のいずれかに記載の3次元入力装置。   8. The projector according to claim 1, wherein the projection unit further includes a controller that controls the feeding device so that the plurality of frames are sequentially positioned in the irradiation region by continuous feeding of the mask. 9. Dimension input device. 前記投影部は、さらに、前記マスクの間欠的送りによって前記複数のフレームが順次前記照射領域に位置させられるように前記送り装置を制御するコントローラを含む請求項1ないし7のいずれかに記載の3次元入力装置。   8. The projector according to claim 1, wherein the projection unit further includes a controller that controls the feeding device such that the plurality of frames are sequentially positioned in the irradiation region by intermittent feeding of the mask. 9. Dimension input device. 前記マスクは、金属を主体とする材料によって構成される請求項1ないし9のいずれかに記載の3次元入力装置。   The three-dimensional input device according to claim 1, wherein the mask is made of a material mainly composed of metal. 前記貫通穴は、前記長さ方向に平行に延びる長穴である請求項1ないし10のいずれかに記載の3次元入力装置。   The three-dimensional input device according to claim 1, wherein the through hole is a long hole extending in parallel with the length direction. 当該3次元入力装置は、ハンドヘルドタイプである請求項1ないし11のいずれかに記載の3次元入力装置。   The three-dimensional input device according to claim 1, wherein the three-dimensional input device is a handheld type.
JP2005087456A 2005-03-25 2005-03-25 Three-dimensional input apparatus Pending JP2006266957A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2005087456A JP2006266957A (en) 2005-03-25 2005-03-25 Three-dimensional input apparatus
PCT/JP2006/305788 WO2006104001A1 (en) 2005-03-25 2006-03-23 Three-dimensional input device and three-dimensional input method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2005087456A JP2006266957A (en) 2005-03-25 2005-03-25 Three-dimensional input apparatus

Publications (1)

Publication Number Publication Date
JP2006266957A true JP2006266957A (en) 2006-10-05

Family

ID=37203084

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2005087456A Pending JP2006266957A (en) 2005-03-25 2005-03-25 Three-dimensional input apparatus

Country Status (1)

Country Link
JP (1) JP2006266957A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010281665A (en) * 2009-06-04 2010-12-16 Yamaha Motor Co Ltd Phase shift imaging device, component transfer device, and phase shift imaging method
JP2013120093A (en) * 2011-12-06 2013-06-17 Canon Inc Information processing apparatus, control method for information processing apparatus and program
JP2019537728A (en) * 2016-11-21 2019-12-26 ケアストリーム・デンタル・テクノロジー・トプコ・リミテッド 3D oral surface characterization

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010281665A (en) * 2009-06-04 2010-12-16 Yamaha Motor Co Ltd Phase shift imaging device, component transfer device, and phase shift imaging method
JP2013120093A (en) * 2011-12-06 2013-06-17 Canon Inc Information processing apparatus, control method for information processing apparatus and program
US9288455B2 (en) 2011-12-06 2016-03-15 Canon Kabushiki Kaisha Information processing apparatus, control method of information processing apparatus, and storage medium for determining whether a projection pattern of a current frame differs from that of a previous frame
JP2019537728A (en) * 2016-11-21 2019-12-26 ケアストリーム・デンタル・テクノロジー・トプコ・リミテッド 3D oral surface characterization
JP2021139905A (en) * 2016-11-21 2021-09-16 ケアストリーム・デンタル・テクノロジー・トプコ・リミテッド 3-d intraoral surface characterization
JP7165779B2 (en) 2016-11-21 2022-11-04 ケアストリーム・デンタル・テクノロジー・トプコ・リミテッド 3D intraoral surface characterization

Similar Documents

Publication Publication Date Title
JP2007271530A (en) Apparatus and method for detecting three-dimensional shape
US7751066B2 (en) Projector and three-dimensional input apparatus using the same
US7672505B2 (en) Apparatus, method and program for three-dimensional-shape detection
US7845807B2 (en) Projection apparatus and three-dimensional-shape detection apparatus
JP4379056B2 (en) Three-dimensional imaging apparatus and method
JP2006098252A (en) Three-dimensional information acquisition method
JP2007256116A (en) Three-dimensional shape detector
JP2005293075A5 (en)
US7630088B2 (en) Apparatus for measurement of 3-D shape of subject using transformable holder with stable and repeatable positioning of the same subject
WO2007114189A1 (en) Three-dimensional color and shape measuring device
JP2006267031A (en) Three-dimensional input apparatus and method
JP4552485B2 (en) Image input / output device
JP2006266957A (en) Three-dimensional input apparatus
EP1462851A1 (en) Reflection screen device for controlling the light distribution
WO2004046643A1 (en) Device and method for acquiring image of electronic circuit part
JP2007255975A (en) Three-dimensional information measuring apparatus
JP2007212159A (en) Calibration tool used for calibration of three-dimensional shape detector and calibration method therefor
JP2005352835A (en) Image i/o device
WO2005122553A1 (en) Image i/o device
JP4215028B2 (en) Optical information reader
JP4595690B2 (en) Projection device
WO2006104001A1 (en) Three-dimensional input device and three-dimensional input method
JP4552484B2 (en) Image input / output device
JP2006349394A (en) Three-dimensional input device
JP2007255974A (en) Three-dimensional information measuring apparatus