WO2006035736A1 - 3次元情報取得方法および3次元情報取得装置 - Google Patents

3次元情報取得方法および3次元情報取得装置 Download PDF

Info

Publication number
WO2006035736A1
WO2006035736A1 PCT/JP2005/017678 JP2005017678W WO2006035736A1 WO 2006035736 A1 WO2006035736 A1 WO 2006035736A1 JP 2005017678 W JP2005017678 W JP 2005017678W WO 2006035736 A1 WO2006035736 A1 WO 2006035736A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
pattern
spatial
information acquisition
light
Prior art date
Application number
PCT/JP2005/017678
Other languages
English (en)
French (fr)
Inventor
Hiroyuki Sasaki
Original Assignee
Brother Kogyo Kabushiki Kaisha
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Brother Kogyo Kabushiki Kaisha filed Critical Brother Kogyo Kabushiki Kaisha
Publication of WO2006035736A1 publication Critical patent/WO2006035736A1/ja
Priority to US11/690,923 priority Critical patent/US20070177160A1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2518Projection by scanning of the object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery

Definitions

  • the present invention relates to a technique for acquiring three-dimensional information of an object based on a pattern image acquired by imaging an object on which pattern light is projected, and in particular, the three-dimensional
  • the present invention relates to an improvement of a technique for setting a threshold applied to a pattern image in order to acquire information.
  • An example of this technique is the spatial code method.
  • n types of striped pattern lights are sequentially projected onto an object, and the object is imaged for each pattern light.
  • the space in which the object is placed is divided into 2 n thin fan-shaped areas, whereby n pattern images, that is, striped luminance images or grayscale images are acquired.
  • the obtained n pattern images are converted into n binary images by performing threshold processing on each of them, and further, For each pixel, the luminance values (0 or 1) of the n binary images are sequentially assigned to n bits up to the MSB of the least significant bit LSB constituting the spatial code. .
  • a spatial code image in which a spatial code is assigned to each pixel is acquired, and a plurality of objects constituting the object are formed based on the acquired spatial code image and according to the principle of triangulation.
  • Three-dimensional information including each three-dimensional position of the pixel is acquired.
  • threshold processing is generally performed such that a pattern image and a threshold image are compared with each other for each pixel with respect to a luminance value.
  • the threshold image is taken
  • One conventional example obtained is disclosed in Japanese Patent No. 2921748.
  • a negative image slit pattern is used in which eight types of positive image slit patterns are inverted.
  • eight types of positive image slit patterns are sequentially used for the same object, and eight positive images are taken.
  • eight types of negative image slit patterns are used sequentially. 8 negative images are taken.
  • a threshold image is synthesized by combining a difference image obtained by subtracting a positive image force negative image and a difference image obtained by subtracting a negative image from a positive image. Is done. Therefore, in the case of implementing this conventional example, the pattern light is projected and photographed on the object twice as many times as the number of basic slit patterns, that is, in order to carry out the normal spatial code method. Must be performed twice as many times as projection and shooting.
  • a rectangular mask having a fixed width is used so that a plurality of pattern lines (an example of a bright part of the pattern image) in the pattern image are included.
  • This mask is individually applied to each part of the pattern image, and the average value of the luminance values of a plurality of pixels existing in the mask is calculated as a local threshold value for each part. That is, this conventional example is a conventional example of a threshold setting technique for setting a threshold locally so as to adapt to a spatial change in the brightness of an object.
  • the mask width exactly matches an integer multiple of the interval between a plurality of pattern lines in an actual pattern image. If this requirement is not satisfied, the bright and dark areas in the same mask do not exist evenly with respect to the area, and as a result, the average value of the luminance values of a plurality of pixels existing in the same mask becomes the actual bright and dark areas. The average value of each true luminance value with the actual dark part will be off. However, it is practically difficult to always satisfy this requirement. This will be explained in detail below.
  • Imaging of an object on which pattern light in which a plurality of pattern lines are arranged at equal intervals is projected Also in the pattern image acquired by the above, a plurality of pattern lines are arranged. Even if the pattern line interval in the pattern light is the same as the pattern line interval in the pattern image, the object, the projector that projects the pattern light onto the object, and the camera that images the object Relative geometrical arrangement, orientation (for example, the direction in which pattern light is projected onto the object, the direction in which the object is imaged, the direction of the surface of the object, the distance between the projector and the object) The distance varies depending on the distance between the camera and the object.
  • the interval between the pattern lines is equal, whereas in the pattern image obtained by imaging the target object onto which such pattern light is projected.
  • the pattern line spacing may vary spatially.
  • the portion of the object on which the pattern light is projected is configured by a single plane, it is formed by the light reflected from the portion of the pattern light. Even in the pattern image to be formed, the interval between the pattern lines does not change spatially.
  • the portion of the object on which the pattern light is projected is composed of a single or a plurality of curved surfaces or a plurality of planes, for example, when there is unevenness, from the portion,
  • the spacing between the non-turn lines varies spatially.
  • the pattern line interval may change spatially in the pattern image.
  • the threshold is set locally.
  • the mask width set for the pattern image is fixed.
  • the luminance value between a plurality of pattern lines in the pattern image is considered.
  • the pattern lines are all judged to be bright in the binary key processing. Required to improve accuracy. Therefore, it is desirable to track the threshold so as to follow the spatial variation of the brightness of the reflected light of the object.
  • the present invention provides a technique for acquiring three-dimensional information of an object based on a pattern image acquired by imaging the object on which pattern light is projected. Therefore, an object of the present invention is to improve a technique for setting a threshold value applied to a pattern image in order to acquire the three-dimensional information.
  • each section in the form of quoting the numbers of other sections so that the technical characteristics described in each section are separated from the technical characteristics described in the other sections. It should be construed that the technical features described in each section can be made independent as appropriate according to their nature.
  • a three-dimensional information acquisition method for acquiring three-dimensional information of the object based on a pattern image acquired by imaging the object on which pattern light is projected, the pattern image
  • a spatial filter setting step for setting a spatial filter corresponding to each part based on the spatial frequency characteristics in each part, for each part;
  • Threshold setting step for setting, for each part, a threshold value applied to each part in order to obtain the three-dimensional information based on image information obtained by applying the spatial filter to each part.
  • 3D information acquisition method including
  • the spatial filter corresponding to each part is set based on the spatial frequency characteristics in each part of the pattern image.
  • a threshold is set for each part by applying the spatial filter set in this way to the pattern image for each part. That is, in this method, a local threshold is set for the pattern image by employing a variable spatial filter whose filter characteristics are variable according to the position on the pattern image.
  • the spatial filter individually set for each part of the non-turn image is set so as to adapt to the spatial frequency characteristics of each part.
  • the threshold value set individually for each part of the pattern image is also set to adapt to the spatial frequency characteristics of each part.
  • the fixed filter characteristics for each part of the non-turn image Unlike the case where a threshold value is set for each part by applying a spatial filter having a fixed width (for example, a fixed window having a fixed width), the set threshold value suppresses the tendency of the pattern image to vibrate spatially. Becomes easy.
  • Three-dimensional information in this section usually includes information on the three-dimensional position of each of a plurality of pixels constituting the object, but is not limited to this, for example, the color or color of each pixel of the object Information on textures, geometric information defining polygons that at least approximately represent the surface of the object (for example, information on multiple vertices in the polygon and multiple faces connecting the vertices), etc. Is possible.
  • the spatial filter setting step acquires the spatial frequency characteristics for each part based on the image information of each part extracted from the pattern image by a window function, and the acquired spatial frequency
  • Each is acquired separately. Therefore, according to this method, it is easy to accurately obtain the spatial frequency characteristics of each part of the pattern image.
  • the spatial filter includes at least one characteristic of a rectangular window having a variable width and a low-pass filter having a variable cut-off frequency. (1) None 3D information acquisition method described in 1.
  • the pattern light is configured by alternately arranging bright portions and dark portions
  • the pattern image corresponds to the pattern light, and is composed of bright portions and dark portions arranged alternately.
  • the spatial frequency characteristics do not reflect the spatial frequency of each part of the pattern image when the bright part and the dark part are repeated (1), or (4) 3D information acquisition method.
  • (6) In the spatial filter setting step, when the spatial frequency characteristics of each portion of the pattern image indicate that there are a plurality of spatial maximum frequencies, the intensity of the multiple The three-dimensional information acquisition method according to item (5), wherein the spatial filter is set for each of the portions based on at least one of spatial frequencies having a maximum value.
  • the non-turn image has a spatial frequency having a plurality of intensity maximum values
  • a spatial filter is set in consideration of the dominant spatial frequency
  • the local threshold for the pattern image is set. The tendency to be acquired so as to fully adapt to the spatial frequency characteristics of the pattern image increases.
  • the method according to this section when the spatial frequency characteristics of each part of the pattern image indicate that the intensity maximum value is present at a plurality of spatial frequencies, the plurality of intensities are obtained.
  • a spatial filter is set for each portion of the pattern image based on at least one of the spatial frequencies having the maximum value.
  • the spatial filter is a rectangular window having a variable width
  • the spatial filter setting step includes a window width determination step of determining a width of the rectangular window based on the spatial frequency having the maximum intensity among the spatial frequencies having the plurality of intensity maximum values (
  • the spatial filter is a low-pass filter whose cut-off frequency is variable
  • the spatial filter setting step includes a cutoff frequency determining step of determining the cutoff frequency to a spatial frequency lower than the spatial frequency based on the spatial frequency having the maximum intensity among the spatial frequencies having the plurality of intensity maximum values.
  • Including a spatial frequency characteristic calculation step for calculating the spatial frequency characteristic based on the luminance information of a plurality of pixels located in the vicinity of (1) N The 3D information acquisition method described in 1.
  • a plurality of pixels constituting the pattern image are represented by a plurality of discrete pixels that are discrete from each other.
  • the local spatial frequency characteristic is calculated in the same manner as in the method according to the item (10).
  • the local spatial frequency characteristic without using the previously calculated local spatial frequency characteristic is calculated for each of the plurality of pixels constituting the pattern image. It is easy to reduce the calculation load necessary for the calculation.
  • the spatial frequency of each non-selected pixel other than the selected plurality of discrete pixels among the plurality of pixels is further calculated as the plurality of discrete pixels.
  • a spatial frequency characteristic estimation step for estimating a pixel located around each non-selected pixel among the pixels using the spatial frequency characteristic calculated by the spatial frequency characteristic calculation step; Information acquisition method.
  • the spatial frequency characteristics of a plurality of selected discrete pixels By using the spatial frequency characteristics calculated by the calculation process, the spatial frequency characteristics of each non-selected pixel other than the plurality of selected discrete pixels among the plurality of pixels are estimated.
  • the pattern light is configured by alternately arranging bright portions and dark portions
  • the pattern image corresponds to the pattern light, and is composed of bright portions and dark portions arranged alternately.
  • the pattern light includes a plurality of types of pattern light whose spatial frequencies are different from each other when the bright portion and the dark portion are repeated.
  • the pattern image includes a plurality of types of pattern images respectively corresponding to the plurality of types of pattern light
  • the spatial filter is set using a selected pattern image selected as a shift between the plurality of types of pattern images.
  • the three-dimensional information acquisition method according to any one of (1) to (12), wherein the threshold value setting step assigns the threshold value to the plurality of types of pattern images in common.
  • the selected pattern image force S which is a deviation of the pattern images, is also the threshold value. It can be implemented in a manner that is not used for configuration. According to this aspect, it is not necessary to project the non-turn light and image the object only for the purpose of setting the threshold value.
  • the selection pattern image corresponds to (13), wherein among the plurality of types of pattern light, a cycle of repetition of the bright part and the dark part is substantially minimum.
  • the width of the variable window which is an example of the spatial filter, can be small.
  • the variable window is set to have a width that exactly matches an integer multiple of the pattern line interval in the non-turn image.
  • the width of the variable window decreases as the pattern line interval decreases, that is, the above-described circumference. The shorter the period, the smaller.
  • the smaller the width of the variable window the smaller the data amount of the pattern image partially cut out by the variable window. Therefore, according to this method, it is easy to reduce the calculation load for setting the threshold value.
  • the image processing apparatus includes a binarization step of binarizing the pattern image by using the set threshold value, thereby converting the pattern image into a binary image ( 1) N
  • the threshold value setting step includes a threshold image generation step of generating a threshold image by assigning the threshold value to each of a plurality of pixels constituting the pattern image,
  • the binarization step includes a binarized image generation step of generating the binarized image by comparing the generated threshold image and the pattern image with each other with respect to the luminance value for each pixel. Including 3D information acquisition method according to (15).
  • a highly accurate threshold value can be locally determined by employing a variable spatial filter, so that the accuracy of the threshold image is improved, and consequently, the accuracy of the binarized image is also improved.
  • a spatial code image calculating step of calculating a spatial code image based on the binary image and according to a predetermined spatial code rule according to the binary code image rule Including 3D information acquisition method according to (15) or (16).
  • a three-dimensional position calculation step of calculating a three-dimensional position corresponding to each of a plurality of pixels constituting the object as the three-dimensional information. Including the three-dimensional information acquisition method described in (17).
  • the program according to this section can be interpreted to include not only a combination of instructions executed by a computer to fulfill its function, but also files and data processed in accordance with each instruction. .
  • this program is intended to achieve its intended purpose by being executed by a computer alone or by being executed by a computer together with other programs. It can be. In the latter case, the prod- ucts in this section may be data based.
  • This recording medium can adopt various formats, for example, a magnetic recording medium such as a flexible disk, an optical recording medium such as a CD and a CD-ROM, a magneto-optical recording medium such as an MO, RO
  • Any unremovable storage such as M can be adopted.
  • a three-dimensional information acquisition device that acquires three-dimensional information of the object based on a pattern image acquired by imaging the object on which pattern light is projected, the pattern image
  • a spatial filter setting unit for setting a spatial filter corresponding to each part based on a spatial frequency characteristic in each part, for each part;
  • a threshold value setting unit that sets a threshold value applied to each part in order to obtain the three-dimensional information.
  • FIG. 1 is an external perspective view showing an image input / output device 1 suitable for carrying out a three-dimensional information acquisition method according to an embodiment of the present invention.
  • FIG. 2 is a plan view showing the internal configuration of the imaging head 2 in FIG.
  • FIG. 3 is an enlarged plan view showing the projection unit 13 in FIG. 2, an enlarged front view showing the light source lens 18 in FIG. 2, and an enlarged front view showing the projection LCD 19 and CCD 22 in FIG. FIG.
  • FIG. 4 is a side view for explaining the arrangement of the plurality of LEDs 17 in FIG. 3, a graph showing the illuminance distribution individually realized by one LED 17, and the plurality of LEDs 17 It is a graph which shows a front view and the synthetic
  • FIG. 5 is a block diagram conceptually showing the electrical configuration of the image input / output device 1 shown in FIG. 1.
  • FIG. 6 is a flowchart conceptually showing a main process executed in the camera control program in FIG.
  • FIG. 7 is a flowchart conceptually showing a digital camera process executed in S605 in FIG.
  • FIG. 8 is a flowchart conceptually showing webcam processing executed in S607 in FIG.
  • FIG. 9 is a flowchart conceptually showing the projection processing executed in S806 in FIG.
  • FIG. 10 is a flowchart conceptually showing the stereoscopic image processing executed in S609 in FIG.
  • FIG. 11 is a plan view and a side view for explaining the principle of the spatial coding method employed in the stereoscopic image processing of FIG. 10, and a plan view showing two sets of mask patterns.
  • FIG. 12 is a flowchart conceptually showing the three-dimensional shape detection processing executed in S1006 in FIG. 10 as a three-dimensional shape detection processing routine, and S1210 in the three-dimensional shape detection processing routine as an imaging processing subroutine.
  • Conceptual representation It is a flowchart and a flowchart conceptually representing S1220 in the 3D shape detection processing routine as a 3D measurement processing subroutine.
  • FIG. 13 is a flowchart conceptually showing a code image generation program 36d executed in S1222 in FIG.
  • FIG. 14 is a front view showing an example of a representative pattern image used in S101 in FIG.
  • FIG. 15 is a graph for explaining how the luminance value spatially changes in the column direction of the pattern line in the representative pattern image shown in FIG.
  • FIG. 16 is a plan view for explaining the relationship between the part A and the fixed window in FIG. 14, and a plan view for explaining the relationship between the part B and the fixed window in FIG.
  • FIG. 17 is a graph for explaining how a threshold value obtained by using a fixed window for the portion A in FIG. 14 spatially changes in the column direction of the pattern line.
  • FIG. 18 is a graph for explaining how a threshold value obtained by using a fixed window for part B in FIG. 14 spatially changes in the column direction of the pattern line.
  • FIG. 19 shows the variable window VW set locally for the representative pattern image in FIG. 14 in order to set the threshold TH for binarization processing locally.
  • FIG. 20 is a front view for explaining a fixed window set for the representative pattern image in order to acquire a pattern line period in the representative pattern image shown in FIG.
  • FIG. 21 is a graph showing an example of frequency characteristics of luminance values acquired for the representative pattern image shown in FIG. 14 by using the fixed window in FIG.
  • FIG. 22 shows coordinate transformation performed between the two-dimensional CCD coordinate system and the three-dimensional real space coordinate system by executing S1225 in FIG. 12, and the two-dimensional LCD coordinate system and the three-dimensional real It is the side view and top view for demonstrating coordinate transformation between the spatial coordinate systems.
  • FIG. 1 shows an external perspective view of an image input / output device 1 suitable for carrying out a three-dimensional information acquisition method according to an embodiment of the present invention.
  • the image input / output device 1 projects image light representing an image (also referred to as “image signal light”) onto a projection surface (for example, a plane, a screen, a desk surface, etc.) (normal projection) and a stripe pattern. Projection of light onto a subject (projection for obtaining three-dimensional information), imaging of the subject, and processing for obtaining three-dimensional information (including three-dimensional position information) of the subject by a computer based on the imaging result; It is designed to do. Therefore, the image input / output device 1 is configured to include a projection unit 13, an imaging unit 14, and a processing unit 15, as shown in FIG.
  • the image input / output device 1 operates according to the mode selected by the user from among a plurality of types of modes. These modes are a digital camera mode in which the image input / output device 1 functions as a digital camera, a webcam mode in which the image input / output device 1 functions as a web camera, and a stereoscopic image mode for acquiring a stereoscopic image by detecting the three-dimensional shape of the subject. And a flattened image mode for acquiring a flattened image obtained by flattening a stereoscopic image of a subject such as a curved manuscript.
  • modes are a digital camera mode in which the image input / output device 1 functions as a digital camera, a webcam mode in which the image input / output device 1 functions as a web camera, and a stereoscopic image mode for acquiring a stereoscopic image by detecting the three-dimensional shape of the subject.
  • a flattened image mode for acquiring a flattened image obtained by flattening a stere
  • FIG. 1 shows that the image input / output device 1 detects a three-dimensional shape of a document P as a subject, particularly in a stereoscopic image mode and a planar image mode. Is shown in a state in which the pattern light in the form of alternating stripes is projected onto the original P from the projection unit 13.
  • the image input / output device 1 includes an imaging head 2 having a substantially box shape, a knitted arm member 3 connected to the imaging head 2 at one end, and an arm thereof.
  • the base 4 is connected to the other end of the member 3 and is formed so as to form a substantially L shape in plan view.
  • the arm member 3 and the base 4 cooperate with each other to function as a stand for holding the imaging head 2 in a cantilever manner.
  • the imaging head 2 is configured such that the projection unit 13 and the imaging unit 14 are accommodated in a case.
  • the imaging head 2 includes a lens barrel 5, a viewfinder 6, and a frame. Each of which is partially exposed in front of the imaging head 2.
  • the imaging head 2 further includes an imaging optical system 21 that is a part of the imaging unit 14 in a posture in which a part of the lens is exposed in front of the imaging head 2.
  • the imaging optical system 21 receives image light representing the subject at the exposed portion thereof.
  • the lens barrel 5 protrudes from the frontal force of the imaging head 2 as shown in FIG. 1, and inside thereof, as shown in FIG. 2, a projection optical system 20 that is a part of the projection unit 13. Is housed.
  • the lens barrel 5 holds the projection optical system 20 in a state where it can be moved as a whole for focus adjustment. Further, the lens barrel 5 protects the projection optical system 20 from damage.
  • a part of the lens of the projection optical system 20 that is a part of the projection unit 13 is exposed from the exposed end surface of the lens barrel 5.
  • the projection optical system 20 projects image light or pattern light toward the projection surface or the subject at the exposed portion thereof.
  • the viewfinder 6 is composed of an optical lens arranged to guide light incident from the front of the imaging head 2 to the back thereof.
  • the user looks into the viewfinder 6 from the back of the image input / output device 1, the user substantially matches the region where the image is formed on the CCD 22 (imaging plane) which is an example of the image sensor in the imaging optical system 21. You will be able to see the image in the area!
  • the flash 7 is, for example, a light source that emits light to replenish the insufficient light amount in the digital camera mode, and is configured using a discharge tube filled with xenon gas. Therefore, the flash 7 can be used repeatedly by discharging a capacitor (not shown) built in the imaging head 2.
  • the imaging head 2 further includes a release button 8, a mode switching switch 9, and a monitor LCD 10 on the upper surface thereof.
  • the release button 8 is operated by the user to operate the image input / output device 1.
  • the release button 8 is a two-stage push button switch that can issue different commands depending on whether the user's operating state (pressed state) is “half-pressed” or “full-pressed”. It is configured.
  • the operation state of the release button 8 is monitored by the processing unit 15. If the processing unit 15 detects a “half-pressed state”, the well-known autofocus (AF) and autoexposure (AF) functions are activated, and the focus, iris and shirt tapi functions are activated. The mode is adjusted automatically. On the other hand, if the processing unit 15 detects the “fully pressed state”, imaging or the like is performed.
  • the mode switching switch 9 selects the operation mode of the image input / output device 1 from a plurality of modes including the above-mentioned digital camera mode, webcam mode, stereoscopic image mode, planarized image mode, and off mode. It is operated by the user to set as a deviation.
  • the operation state of the mode switching switch 9 is monitored by the processing unit 15. When the operation state of the mode switching switch 9 is detected by the processing unit 15, processing in the mode corresponding to the detected operation state is performed. This is performed for the image input / output device 1.
  • the monitor LCD 10 is configured by using a liquid crystal display, receives an image signal from the processing unit 15, and displays an image to the user.
  • the monitor LCD 10 displays, for example, a captured image in the digital camera mode and the webcam mode, a 3D shape detection result image in the stereoscopic image mode, a planarized image in the planarized image mode, and the like.
  • the imaging head 2 further includes an antenna 11 as an RF (wireless) interface, and a connecting member 12 that connects the imaging head 2 and the arm member 3 together.
  • RU radio access unit
  • the antenna 11 is connected to the RF driver 24 as shown in FIG.
  • the antenna 11 wirelessly transmits captured image data acquired in the digital camera mode, stereoscopic image data acquired in the stereoscopic image mode, and the like to an external interface (not shown) via the RF driver 24.
  • the connecting member 12 connects the imaging head 2 and the one end of the arm member 3 to each other by a screw mechanism in a detachable manner and a relative attachment angle being adjustable.
  • the connecting member 12 is formed, for example, as a ring having an internal thread formed on the inner peripheral surface, and is held on one side surface of the imaging head 2 so as to be rotatable and non-detachable.
  • a male screw is formed at one end of the arm member 3.
  • the imaging head 2 and the arm member 3 are detachably connected to each other. Therefore, if the imaging head 2 is detached from the arm member 3, it can be used as a normal digital camera.
  • these female screw and male screw are screwed together. As a result, the imaging head 2 can be fixed to one end of the arm member 3 at an arbitrary angle.
  • the arm member 3 is configured by a material or a mechanism that can be bent into an arbitrary shape and that does not recover unless an external force is applied. As a result, the arm member 3 can hold the imaging head 2 attached thereto so that the position and orientation of the imaging head 2 can be arbitrarily adjusted.
  • the arm member 3 is constituted by, for example, a bellows-like pipe that can be bent into an arbitrary shape.
  • the base 4 is connected to the other end of the arm member 3 as described above.
  • the base 4 is mounted on a mounting table such as a desk and supports the imaging head 2 and the arm member 3. Since the base 4 is formed to have a substantially L shape in plan view, the imaging head 2 and the arm member 3 can be supported with a high degree of stability relative to the weight. Further, since the arm member 3 and the base 4 are detachably connected to each other, for example, by separating the arm member 3 and the base 4 from each other prior to transport and storage, the arm member 3 and the base 4 are separated. Therefore, it is possible to arbitrarily change the form of the space occupied by and so on, and thus it is possible to easily improve the transportability and reduce the storage space.
  • FIG. 2 conceptually shows the internal configuration of the imaging head 2.
  • the imaging head 2 mainly includes the projection unit 13, the imaging unit 14, and the processing unit 15.
  • the projection unit 13 is a unit for projecting arbitrary image light (projection image) or pattern light onto the projection surface or the subject. As shown in FIG. 2, the projection unit 13 includes a substrate 16, a plurality of LEDs 17 (hereinafter referred to as “LED array 17A”), a light source lens 18, a projection LCD 19, and projection optics. System 20 is provided in series along the projection direction. Details of the projection unit 13 will be described later with reference to FIG.
  • the imaging unit 14 is a unit for imaging the document P as a subject. As shown in FIG. 2, the imaging unit 14 includes an imaging optical system 21 and a CCD 22 in series along the incident direction of image light.
  • the imaging optical system 21 is configured using a plurality of lenses as shown in FIG. This imaging optical system 21 forms an image of light from the outside on the CCD 22 by automatically adjusting the focal length and the aperture using a well-known autofocus function.
  • a CCD (Charge Coupled Device) 22 is configured by arranging photoelectric conversion elements such as photodiode elements in a matrix. The CCD 22 generates a signal corresponding to the color and intensity of light of an image formed on the surface of the CCD 22 via the imaging optical system 21 for each pixel. The generated signal is converted into digital data and output to the processing unit 15.
  • the processing unit 15 is electrically connected to the flash 7, the release button 8, and the mode switching switch 9, respectively.
  • the processing unit 15 is electrically connected to the motor LCD 10 via the monitor LCD driver 23, the antenna 11 via the RF dryer 24, and the battery 26 via the power interface 25. Connected!
  • the processing unit 15 is further electrically connected to the external memory 27 and the cache memory 28, respectively.
  • the processing unit 15 is further electrically connected to the LED array 17A via the light source driver 29, to the projection LCD 19 via the projection LCD driver 30, and to the CCD 22 via the CCD interface 31. ing. These flashes 7 and the like are controlled by the processing unit 15.
  • the external memory 27 is a detachable flash ROM that can store captured images and 3D information captured in the digital camera mode, the webcam mode, and the stereoscopic image mode.
  • an SD card, a compact flash (registered trademark) card, or the like can be used.
  • the cache memory 28 is a storage device that can read and write data at high speed.
  • the cache memory 28 is used, for example, to transfer a captured image captured in the digital camera mode to the cache memory 28 at a high speed, to perform image processing in the processing unit 15 and to store the force in the external memory 27 as well. Is done.
  • SDRAM, DDRRAM or the like can be used for configuring the cache memory 28 for example.
  • Power supply interface 25, light source driver 29, projection LCD driver 30 and CCD interface 31 are each composed of various integrated circuits (ICs) that control notch 26, LED array 17A, projection LCD 19 and CCD 22. Has been.
  • FIG. Fig. 3 (a) is an enlarged view of the projection unit 13
  • Fig. 3 (b) is a front view of the light source lens 18
  • Fig. 3 (c) is the projection LCD1. 6 is a front view for explaining the positional relationship between 9 and CCD 22.
  • the projection unit 13 uses the substrate 16, the LED array 17A, the light source lens 18, the projection LCD 19, and the projection optical system 20 to transmit pattern light. It is provided in series along the projection direction.
  • the substrate 16 is, for example, a substrate in which an insulating synthetic resin is applied to an aluminum substrate and a pattern is formed by electroless plating, or a substrate having a single layer or a multilayer structure having a glass epoxy base as a core. Can be made using.
  • the LED array 17A is a light source that emits radial light toward the projection LCD 19.
  • a plurality of LEDs (light emitting diodes) 17 are bonded on a substrate 16 via a silver paste in a staggered arrangement as shown in FIG. 3 (b).
  • the substrate 16 and the plurality of LEDs 17 are electrically connected via bonding wires. The effect of arranging a plurality of LEDs 17 in a staggered manner will be described in detail later with reference to FIG.
  • the LED 17 has an extremely low heat ray generation rate as compared with a halogen lamp or the like, and therefore, a synthetic resin lens can be used for the light source lens 18 and the projection optical system 20. Therefore, the light source lens 18 and the projection optical system 20 can be configured at low cost and light weight compared to the case where a glass lens is employed.
  • each LED 17 constituting the LED array 17A emits light of the same color, and specifically, four elements of Al, In, Ga, and P are used as materials. It is configured to emit amber color. Therefore, it is not necessary to consider the correction of chromatic aberration, which is a problem that must be considered when emitting multiple colors of light. There is no need to use an achromatic lens in the projection optical system 20 to correct chromatic aberration. As a result, the degree of freedom in designing the projection optical system 20 can be improved.
  • an image input / output device 1 since an amber LED of a four-element material having an electro-optic conversion efficiency of about 80 [lumenZW], which is higher than other emission colors, is employed, an image input / output device 1 It is possible to easily achieve higher brightness, power saving and longer life.
  • the LED array 17A is composed of 59 LEDs 17, and each LED 17 is driven at 50 [mW] (20 [mA], 2.5 [V]), Eventually, the entire 59 LEDs 17 are driven with a power consumption of approximately 3 [W].
  • the brightness force as the light flux value when the light emitted from each LED 17 passes through the light source lens 18 and the projection LCD 19 and is emitted from the projection optical system 20 Even in cases, it is set to about 25 ANSI lumens.
  • the stereoscopic image mode is selected. In this case, even if pattern light is projected onto the subject in order to detect the three-dimensional shape of the subject, the subject is not dazzled. Therefore, according to the present embodiment, when the subject is a person or an animal, it is easy to detect the three-dimensional shape of the subject without closing the eyes.
  • the light source lens 18 is a lens that collects the light emitted radially from the LED array 17A, and the material thereof is an optical resin typified by acrylic.
  • the light source lens 18 includes a plurality of convex lens portions 18a, a base portion 18b that supports the lens portions 18a, and an epoxy sealing material 18c. And a plurality of positioning pins 18d.
  • each lens portion 18a protrudes from the base portion 18b toward the projection LCD 19 at a position facing each LED 17 of the LED array 17A in the base portion 18b.
  • the epoxy sealing material 18c is filled in the recess 18e in which the LED array 17A is to be hermetically accommodated in the base portion 18b, and thereby the LED array 17A is sealed in the recess 18e.
  • the epoxy sealing material 18c has a function of sealing the LED array 17A, and further has a function of bonding the substrate 16 and the light source lens 18 to each other. As shown in FIG.
  • a plurality of positioning pins 18d are provided on the light source lens 18 and the light source lens 18 force on the substrate 16 in order to relatively position the light source lens 18 and the substrate 16. It protrudes toward you. As shown in FIG. 3 (b), some of the plurality of positioning pins 18d are inserted into the long holes 16a drilled in the substrate 16, while the rest are drilled in the substrate 16. The light source lens 18 is inserted into the round hole 16b, and the light source lens 18 is fixed to the substrate 16 in a regular position.
  • the light source lens 18, the LED array 17A, and the substrate 16 are spatially packed in the force projection direction and stacked on each other.
  • the compactness and space saving are easy.
  • an incidental function of holding the light source lens 18 is also achieved. Therefore, according to the present embodiment, the addition of components that exclusively hold the light source lens 18 can be omitted, and as a result, the number of components of the image input / output device 1 can be easily reduced.
  • each lens portion 18a is arranged to face each LED 17 of the LED array 17A in a one-to-one relationship. Therefore, the radial light emitted from each LED 17 is efficiently collected by each lens unit 18 facing each LED 17, and is projected as highly directional radiation light as shown in FIG. Is irradiated.
  • the directivity is improved in this way because if the light enters the projection LCD 19 substantially perpendicularly, the transmission unevenness in the surface of the projection LCD 19 is suppressed and the image quality can be improved. is there.
  • the projection optical system 20 is a plurality of lenses for projecting light that has passed through the projection LCD 19 onto the projection surface or subject. These lenses are constituted by a telecentric lens having a combination of a glass lens and a synthetic resin lens. Telecentric means a configuration in which the principal ray passing through the projection optical system 20 is parallel to the optical axis in the incident side space, and the position of the exit pupil is infinite.
  • the projection optical system 20 Since the projection optical system 20 has telecentric characteristics as described above and its incident NA is about 0.1, only light within ⁇ 5 ° vertical passes through the aperture inside the projection optical system 20. it can As described above, the optical path of the projection optical system 20 is regulated.
  • the image quality can be improved in comparison with the configuration in which only light that passes through the projection LCD 19 at a vertical angle of ⁇ 5 ° can be projected onto the projection optical system 20. Improvement can be easily achieved.
  • the light emission angles from the respective LEDs 17 are aligned so that the light emitted from the respective LEDs 17 is incident on the projection LCD 19 substantially vertically, and the respective LED 17 It is important that most of the light emitted from the light enters the projection optical system 20 within an incident angle range of vertical ⁇ 5 °.
  • the projection LCD 19 spatially modulates the light collected through the light source lens 18 and outputs the pattern light toward the projection optical system 20. Modulation element.
  • the projection LCD 19 is configured by a plate-like liquid crystal display having an aspect ratio that is not 1: 1.
  • a plurality of pixels constituting the projection LCD 19 are arranged in a staggered pattern on one plane.
  • a plurality of pixel rows in which a plurality of pixels are arranged at equal intervals at a predetermined pixel pitch in the longitudinal direction (lateral direction) of the liquid crystal display are arranged in parallel.
  • the column force of two adjacent pixels is shifted in the longitudinal direction of the liquid crystal display with a length shorter than the pixel pitch.
  • the plurality of pixels constituting the projection LCD 19 are arranged in a staggered manner, the light subjected to spatial modulation by the projection LCD 19 is transmitted in the longitudinal direction of the projection LCD 19.
  • the pixel pitch can be controlled at a pitch of 1Z2. Therefore, according to the present embodiment, it is possible to control the projection pattern light with a fine pitch, and thus it is possible to detect the three-dimensional shape of the subject with high resolution and high accuracy.
  • Pattern light is projected toward the subject.
  • the pattern light is defined in advance so that the direction in which the plurality of stripes (bright portions or dark portions) are aligned in the pattern light (the width direction of each stripe) coincides with the longitudinal direction of the projection LCD 19. ! . Therefore, the boundary between the bright part and the dark part in the pattern light can be controlled with a 1Z2 pitch, and thus a three-dimensional shape can be detected with high accuracy as well.
  • the projection LCD 19 and the CCD 22 are shown side by side.
  • the projection LCD 19 and the CCD 22 have the front of the imaging head 2 on the front side of the paper, and the back of the paper. Light is incident on the projection LCD 19 from the side, and the manual side force is also placed in a state where the light is incident on the CCD 22 and an object image is formed on the CCD 22.
  • the projection LCD 19 and the CCD 22 are arranged in the layout shown in Fig. 3 (c) inside the imaging head 2. Specifically, the projection LCD 19 and the CCD 22 are arranged so that the wide surface of the projection LCD 19 and the wide surface of the CCD 22 face substantially the same direction. Therefore, according to the present embodiment, the projection LCD 19 forms the three-dimensional shape of the object by imaging the reflected light from the subject onto which the pattern light is projected on the CCD 22 in the image input / output device 1. For detection, a straight line connecting the center of the projection LCD 19 and the center of the CCD 22 can be used as one of the three sides of interest when performing triangulation.
  • the CCD 22 is disposed on the side of the projection LCD 19 that is positioned in the longitudinal direction (the side that is positioned in the direction in which the pixel column extends). Therefore, in particular, when detecting the 3D shape of the subject using the principle of triangulation in the stereoscopic image mode and the planarized image mode, the tilt between the CCD 22 and the subject can be controlled at a 1Z2 pitch. Therefore, the 3D shape of the subject can be detected with high accuracy.
  • the projection LCD 19 employs a staggered arrangement as the pixel arrangement, the pattern light in which a plurality of stripes are arranged at intervals equal to the intervals at which the pixels are arranged in the pixel column, that is, It becomes possible to form another pattern light having a narrower interval between stripes than a narrowest interval between stripes among a plurality of types of standard pattern light formed without using a staggered arrangement. Therefore, according to the present embodiment, when there are n types of standard pattern lights, it is possible to handle (n + 1) -bit spatial codes. The accuracy of detecting the 3D shape of the subject is improved.
  • FIG. 4A is a side view showing the three-dimensional shape of the light emitted from the light source lens 18.
  • FIG. 4 (b) is a graph showing the illuminance distribution of light incident on the incident surface 19 a of the projection LCD 19 from one LED 17.
  • FIG. 4 (c) is a front view showing the arrangement of the LED array 17A partially enlarged.
  • FIG. 4 (d) is a graph showing the combined illuminance distribution of a plurality of lights incident on the incident surface 19a of the projection LCD 19 from the plurality of LEDs 17.
  • the light output from the light source lens 18 has a half-value spread half-angle ⁇ of approximately 5 ° as light having an illuminance distribution as shown in Fig. 4 (b).
  • the light source lens 18 is designed to reach the incident surface 19a of the projection LCD 19.
  • the plurality of LEDs 17 are arranged on the substrate 16 in a zigzag manner in accordance with the zigzag arrangement of pixels in the projection LCD 19. Specifically, a plurality of LED rows each having a plurality of LEDs 17 arranged in series in the horizontal direction at a pitch d are arranged in parallel in the vertical direction at a pitch equal to 3Z2 times the pitch d. Further, two LED columns adjacent to each other in the vertical direction are shifted from each other in the horizontal direction with a length equal to the pitch d.
  • the arrangement of the LEDs 17 is a triangular lattice arrangement
  • the misaligned LED 17 is also equal to the pitch d from another neighboring misaligned LED 17! /! Distance away.
  • the length force of pitch d is less than the full width at half maximum (FWHM (Full Width Half Maximun)) of the illuminance distribution given to the projection LCD 19 by the light emitted from one LED 17 Is set in advance.
  • FWHM Full Width Half Maximun
  • the incident surface 1 of the projection LCD 19 passes through the light source lens 18.
  • the combined illuminance distribution of the light reaching 9a is represented by a substantially straight line graph with small ripples, and as a result, light is evenly distributed over the entire incident surface 19a of the projection LCD 19. Is irradiated. Therefore, according to the present embodiment, uneven illuminance on the projection LCD 19 is suppressed. As a result, the image light is projected onto the projection surface with high quality, and the pattern light is projected onto the subject with high quality.
  • FIG. 5 is a block diagram showing the electrical configuration of the image input / output device 1. Processing part
  • the CPU 35 executes the program stored in the ROM 36 while using the RAM 37, thereby detecting the operation state of the release button 8, capturing the image data from the CCD 22, transferring the captured image data, and Various processes such as storage and detection of the operating state of the mode switch 9 are performed.
  • the ROM 36 includes a camera control program 36a, a pattern light imaging program 36b, a luminance image generation program 36c, a code image generation program 36d, a code boundary extraction program 36e, a lens aberration correction program 36f, and a triangle.
  • the survey calculation program 36g, the document orientation calculation program 36h, and the plane conversion program 36i are stored.
  • the camera control program 36a is executed to execute control of the entire image input / output device 1, and the control includes main processing conceptually shown in the flowchart of FIG.
  • the non-turn light imaging program 36b captures the subject on which the pattern light is projected in order to detect the three-dimensional shape of the document P, acquires a pattern light existence image, and further projects the pattern light. Executed to capture an image of a subject and obtain a pattern light no image
  • the luminance image generation program 36c takes the difference between the pattern light present image and the pattern light no image acquired for the same subject by the execution of the pattern light photographing program 36b, and represents the subject on which the pattern light is projected. It is executed to generate a luminance image.
  • a plurality of types of pattern light are sequentially projected onto the same subject in time series, and the subject is imaged each time each pattern light is projected.
  • the difference between each of the plurality of patterned light images thus imaged and the non-patterned light image is taken, and as a result, the same number of luminance images as the types of non-turned light are generated.
  • the code image generation program 36d assigns a spatial code to each pixel from the binarized image generated by the threshold processing for each of the plurality of luminance images generated by the execution of the luminance image generation program 36c. It is executed to generate a coded image.
  • the object having a projection with the smallest interval between the no-turn lines among a plurality of types of pattern light is projected.
  • An interval between pattern lines in the luminance image is acquired as a period, and a distribution in the entire luminance image of the period is acquired as a periodic distribution.
  • a variable window whose size changes according to the acquired periodic distribution is set locally in the luminance image for each pattern light, thereby using the variable window.
  • the threshold value is calculated and set locally for the entire luminance image by the filtering process.
  • a binary image is generated for each pattern light from the relationship between the threshold image representing the threshold distribution set in this way and the luminance image for each pattern light.
  • the code boundary extraction program 36e uses the code image generated by the execution of the code image generation program 36d and the luminance image generated by the execution of the luminance image generation program 36c. This is executed to obtain subpixel accuracy.
  • the lens aberration correction program 36f is executed to correct the aberration of the imaging optical system 20 with respect to the code boundary coordinates obtained with the subpixel accuracy by the execution of the code boundary extraction program 36e.
  • the triangulation calculation program 36g is executed to calculate the three-dimensional coordinates of the real space related to the boundary coordinates from the boundary coordinates of the code subjected to the convergence correction by the execution of the lens aberration correction program 36f. .
  • the document orientation calculation program 36h is executed to estimate and determine the three-dimensional shape of the document P from the three-dimensional coordinates calculated by the execution of the triangulation calculation program 36g.
  • the plane conversion program 36i generates a flattened image based on the three-dimensional shape of the document P calculated by the execution of the document orientation calculation program 36h. To be executed.
  • the pattern light existence image storage unit 37a, the pattern light no image storage unit 37b, the luminance image storage unit 37c, the code image storage unit 37d, and the code boundary coordinates are stored.
  • the periodic distribution storage unit 37p, the threshold image storage unit 37q, and the binarized image storage unit 37r are allocated as storage areas, respectively.
  • the non-turn light present image storage unit 37a stores pattern light present image data representing the pattern light present image captured by the execution of the pattern light photographing program 36b.
  • the pattern light no-image storage unit 37b stores pattern light no-image data representing the pattern light no-image captured by the execution of the pattern light photographing program 36b.
  • the luminance image storage unit 37c stores data representing the luminance image generated by the execution of the luminance image generation program 36c.
  • the code image storage unit 37d stores data representing a code image generated by executing the code image generation program 36d.
  • the code boundary coordinate storage unit 37e stores data representing the boundary coordinates of each code extracted with subpixel accuracy by the execution of the code boundary extraction program 36e.
  • the aberration correction coordinate storage unit 37g stores data representing the boundary coordinates of the code subjected to the aberration correction by the execution of the lens aberration correction program 36f.
  • the three-dimensional shape coordinate storage unit 37h stores data representing the three-dimensional coordinates in the real space calculated by executing the triangulation calculation program 36g.
  • the document orientation calculation result storage unit 37i stores parameters related to the three-dimensional shape of the document P calculated by the execution of the document orientation calculation program 36h.
  • the plane conversion result storage unit 37j stores data representing the plane conversion result acquired by executing the plane conversion program 36i.
  • the projection image storage unit 37k stores the projection image that the projection unit 13 projects onto the subject, that is, information related to the pattern light.
  • the working area 371 stores data temporarily used by the CPU 35 for its operation.
  • the periodic distribution storage unit 37p, the threshold image storage unit 37q, and the binary image storage unit 37r are data representing the periodic distribution, the threshold image, and the binarized image obtained by executing the code image generation program 36d. Is stored respectively.
  • the camera control program 36a will be described with reference to FIG.
  • the main processing described above is executed.
  • step S601 (hereinafter simply referred to as “S601”; the same applies to other steps), the power source including the battery 26 is turned on.
  • step S602 the processing unit 15, peripheral interfaces, etc. are initialized.
  • step S603 a key scan is performed to determine the operation state of the mode switching switch 9, and then in S604, it is determined whether or not the digital camera mode has been selected by the operation of the mode switching switch 9. The This time, if it is assumed that the digital camera mode is selected, the determination is Yes, and the digital camera processing described later is executed in S605.
  • the stereoscopic image mode is operated by operating the mode switching switch 9. It is determined whether or not the selected force has been selected. In this case, if it is assumed that the stereoscopic image mode is selected, the determination is yes, and the following stereoscopic image processing is executed in S609.
  • FIG. 7 conceptually shows a flowchart of S605 in FIG. 6 as a digital camera processing routine.
  • the imaging unit 14 A digital camera process for acquiring the processed image is executed.
  • a high resolution setting signal is transmitted to the CCD 22. Thereby, a high quality captured image can be provided to the user.
  • the finder image that is, the same image as the image in the range visible through the finder 6 is displayed on the monitor LCD 10. Therefore, the user can confirm the captured image (imaging range) before actual imaging by looking at the image displayed on the monitor LCD 10 without looking into the finder 6.
  • S703a the operation state of the release button 8 is scanned.
  • S703b it is determined based on the scan result whether the release button 8 is in a half-pressed state. If it is in the half-pressed state, the determination is yes, and the autofocus (AF) and autoexposure (AE) functions are activated in S703c, thereby adjusting the focus, iris, and shutter speed.
  • S703b it is determined whether or not the release button 8 is shifted to the half-pressed state. If not, the determination in S703b is No and the process returns to S703a.
  • the determination in S703e is Yes, and it is determined in S704 whether or not the flash mode is selected. If the flash mode is selected, the determination is yes, and if the flash mode is not selected in S705, the determination is No in S704, and S705 force S is skipped.
  • the subject is then imaged in S706.
  • the captured image obtained by capturing the subject is transferred from the CCD 22 to the cache memory 28 and stored therein.
  • the captured image stored in the cache memory 28 is displayed on the monitor LCD 10.
  • the captured image is stored in the cache memory 2 Therefore, the captured image can be displayed on the monitor LCD 10 at a higher speed than when it is transferred to the main memory.
  • the captured image is stored in the external memory 27.
  • the judgment power SNo becomes 710, and this digital camera processing is completed.
  • FIG. 8 conceptually shows a flowchart of S607 in FIG. 6 as a webcam processing routine.
  • a webcam processing routine for transmitting captured images (including still images and moving images) taken by the imaging unit 14 to an external network is executed.
  • captured images including still images and moving images
  • an external network for example, the Internet
  • the judgment power SNo becomes 809, and this webcam processing is completed.
  • FIG. 9 conceptually shows a flowchart of S807 in FIG. 8 as a projection routine.
  • a projection process for projecting the image stored in the projection image storage unit 37k from the projection unit 13 onto the projection plane is executed.
  • S901 it is determined whether or not the image is stored in the projection image storage unit 37k. If it is not stored, the determination is no, and the current projection process is immediately terminated. On the other hand, if it is stored, the determination is yes, and the image stored in the projection image storage unit 37k is transferred to the projection LCD driver 30 in S902. Subsequently, in S903, an image signal corresponding to the stored image is sent from the projection LCD driver 30 to the projection LCD 19, whereby an image is displayed on the projection LCD 19.
  • the light emitted from the LED array 17A reaches the projection LCD 19 via the light source lens 18.
  • the projection LCD 19 spatial modulation according to the image signal transmitted from the projection LCD driver 30 is performed, and as a result, incident light on the projection LCD 19 is converted into image signal light and output.
  • the image signal light output from the projection LCD 19 is projected as a projection image on the projection surface via the projection optical system 20.
  • S609 in FIG. 6 is schematically represented as a stereoscopic image processing routine in a flowchart.
  • this stereoscopic image processing routine the stereoscopic image processing for detecting the three-dimensional shape of the subject and acquiring, displaying, and projecting the three-dimensional shape detection result image as the stereoscopic image is executed.
  • a finder image is displayed on the monitor LCD 10.
  • the operation state of the release button 8 is scanned.
  • the determination of S1003e becomes Yes, and it is determined in S1003f whether or not the flash mode is selected. If the flash mode is selected, the determination is yes, and in S1003g, the force that causes flash 7 to emit light. If the flash mode is not selected, the determination force SNo is S1003f, and S1003g force S is skipped. In any case, the subject is then imaged in S1003h.
  • the 3D shape detection result by the 3D shape detection processing is stored in the external memory 27. Subsequently, in S1008, the 3D shape detection result is monitored as a 3D computer graphic image. Displayed on LCD10.
  • the three-dimensional shape detection result means a set of vertex coordinates obtained as a result of converting a plurality of spatial code boundary images detected in a spatial code image described later into three-dimensional coordinates.
  • S 1011 it is determined whether or not there is no change in the operation state of the mode switching switch 9. If there is no change, the determination is yes and the process returns to S1002, but if there is a change, the determination power SNo of S1011 is obtained, and the current stereoscopic image processing ends.
  • the three-dimensional shape of the subject is detected using the spatial code method.
  • the spatial coding method will be described with reference to FIG. Figure 11 (a) shows a real space with the 3D coordinate system XYZ as seen in the Y coordinate axis direction, a view as seen in the X coordinate axis direction, and three types of squares using pure binary codes. A, B and C patterns are shown.
  • Fig. 11 (b) shows three types of masks A, B, and C using gray codes and a plurality of spatial codes.
  • the spatial encoding method is an observation image that is an image of a subject to be observed, and a projection light source (for example, a projector) that projects light (diffuse light) onto the subject.
  • a projection light source for example, a projector
  • This is a type of technique that detects the three-dimensional shape of a subject by applying the principle of triangulation between an object and an observer (eg, a camera) that observes the subject.
  • the projection light source L PROJECTOR
  • the observation device O CAMERA
  • the observation space is further divided into a plurality of elongated! / ⁇ -shaped areas and coded! /, In order to specify an arbitrary position on the surface of the subject.
  • Pattern light can be switched by preparing the same number of masks as the number of non-turned light and mechanically exchanging the masks, or using a material with electro-optic effect to form a striped light shirter array. It is possible to implement as an electronic method that electronically controls the light transmittance of each stripe in the optical shirter row. However, in the present embodiment, the latter electronic method is adopted, and specifically, a plurality of types of mask patterns are reproduced or displayed in time series by the projection LCD 19.
  • a mask is installed interchangeably between the projection light source L and the subject (a quadrangular prism and a cylinder).
  • the projection light source L a quadrangular prism and a cylinder.
  • three types of masks A, B, and C having different patterns are prepared, so that three types of pattern light are projected onto the object in time series.
  • each of the eight fan-shaped areas is coded as either the bright area "1" or the dark area "0". Is done.
  • a code consisting of 3 bits is assigned to each fan-shaped area. These 3 bits are the highest corresponding to the first mask A.
  • a code corresponding to the direction ⁇ from the projection light source L is assigned to each fan-shaped region.
  • the horizontal position (address) of each bit plane image is measured by the observer O Corresponds to direction ⁇ from. If the memory contents of the three bit planes corresponding to the three masks are focused on each bit (each pixel), a 3-bit code is obtained for each pixel. From this code, the direction ⁇ of each fan-shaped area from the projection light source is specified. Then, in the situation where the distance d is known, if the orientations ⁇ and ⁇ are specified, the three-dimensional coordinates of the point of interest on the subject surface are specified by the principle of triangulation.
  • FIG. 11 (a) shows an example in which a space is coded using a pure binary code by using a plurality of masks such as masks A, B, and C.
  • FIG. In b) by using a plurality of masks such as masks A, B, and C, an example of coding a space using a gray code whose distance between adjacent codes is always 1 is used as a space code. It is shown.
  • a spatial code method using a pure binary code or a spatial code method using a gray code may be used.
  • S1006 in Fig. 10 is conceptually represented in a flow chart as a three-dimensional shape detection processing routine.
  • an imaging process is executed in S1210.
  • a striped pattern light (FIG. 1) is generated from the projection unit 13 using a mask pattern of a plurality of gray codes shown in FIG. Are projected onto the subject in time series.
  • a plurality of pattern light existence images obtained by projecting a plurality of types of pattern light, respectively, and a single pattern light no image obtained by imaging the same subject on which pattern light is not projected are acquired.
  • a three-dimensional measurement process is executed in S1220.
  • this three-dimensional measurement process is executed, the three-dimensional shape of the subject is actually measured using the multiple light-patterned images and one light-patternless image acquired by the imaging process described above. Is done.
  • this 3D measurement process ends, the current 3D shape detection process ends.
  • S1210 in FIG. 12 (a) is conceptually represented in a flow chart as an imaging processing subroutine.
  • this imaging processing subroutine first, in S1211, by executing the pattern light imaging program 36a, the patterning light is not projected onto the subject by projecting the pattern light from the projection unit 13. Pattern light no image is acquired. The acquired pattern light no image is stored in the pattern light no image storage unit 37b.
  • a pattern number PN representing the number of the mask pattern used for forming the pattern light is initialized to zero. Subsequently, in S1213, it is determined whether or not the current value of the pattern number PN is smaller than the maximum value PNmax.
  • the maximum value PNmax is determined according to the total number of mask patterns used. For example, when 8 types of mask patterns are used, the maximum value PNmax is set to 8.
  • the PN-th pattern light is projected.
  • An image with an eye pattern light is acquired.
  • the acquired pattern light present image is stored in the pattern light present image storage unit 37a in association with the corresponding pattern number PN.
  • S1220 in FIG. 12 (a) is conceptually represented in a flow chart as a three-dimensional measurement processing subroutine.
  • a luminance image is generated by executing the luminance image generation program 36c.
  • a plurality of luminance images are generated for a plurality of patterned light images and a single patterned light non-image.
  • the generated luminance images are stored in the luminance image storage unit 37c in association with the pattern number PN.
  • the formula used for calculation of the luminance value can be appropriately changed to other formulas other than the above formula.
  • the code image generation program 36d is executed.
  • this code image generation program 36d is executed, a plurality of generated luminance images are combined using the above-described spatial code method, so that a code image with a spatial code assigned to each pixel is obtained.
  • the code image is generated by a binary key process based on a comparison between a luminance image related to a plurality of types of pattern-lighted images stored in the luminance image storage unit 37c and a threshold image to which a luminance threshold is assigned for each pixel. Is done.
  • the generated code image is stored in the code image storage unit 37d.
  • FIG. 13 conceptually shows the details of the code image generation program 36d in a flowchart.
  • the code image generation program 36d will be described in time series with reference to FIG. 13. Prior to that, the code image generation program 36d will be described in principle with reference to FIGS.
  • a plurality of luminance images are generated on the same subject (three-dimensional object) and based on a plurality of types of pattern light.
  • Each of these pattern lights is formed such that a bright part, that is, a bright pattern line having a width, and a dark part, that is, a dark pattern line having a width, are alternately repeated at a constant period.
  • These pattern lights are different from each other with respect to their periods, and are each referred to as non-turn lights having a pattern number PN.
  • the pattern light having the shortest period is the pattern light having the pattern number PN 0, and the pattern light having the longest period is the pattern light having the pattern number PN (PNmax-1). is there.
  • each luminance image is acquired under the corresponding pattern light, for example, as shown in FIG. 14, bright pattern lines as bright portions and dark pattern lines as dark portions are alternately arranged. Is formed as a pattern image. Since the interval between the non-turn lines, ie the period, depends on the relative geometric relationship (position and orientation relationship) between the image input / output device 1 and the subject, all positions in each luminance image In, it is not always constant.
  • a plurality of luminance images respectively acquired under a plurality of types of pattern light are specified using the corresponding pattern light pattern number PN.
  • any one of the plurality of luminance images is selected as the representative pattern image.
  • a typical example of the representative pattern image is a luminance image corresponding to an image having a minimum pattern line period among a plurality of types of pattern light, and this is a luminance image having a pattern number PN of zero.
  • a luminance image having a pattern number PN of 0 is shown as an example of a representative pattern image.
  • FIG. 15 emphasizes, for convenience of explanation, how the luminance value changes spatially and periodically in the direction of the pixel column in an example of the luminance image obtained by imaging the subject on which the pattern light is projected. It is expressed as a solid line graph.
  • Figure 15 further shows the solid line graph with its multiple lower peak points (lowest luminance points).
  • the envelope line in contact with each other is represented by a two-dot chain line graph.
  • This envelope represents a spatial change in the luminance value in the luminance image obtained by imaging the same subject without irradiation, that is, the luminance value of the background light of the subject.
  • a filter window for calculating a threshold value by performing filter processing on a luminance image is set locally, and is suitable for the position by being filtered.
  • Threshold force Set locally for the luminance image. If a window is set at a certain local position in the luminance image, the luminance value of the pixel existing in the window is extracted and referred to among the plurality of pattern lines constituting the luminance image. A threshold value corresponding to the local position is set.
  • the window used in the present embodiment is a rectangular window.
  • this rectangular window is adopted, the luminance values of the pixels constituting the plurality of pattern lines existing in the rectangular window are extracted, and the threshold value is calculated by using the same weighting coefficient for these luminance values. Is done.
  • the window function of the rectangular window is defined by the weight coefficient.
  • the number of pixels existing in the rectangular window is determined according to the size of the rectangular window in the line direction in which the pattern line extends. It can be variable.
  • the number of pattern lines and the number of pixels existing in the column direction in the rectangular window are variable according to the column direction size in the column direction in which the plurality of pattern lines are arranged in rows. It can be.
  • the threshold value for calculating the luminance image force is changed by setting the window in the luminance image according to the column direction size of the rectangular window. Therefore, if it is necessary to adaptively change the threshold value, change the column size of the rectangular window adaptively.
  • the windows employed in the present embodiment can be changed to non-rectangular windows such as Hanning windows and Hamming windows.
  • this non-rectangular window is adopted, the luminance image is subjected to a coefficient (for example, a matrix of variable coefficients) in the window function that defines the non-square window.
  • the threshold characteristic for calculating the luminance image power can be changed by the filtering process using the window set in this way. For example, if a non-rectangular window is used, the luminance image is set if the coefficient can be changed adaptively even if the line direction size and column direction size of the non-rectangular window are fixed.
  • the threshold characteristic for calculating the brightness image power can be changed by filtering using a non-square window.
  • the size of a window configured as a rectangular window is such that the number of pattern lines existing in the window is the interval between the pattern lines, that is, the period (for example, the period in which bright non-turn lines are repeated). Desirably, set to be an integer multiple of. That is, it is desirable to set the window size so that the same number of bright pattern lines and dark pattern lines exist in the window. By setting in this way, a desirable threshold value can be obtained with high accuracy by calculating an average value of luminance values of a plurality of pattern lines existing in the window.
  • the cycle of the pattern line may vary depending on the location. For this reason, when the size of the window is fixed, the number of pattern lines existing in the window varies depending on the location, and the threshold setting accuracy decreases.
  • FIG. 14 in a luminance image, two portions in which a plurality of pattern lines constituting the same are arranged in a column direction are indicated by symbols "A" and "B", respectively. .
  • FIG. 16 (a) a part of a plurality of pattern lines in part A in FIG. 14 is extracted and enlarged.
  • part A the pattern lines of the same color are arranged in a certain cycle.
  • FIG. 16 (b) shows a part of the plurality of pattern lines in part B in FIG.
  • pattern lines of the same color are arranged with a period different from the regular period, specifically, with a period shorter than the certain period.
  • FIGS. 16 (a) and 16 (b) show a fixed window with a fixed size as a comparative example with the present embodiment, which is set for the luminance image shown in FIG. Visualized for convenience of explanation.
  • FIG. 16 (a) shows a partially enlarged portion A in FIG. 14. In this portion A, the number of pattern lines of the same color existing in the fixed window is almost two. It is.
  • part B in Fig. 14 is partially In this part B, the number of pattern lines of the same color existing in the fixed window is more than two and less than three.
  • the threshold power calculated as the average value of the luminance values of a plurality of pixels captured by the fixed window as shown in the graph of Fig. 17, Stable in the column direction of the image.
  • the threshold force calculated as the average value of the luminance values of a plurality of pixels captured by the window is shown in the graph of FIG. Vibrating in the row direction.
  • the fact that the threshold value that is desired to be calculated according to the shape of the envelope of the dark part or the bright part oscillates usually means that the calculated value of the threshold contains an error. Therefore, even if the luminance image is binarized using such a calculated threshold value, it is difficult to improve the accuracy of the binarization.
  • an image captured under the pattern light having the minimum no-turn line period that is, a luminance image having a pattern number PN of 0 is obtained. Selected as a representative pattern image.
  • the window VW set locally with respect to the representative pattern image is configured as a variable window whose size is variable. As a result, the size of the variable window VW can be changed according to the actual pattern line period of the representative pattern image.
  • the threshold value TH is acquired for each local position where the variable window VW is set for the representative pattern image. The threshold value TH for each local position is obtained accurately with the variable window VW having the optimum size for each local position.
  • the size of the variable window VW in which the number of pattern lines in the bright part and the dark part is kept constant is minimum in the luminance image in which the pattern number PN is 0. Therefore, by selecting the luminance image with pattern number PN 0 as the representative pattern image, the minimum The size of the variable window VW becomes possible, and the calculation load of the filter processing after using the variable window VW can be suppressed.
  • variable window VW is configured as a rectangular window whose size is variable.
  • the size of the variable window VW is set to be fixed in the direction of the force line, which is variable in the column direction of the representative pattern image.
  • variable window VW that is, the size in the column direction of the representative pattern image appropriately reflects the actual pattern line period of the representative pattern image. Is set. Therefore, to set the size of variable window VW
  • a fixed window with a fixed size is set for the representative pattern image.
  • a plurality of continuous pixels captured by the set fixed window are selected as a plurality of target pixels, and based on the luminance values of the selected target pixels, the actual pattern line period of the representative pattern image is selected. Distribution is acquired.
  • FIG. 20 shows an example in which a fixed window is set for the representative pattern image in order to acquire the pattern line period distribution of the representative pattern image.
  • this representative pattern image a plurality of pixels are arranged in a plane along the line direction and the column direction of the representative pattern image! /.
  • this representative pattern image a plurality of pixels arranged in the column direction are sequentially selected as a target pixel, and a fixed window is set for each target pixel.
  • the fixed window has a size for capturing 256 pixels, and is set for the representative pattern image so that each pixel of interest is centered on the front and back of the pixel.
  • one fixed window is conceptually represented by two arrows standing above and below the pixel of interest;
  • FFT Fast Fourier Transform
  • Intensity eg, power spectrum
  • frequency component This means the number of iterations in which the change in brightness value is repeated when multiple pixels of interest captured by a single fixed window are placed in the column direction.
  • FIG. 21 is a graph showing an example of the frequency analysis result obtained by the FFT processing.
  • FIG. 21 is a graph showing that there are a plurality of spatial frequencies each having an intensity maximum value, and this is an example of the “spatial frequency characteristics” in the item (1).
  • the size of the aforementioned variable window VW is set, for example, to a length of about 37 pixels corresponding to the pattern line period, a length of about 73 pixels corresponding to twice the pattern line period, or a pattern. It is desirable to set it to a length that is an integral multiple of the line period.
  • the pattern line period is obtained by another approach that does not use Fourier transformation.
  • attention is paid to a plurality of set continuous pixels located in the vicinity of the column direction in the vicinity of the column direction.
  • each of a plurality of continuous pixels continuously arranged in the column direction is sequentially selected as a target pixel, and each selected target pixel is selected.
  • the pattern line period is acquired based on the luminance value distribution of the representative pattern image.
  • the pattern line period a plurality of consecutive pixels arranged at least every other pixel from a plurality of consecutive pixels continuously arranged in the column direction in the representative pattern image.
  • a discrete pixel is selected.
  • a plurality of discrete images selected Each element is sequentially selected as a target pixel, and the pattern line period is acquired for each selected target pixel based on the luminance value distribution of the representative pattern image.
  • the pattern line period of each of a plurality of non-target pixels that are not selected as the target pixel among the plurality of continuous pixels is referred to the pattern line period acquired for the target pixel adjacent to each non-target pixel ( For example, it is obtained by interpolation.
  • the pattern line period can be acquired for each of a plurality of continuous pixels without performing complicated calculations.
  • the window parameters are determined based on the calculated pattern line period distribution with the pattern line period as a cutoff period.
  • a widely known digital mouth-pass filter design technique should be used.
  • this code image generation program 36d first, in S101, a luminance image obtained by imaging a subject on which pattern light having a pattern number PN of 0 is captured is displayed as a representative pattern image from the luminance image storage unit 37c. Is read.
  • the representative pattern image is patterned for each pixel continuously arranged in the column direction in the representative pattern image based on the read luminance image by the above-described approach by FFT conversion.
  • the line period is calculated.
  • the plurality of calculated pattern line periods are stored in the period distribution storage unit 37p in association with each pixel (pixel position in each column).
  • the characteristics of the variable window VW are set locally based on the calculated plurality of pattern line periods.
  • the size of the variable window VW in the line direction is set so as not to change regardless of the position on the representative pattern image where the variable window VW is set.
  • the column direction size is set to correspond to an integral multiple of the pattern line period calculated in association with each column direction pixel position.
  • variable window VW force line direction and column for the representative pattern image It is set in a plane along the direction and in association with each pixel.
  • the average value of the luminance values of a plurality of pixels existing in the variable window VW is calculated as a local threshold value.
  • a threshold image in which the calculated threshold value is assigned to each pixel is further generated.
  • the generated threshold image is stored in the threshold image storage unit 37q.
  • the pattern number PN is initialized to 0, and then in S106, it is determined whether the current value of the pattern number PN is smaller than the maximum value PNmax! / . This time, since the current value of the pattern number PN is 0, the judgment power is No, and the process proceeds to S107.
  • the luminance value of the luminance image assigned the pattern number PN equal to the current value of the pattern number PN and the threshold value of the generated threshold image are compared with each other for each pixel. .
  • the comparison result is reflected in the binarized image for each pixel. Specifically, when the luminance value of the luminance image is larger than the threshold value, data representing “1” is stored in the binarized image storage unit 37r in association with the corresponding pixel position in the binary image. On the other hand, if the luminance value of the luminance image is not larger than the threshold value, data representing “0” is stored in the binary image storage unit 37r in association with the corresponding pixel position in the binary image. Is done.
  • the pattern number PN is incremented by one. Subsequently, returning to S106, it is determined whether or not the current value of the pattern number PN is smaller than the maximum value PNmax. Again, if it is smaller than the maximum value PNmax, the judgment power is ⁇ and the process moves to S107.
  • Spatial code extracted from the image according to the sequence leading to the binary image corresponding to the luminance image with the pattern number PN (PNmax — 1) and arranged according to the sequence leading to the least significant bit LSM force and the most significant bit MSB Is generated.
  • the number of bits of the spatial code for each pixel is the maximum. It is the same number as the large value PNmax.
  • the code boundary coordinate detection processing is performed by executing the code boundary extraction program 36e. Since the encoding by the spatial code method described above is performed on a pixel-by-pixel basis, the boundary line between the light and darkness in the actual pattern light and the boundary line of the spatial code in the generated code image (a certain spatial code is assigned). An error in subpixel accuracy occurs between the boundary area and the boundary line between the allocated area and an area to which another spatial code is assigned. Therefore, this code boundary coordinate detection process is performed for the purpose of detecting the boundary coordinate value of the spatial code with subpixel accuracy.
  • the detected code boundary coordinate value is stored in the code boundary coordinate storage unit 37e.
  • the code boundary coordinate values are defined in the CCD coordinate system ccdx ccdy, which is a two-dimensional coordinate system set on the image plane of the CCD22.
  • lens aberration correction processing is performed by executing the lens aberration correction program 36f.
  • the imaging optical system 21 was an ideal lens for the actual imaging position of the light beam incident on the imaging optical system 21 and affected by the aberration of the imaging optical system 21. If so, it is a process of correcting the image so as to approach the ideal image position where the image should be formed.
  • the code boundary coordinate value detected in S1223 is corrected so that an error caused by distortion of the imaging optical system 21 is removed.
  • the code boundary coordinates corrected in this way are stored in the aberration correction coordinate storage unit 37g.
  • the real space conversion processing based on the principle of triangulation is performed by executing the triangulation calculation program 36g. If this real space conversion process is implemented, Based on the principle of angle surveying, the above-mentioned code boundary coordinate values on the CCD coordinate system ccdx—ccdy and corrected for aberrations are real space coordinate systems that are three-dimensional coordinate systems set in real space. It is converted into 3D coordinate values on X—Y—Z, and as a result, 3D coordinate values are obtained as 3D shape detection results. The acquired three-dimensional coordinate value is stored in the three-dimensional coordinate storage unit 37 h.
  • the real space coordinate system X—Y—Z is fixed to the image input / output device 1, and on this real space coordinate system X—Y—Z, as shown in FIG. A document P that is curved in the horizontal direction is imaged.
  • this real space coordinate system X—Y—Z is relative to the image input / output device 1 with the X axis extending in the horizontal direction, the Y axis extending in the vertical direction, and the Z axis extending from the imaging optical system 21. It is positioned so as to extend in the optical axis direction.
  • Figure 22 (a) shows the real space coordinate system X—Y—Z as observed in the X-axis direction, and FIG.
  • FIG. 22 (b) shows the real space coordinate system X—Y—Z as the Y axis. It is shown as observed in the direction.
  • This real space coordinate system X-Y-Z is set to the image input / output device 1 so that the origin is positioned at a distance VPZ along the input pupil position force Z-axis of the imaging optical system 21! RU
  • ⁇ p the distance between the optical axis of the imaging optical system 21 and the optical axis of the projection unit 13 is expressed as “D”.
  • the projection angle ⁇ p is uniquely specified by the spatial code assigned to each pixel.
  • the straight line where the reflected light from the target point target on the document P is incident on the CCD 22 is extended in the opposite direction and the XY plane.
  • the Y coordinate value of the intersection is expressed as “Ytarget” and the X coordinate value as “Xtarget”.
  • the field of view of the imaging optical system 21 in the Y direction is further defined as the region from the point indicated by “Yfto PJ” to the point indicated by “Yfbottom”.
  • the field of view in the X direction is defined as the area from the point represented by “Xfstart” to the point represented by “Xfend”.
  • the length (height) of the CCD22 in the Y-axis direction is represented by “Hc”.
  • the length (width) force S in the X-axis direction is expressed as “Wc”.
  • Equation (1) is a function for correcting the deviation between the imaging optical system 20 and the projection unit 13, and is regarded as 0 in an ideal case where there is no deviation. Can do.
  • the focal length of the imaging optical system 21 is expressed as “focallength (mm)”
  • the cc d pixel length is expressed as “pixellength (mm)”
  • the coordinate value of the center of the lens in the CCD 22 is (Centx , Centy).
  • any three-dimensional coordinate value (X, ( ⁇ , Z) can be converted into two-dimensional coordinate values (lcdcx, lcdcy) on the LCD coordinate system, which is the two-dimensional coordinate system set on the surface of the projection LCD 19 in the projection unit 13. .
  • the light path from which the light beam enters the target point target on the document P from the projection unit 13 is extended in the same direction.
  • the Y coordinate value of the intersection of X and the Y plane is expressed as “Yptarget” and the X coordinate value as “Xptarget”.
  • the output pupil position of the projection unit 13 is defined as (0, 0, PPZ).
  • the field of view in the Y direction of the projection unit 13 is defined as a region from the point represented by “Ypftop” to the point represented by “Ypfbottom”, and the field of view in the X direction is represented by “Xpfstart”. To the point indicated by “Xpfend”.
  • the length (height) in the Y-axis direction of the projection LCD 19 is written as “Hp”
  • the length (width) in the X-axis direction is written as “Wp”!
  • the original P is actually curved as shown in FIG.
  • the actually captured image is flattened as if the same document P was captured in the state.
  • the original P that is rectangular in front view is actually taken from an angle, but the actual force is actually taken as if the same original P was taken from the front.
  • the image picked up in (2) is planarized.
  • variable window VW constitutes an example of the “spatial filter” in the above (1)
  • S101 to S103 forces in FIG. Constitutes an example of the “spatial filter setting process” in the paragraph
  • S104 constitutes an example of the “threshold setting process” in the paragraph
  • luminance value information constitutes an example of the “image information” in the paragraph. That's it.
  • the fixed window described with reference to FIG. 20 constitutes an example of the “window function” in the above (2), and the column direction size of the variable window VW is (4 This constitutes an example of “variable width” in the section).
  • S102 in FIG. 13 constitutes an example of the “spatial frequency characteristic calculation step” in the above (10), and the representative pattern image is the above (13) and (14).
  • S105 to S108 in FIG. 13 cooperate with each other to form an example of the “binarization process” in the above (15), and S103 and S104 force S cooperate with each other to (16) constitutes an example of “threshold image generation step”, S107 constitutes an example of “binary image generation step” in the same term, and S109 in FIG.
  • This is an example of the “spatial code image calculation process” in the item
  • S1225 in FIG. 12C is an example of the “three-dimensional position information calculation process” in the item (18).
  • the code image generation program 36d constitutes an example of the program according to the above item (19), and the portion of the ROM 36 that stores the code image generation program 36d is the (20 This constitutes an example of the “recording medium” according to the item).
  • the image input / output device 1 constitutes an example of the "three-dimensional information acquisition device" according to the above item (21).
  • the part that executes S 101 to S 103 constitutes an example of the “spatial filter setting part” in the same term
  • the part that executes S 104 constitutes an example of the “threshold setting part” in the same term
  • the luminance value information It constitutes an example of “image information” in the same section.

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

パターン光が投影された対象物を撮像することによって取得されるパターン画像に基づき、対象物の3次元情報を取得する技術において、その3次元情報を取得するためにパターン画像に適用される閾値を設定する技術を改良する。パターン画像の各部分における空間周波数特性に基づき、各部分に対応する空間フィルタ(例えば、可変窓VWの列方向サイズである幅)をパターン画像の各部分ごとに設定する。さらに、パターン画像の各部分に対して空間フィルタを施して取得される画像情報に基づき、対象物の3次元情報を取得するためにパターン画像の各部分に適用される閾値THを各部分ごとに設定する。

Description

3次元情報取得方法および 3次元情報取得装置
技術分野
[0001] 本発明は、パターン光が投影された対象物を撮像することによって取得されるバタ ーン画像に基づき、対象物の 3次元情報を取得する技術に関するものであり、特に、 その 3次元情報を取得するためにパターン画像に適用される閾値を設定する技術の 改良に関するものである。
背景技術
[0002] 対象物の 3次元形状を計測することなどを目的として、パターン光が投影された対 象物を撮像することによって取得されるパターン画像に基づき、対象物の 3次元情報 を取得する技術が既に存在する。
[0003] この技術の一例は、空間コードィ匕法である。この空間コードィ匕法においては、 n種 類のストライプ状のパターン光が順次、対象物に投影され、各パターン光ごとに、そ の対象物が撮像される。その結果、その対象物が置かれている空間が 2n個の細い扇 状領域に分割され、それにより、 n枚のパターン画像、すなわち、ストライプ状の輝度 画像または濃淡画像が取得される。
[0004] この空間コード化法においては、さらに、それら取得された n枚のパターン画像が、 それぞれに対して閾値処理が行われることにより、 n枚の 2値ィ匕画像に変換され、さら に、各画素ごとに、それら n枚の 2値ィ匕画像の輝度値 (0または 1)が順次、空間コード を構成する最下位ビット LSB力も最上位ビット MSBまでの n個のビットに割り当てられ る。
[0005] その結果、各画素ごとに空間コードが割り当てられた空間コード画像が取得され、 その取得された空間コード画像に基づき、かつ、三角測量の原理に従うことにより、 対象物を構成する複数の画素のそれぞれの 3次元位置を始めとする 3次元情報が取 得される。
[0006] この空間コード化法においては、閾値処理が、一般に、パターン画像と閾値画像と を輝度値に関して各画素ごとに互いに比較されるように行われる。その閾値画像を取 得する一従来例が日本国特許第 2921748号公報に開示されている。
[0007] 具体的には、その従来例によれば、 8種類の基本スリットパターンにっき、ポジ画像 を撮影するための 8種類のポジ画像用スリットパターンと、ネガ画像を撮影するための 8種類のネガ画像用スリットパターンであって 8種類のポジ画像用スリットパターンが 反転されたものとが使用される。この従来例によれば、同じ対象物につき、 8種類のポ ジ画像用スリットパターンが順次用いられてポジ画像が 8枚撮影され、さら〖こ、 8種類 のネガ画像用スリットパターンが順次用いられてネガ画像が 8枚撮影される。
[0008] この従来例によれば、さらに、各基本スリットパターンごとに、ポジ画像力 ネガ画像 を差分した差分画像と、ネガ画像からポジ画像から差分した差分画像とを組み合わ せて閾値画像が合成される。そのため、この従来例を実施する場合には、対象物へ のパターン光の投影および撮影を、基本スリットパターンの数の 2倍の回数、すなわ ち、通常の空間コードィ匕法を実施するために投影および撮影が行われる回数の 2倍 の回数、行わなければならない。
[0009] 別の従来例によれば、パターン画像における複数本のパターンライン (パターン画 像のうちの明部の一例)が 2本入るように幅が固定された長方形のマスクが使用され る。このマスクは、パターン画像の各部分に個別に適用され、各部分ごとに、マスク内 に存在する複数個の画素の輝度値の平均値が、ローカルな閾値として算出される。 すなわち、この従来例は、対象物の明るさの空間的変化に適応するように閾値をロー カルに設定する閾値設定技術の一従来例なのである。
発明の開示
[0010] 上述の閾値設定技術においては、マスクの幅が、実際のパターン画像における複 数本のパターンラインの間隔の整数倍とちょうど一致することが要求される。この要求 が充足されないと、同じマスク中に明部と暗部とが面積に関して均等に存在しなくなり 、その結果、同じマスク中に存在する複数の画素の輝度値の平均値が、実際の明部 と実際の暗部とのそれぞれの真の輝度値の平均値力 外れてしまう。しかしながら、 この要求を常に充足することは現実的には困難である。以下、このことを具体的に説 明する。
[0011] 複数本のパターンラインが等間隔で並んだパターン光が投影された対象物の撮像 によって取得されるパターン画像においても、複数本のパターンラインが並ぶ。パタ ーン画像におけるパターンラインの間隔は、パターン光におけるパターンラインの間 隔が同じであっても、対象物と、その対象物にパターン光を投影するプロジェクタと、 その対象物を撮像するカメラとの間における相対的な幾何学的配置,配向(例えば、 パターン光が対象物に投影される向き、その対象物が撮像される向き、その対象物 の表面の向き、プロジェクタと対象物との距離、カメラと対象物との距離)に依存して 変化する。
[0012] また、プロジェクタ力 投光されるパターン光においては、各パターンラインの間隔 が等間隔であるのに対し、そのようなパターン光が投影された対象物の撮像によって 取得されるパターン画像においては、パターンラインの間隔が空間的に変化する可 能性がある。
[0013] この理由を具体的に説明するに、対象物のうちパターン光が投影される部分が単 一の平面によって構成される場合には、その部分からパターン光が反射した光によ つて形成されるパターン画像においても、パターンラインの間隔が空間的に変化しな い。
[0014] し力しながら、対象物のうちパターン光が投影される部分が、例えば、凹凸を有する 場合など、単一もしくは複数の曲面または複数の平面によって構成される場合には、 その部分からパターン光が反射した光によって形成されるパターン画像においては、 ノターンラインの間隔が空間的に変化する。
[0015] 以上要するに、パターン画像においてパターンライン間隔が空間的に変化する可 能性があるのであるが、その可能性にもかかわらず、前述の閾値設定技術によれば 、閾値をローカルに設定するためのパターン画像に設定されるマスクの幅は固定さ れている。
[0016] そのため、この閾値設定技術では、空間的に変化しているパターンライン間隔を持 つパターン画像上においてマスクが空間的に順次シフトさせられると、マスクに入る パターンラインの数が増減を繰り返し、その結果、マスクに入る画素の輝度値の平均 値が空間的に振動してしまう。そのように振動する平均値に基づいて閾値が設定さ れると、この閾値も空間的に振動してしまうことになる。 [0017] ところで、一般に、対象物に一様な光を投影すると、その対象物の各部分の明るさ はその各部分からの反射光の輝度値として表現される。そのため、各部分に投影さ れる光の強度が他の部分と同じであっても、各部分においては、それの面の傾き、表 面反射率、プロジェクタからの距離、カメラからの距離等が他の部分とは異なれば、 明るさも他の部分とは異なる。
[0018] このような性質が存在することを前提にして、パターン光が対象物に投影された結 果取得されるパターン画像を考察するに、そのパターン画像における複数本のバタ ーンライン間において輝度値が互いに共通するとは限らない。すなわち、同じパター ン画像中に明る 、パターンライン(明る 、明部)と暗 、パターンライン(暗 、明部)とが 併存する可能性があるのである。しかし、それらパターンラインは、このように絶対的 な輝度値に違いがあるにもかかわらず、 2値ィ匕処理においては、いずれも明部である と判定されることが、 2値ィ匕の精度を向上させるために必要である。したがって、対象 物の反射光のそもそもの明るさの空間的変化に追従するように閾値をトラッキングす ることが望ましい。
[0019] もっとも、現実的には、対象物の表面が投影するパターンに依存して振動的に変化 を繰り返すことは稀である。そのため、前述の閾値設定技術によって設定される閾値 力 パターン画像において振動的に変化することは、 2値化の精度を悪化させる要因 であると考えるのが自然である。
[0020] 以上の説明から明らかなように、上述の閾値設定技術では、対象物からの反射光 のそもそもの明るさの空間的変化に正確に追従するように閾値を設定することが困難 であるという問題があつたのである。
[0021] このような事情を背景とし、本発明は、パターン光が投影された対象物を撮像するこ とによって取得されるパターン画像に基づき、対象物の 3次元情報を取得する技術に おいて、その 3次元情報を取得するためにパターン画像に適用される閾値を設定す る技術を改良することを課題としてなされたものである。
[0022] 本発明によって下記の各態様が得られる。各態様は、項に区分し、各項には番号 を付し、必要に応じて他の項の番号を引用する形式で記載する。これは、本発明が 採用し得る技術的特徴の一部およびそれの組合せの理解を容易にするためであり、 本発明が採用し得る技術的特徴およびそれの組合せが以下の態様に限定されると 解釈すべきではない。すなわち、下記の態様には記載されていないが本明細書には 記載されている技術的特徴を本発明の技術的特徴として適宜抽出して採用すること は妨げられな 、と解釈すべきなのである。
[0023] さらに、各項を他の項の番号を引用する形式で記載することが必ずしも、各項に記 載の技術的特徴を他の項に記載の技術的特徴から分離させて独立させることを妨げ ることを意味するわけではなぐ各項に記載の技術的特徴をその性質に応じて適宜 独立させることが可能であると解釈すべきである。
[0024] (1) パターン光が投影された対象物を撮像することによって取得されるパターン画 像に基づき、前記対象物の 3次元情報を取得する 3次元情報取得方法であって、 前記パターン画像の各部分における空間周波数特性に基づき、前記各部分に対 応する空間フィルタを前記各部分ごとに設定する空間フィルタ設定工程と、
前記各部分に対して前記空間フィルタを施して取得される画像情報に基づき、前 記 3次元情報を取得するために前記各部分に適用される閾値を前記各部分ごとに設 定する閾値設定工程と
を含む 3次元情報取得方法。
[0025] この方法においては、パターン画像の各部分ごとに適用される閾値を各部分ごとに 設定するために、パターン画像の各部分における空間周波数特性に基づき、各部分 に対応する空間フィルタが各部分ごとに設定される。そのようにして設定された空間 フィルタが各部分ごとにパターン画像に対して施されることにより、閾値が各部分ごと に設定される。すなわち、この方法においては、パターン画像上における位置に応じ てフィルタ特性が可変である可変空間フィルタの採用により、パターン画像について ローカルな閾値が設定されるのである。
[0026] したがって、この方法によれば、ノターン画像の各部分に個別に設定される空間フ ィルタが、各部分の空間周波数特性に適応するように設定される。その結果、パター ン画像の各部分に個別に設定される閾値も、各部分の空間周波数特性に適応する ように設定される。
[0027] したがって、この方法によれば、ノターン画像の各部分に対して、固定フィルタ特性 を持つ空間フィルタ (例えば、固定幅を持つ固定窓)を施すことによって各部分ごとに 閾値が設定される場合とは異なり、設定された閾値がパターン画像について空間的 に振動する傾向を抑制することが容易となる。
[0028] 本項における「3次元情報」は、通常、対象物を構成する複数の画素のそれぞれの 3次元位置に関する情報を含むが、それに限定されず、例えば、対象物の各画素の 色またはテクスチャに関する情報、対象物の表面を少なくとも近似的に表現するポリ ゴンを定義する幾何学的情報 (例えば、そのポリゴンにおける複数の頂点とそれら頂 点を結ぶ複数の面とに関する情報)等を含むことが可能である。
[0029] (2) 前記空間フィルタ設定工程は、窓関数によって前記パターン画像から取り出さ れた各部分の画像情報に基づき、前記空間周波数特性を前記各部分ごとに取得し 、その取得された空間周波数特性に基づき、前記空間フィルタを前記各部分ごとに 設定する(1)項に記載の 3次元情報取得方法。
[0030] この方法によれば、パターン画像の各部分ごとに空間フィルタを設定するために取 得することが必要な空間周波数特性力 パターン画像について全体的に取得される のではなぐパターン画像の各部分ごとに個別に取得される。したがって、この方法 によれば、パターン画像の各部分の空間周波数特性を精度よく取得することが容易 となる。
[0031] (3) 前記空間フィルタは、可変係数のマトリクスである(1)または(2)項に記載の 3次 元情報取得方法。
[0032] (4) 前記空間フィルタは、可変幅を持つ方形窓と、遮断周波数が可変であるローバ スフィルタとの少なくとも一方の特性を含む(1)な 、し (3)項の 、ずれかに記載の 3次 元情報取得方法。
[0033] (5) 前記パターン光は、明部と暗部とが交互に並んで構成されており、
前記パターン画像は、そのパターン光に対応し、明部と暗部とが交互に並んで構 成されており、
前記空間周波数特性は、前記パターン画像の各部分において、前記明部と前記 暗部との繰り返しにつ 、ての空間周波数を反映する(1)な 、し (4)項の 、ずれかに 記載の 3次元情報取得方法。 [0034] (6) 前記空間フィルタ設定工程は、前記パターン画像の各部分の前記空間周波数 特性が複数の空間周波数にお!、て強度極大値を有することを示す場合に、それら複 数の強度極大値を有する空間周波数の少なくとも一つに基づき、前記空間フィルタ を前記各部分ごとに設定する(5)項に記載の 3次元情報取得方法。
[0035] ノターン画像が複数の強度極大値を持つ空間周波数を備えている場合には、それ ら空間周波数のうち優勢なものを考慮して空間フィルタを設定すれば、パターン画像 についてローカルな閾値がそのパターン画像の空間周波数特性に十分に適応する ように取得される傾向が強まる。
[0036] このような知見に基づき、本項に係る方法においては、パターン画像の各部分の空 間周波数特性が複数個の空間周波数において強度極大値を有することを示す場合 に、それら複数の強度極大値を有する空間周波数の少なくとも一つに基づき、空間 フィルタをパターン画像の各部分ごとに設定される。
[0037] (7) 前記空間フィルタ設定工程は、前記パターン画像の輝度分布に対してフーリエ 変換を施すことにより、前記空間周波数特性を特定する (6)項に記載の 3次元情報 取得方法。
[0038] この方法によれば、フーリエ変換により、ノターン画像の空間周波数特性をより正 確に取得することが容易となる。
[0039] (8) 前記空間フィルタは、可変幅を持つ方形窓であり、
前記空間フィルタ設定工程は、前記複数の強度極大値を有する空間周波数のうち 強度が最大であるものに基づき、前記方形窓の幅を決定する窓幅決定工程を含む(
6)または(7)項に記載の 3次元情報取得方法。
[0040] (9) 前記空間フィルタは、遮断周波数が可変であるローパスフィルタであり、
前記空間フィルタ設定工程は、前記複数の強度極大値を有する空間周波数のうち 強度が最大であるものに基づき、その空間周波数より低い空間周波数に前記遮断周 波数を決定する遮断周波数決定工程を含む (6)または(7)項に記載の 3次元情報 取得方法。
[0041] (10) 前記空間フィルタ設定工程は、前記パターン画像を構成する複数個の画素 のそれぞれにっき、各画素を含んでそれの近傍に位置する複数個の画素の輝度情 報に基づいて前記空間周波数特性を演算する空間周波数特性演算工程を含む(1) な!、し (9)項の 、ずれかに記載の 3次元情報取得方法。
[0042] この方法によれば、パターン画像の各画素ごとに、ローカルな空間周波数特性を精 度よく演算することが容易となる。
[0043] (11) 前記空間フィルタ設定工程は、前記パターン画像を構成する複数個の画素 のうち互 ヽに離散するように選択された複数個の離散画素のそれぞれにつ 、て、各 離散画素を含んでそれの近傍に位置する複数個の画素の輝度情報に基づいて前 記空間周波数特性を演算する空間周波数特性演算工程を含む( 1)な!ヽし (9)項の V、ずれかに記載の 3次元情報取得方法。
[0044] この方法によれば、パターン画像を構成する複数個の画素が、互いに離散した複 数個の離散画素によって代表される。それら複数個の離散画素のそれぞれについて は、前記(10)項に係る方法と同様にして、ローカルな空間周波数特性が演算される 。これに対し、残りの複数個の画素のそれぞれについては、各画素に近接する離散 画素について先に演算されたローカルな空間周波数に基づき、ローカルな空間周波 数特性を演算することが可能である。例えば、残りの複数個の画素のそれぞれにつ いては、各画素を隔てて互!、に近接する複数の離散画素につ 、て先に演算された それぞれのローカルな空間周波数力 推定することにより、ローカルな空間周波数特 性を演算することが可能である。
[0045] したがって、この方法によれば、パターン画像を構成する複数個の画素のそれぞれ にっき、先に演算されたローカルな空間周波数特性を用いることなぐローカルな空 間周波数特性を演算する場合より、その演算に必要な計算負荷を軽減することが容 易となる。
[0046] (12) 前記空間フィルタ設定工程は、さらに、前記複数個の画素のうち前記選択さ れた複数個の離散画素以外の各非選択画素についての前記空間周波数を、前記 複数個の離散画素のうち各非選択画素の周辺に位置するものについて前記空間周 波数特性演算工程によって演算された前記空間周波数特性を用いて推定する空間 周波数特性推定工程を含む(11)項に記載の 3次元情報取得方法。
[0047] この方法によれば、選択された複数個の離散画素について前記空間周波数特性 演算工程によって演算された空間周波数特性を利用することにより、複数個の画素 のうち、選択された複数個の離散画素以外の各非選択画素についての空間周波数 特性が推定される。
[0048] (13) 前記パターン光は、明部と暗部とが交互に並んで構成されており、
前記パターン画像は、そのパターン光に対応し、明部と暗部とが交互に並んで構 成されており、
前記パターン光は、前記明部と前記暗部との繰り返しにつ 、ての空間周波数が互 Vヽに異なる複数種類のパターン光を含み、
前記パターン画像は、それら複数種類のパターン光にそれぞれ対応する複数種類 のパターン画像を含み、
前記空間フィルタ設定工程は、それら複数種類のパターン画像の ヽずれかとして 選択された選択パターン画像を用いて前記空間フィルタを設定し、
前記閾値設定工程は、前記閾値を前記複数種類のパターン画像に共通に割り当 てる( 1)ないし( 12)項の 、ずれかに記載の 3次元情報取得方法。
[0049] この方法によれば、各パターン画像ごとに閾値設定を行わずに済む。この方法は、 複数種類のパターン画像がそもそも、対象物の 3次元情報を取得するために利用さ れるものであって、それらパターン画像の 、ずれかである上記選択パターン画像力 Sも つばら閾値設定のために利用されるものではな 、態様で実施することが可能である。 この態様によれば、閾値を設定することのみを目的として、ノターン光の投影および 対象物の撮像を行わずに済む。
[0050] (14) 前記選択パターン画像は、前記複数種類のパターン光のうち、前記明部と前 記暗部との繰り返しについての周期が実質的に最小であるものに対応する(13)項 に記載の 3次元情報取得方法。
[0051] この方法によれば、選択パターン画像が、複数種類のパターン光のうち、明部と暗 部とが交互に繰り返す周期が実質的に最小ではないものに対応する場合に比較し、 例えば、空間フィルタの一例である可変窓の幅が小さくて済む。その可変窓は、例え ば、ノターン画像におけるパターンラインの間隔の整数倍とちょうど一致する幅を有 するように設定され、その幅は、パターンラインの間隔が短いほど、すなわち、上記周 期が短いほど、小さい。一方、可変窓の幅が小さいほど、その可変窓によって部分的 に切り出されるパターン画像のデータ量が少なくなる。よって、この方法によれば、閾 値設定のための計算負荷を軽減することが容易となる。
[0052] (15) さらに、前記設定された閾値を用いることによって前記パターン画像を 2値ィ匕 し、それにより、そのパターン画像を 2値ィ匕画像に変換する 2値ィ匕工程を含む(1)な
V、し(14)項の 、ずれかに記載の 3次元情報取得方法。
[0053] この方法によれば、可変空間フィルタの採用によって精度の高い閾値をローカルに 決定することができるため、パターン画像を 2値ィ匕する精度が向上する。
[0054] (16) 前記閾値設定工程は、前記パターン画像を構成する複数個の画素のそれぞ れについて前記閾値を割り当てることにより、閾値画像を生成する閾値画像生成ェ 程を含み、
前記 2値化工程は、その生成された閾値画像と前記パターン画像とを輝度値に関 して各画素ごとに互いに比較することにより、前記 2値化画像を生成する 2値化画像 生成工程を含む(15)項に記載の 3次元情報取得方法。
[0055] この方法によれば、可変空間フィルタの採用によって精度の高い閾値をローカルに 決定することができるため、閾値画像の精度が向上し、ひいては、 2値化画像の精度 も向上する。
[0056] (17) さらに、前記 2値化画像に基づき、かつ、予め定められた空間コードィ匕規則に 従い、前記 2値ィ匕画像カゝら空間コード画像を算出する空間コード画像算出工程を含 む(15)または(16)項に記載の 3次元情報取得方法。
[0057] この方法によれば、可変空間フィルタの採用によって精度の高い閾値をローカルに 決定することができるため、 2値化画像の精度が向上し、ひいては、空間コード画像 を取得する精度も向上する。
[0058] (18) さらに、前記算出された空間コード画像に基づき、前記対象物を構成する複 数の画素のそれぞれに対応する 3次元位置を前記 3次元情報として演算する 3次元 位置演算工程を含む(17)項に記載の 3次元情報取得方法。
[0059] この方法によれば、空間コードィ匕法により、対象物の 3次元位置を計測することが可 能となる。 [0060] (19) (1)ないし(18)項のいずれかに記載の 3次元情報取得方法を実施するため にコンピュータによって実行されるプログラム。
[0061] このプログラムがコンピュータにより実行されれば、前記(1)ないし(18)項のいずれ 力に係る方法におけると基本的に同じ原理に従い、同様な効果が実現され得る。
[0062] 本項に係るプログラムは、それの機能を果たすためにコンピュータにより実行される 指令の組合せのみならず、各指令に従って処理されるファイルやデータをも含むよう に解釈することが可能である。
[0063] また、このプログラムは、それ単独でコンピュータにより実行されることにより、所期の 目的を達するものとしたり、他のプログラムと共にコンピュータにより実行されることに より、所期の目的を達するものとすることができる。後者の場合、本項に係るプロダラ ムは、データを主体とするものとすることができる。
[0064] (20) (19)項に記載のプログラムをコンピュータ読取り可能に記録した記録媒体。
[0065] この記録媒体に記録されているプログラムがコンピュータにより実行されれば、前記
(1)ないし(18)項のいずれかに係る方法と同じ作用効果が実現され得る。
[0066] この記録媒体は種々な形式を採用可能であり、例えば、フレキシブル ·ディスク等の 磁気記録媒体、 CD、 CD— ROM等の光記録媒体、 MO等の光磁気記録媒体、 RO
M等のアンリムーバブル 'ストレージ等の 、ずれかを採用し得る。
[0067] (21) パターン光が投影された対象物を撮像することによって取得されるパターン画 像に基づき、前記対象物の 3次元情報を取得する 3次元情報取得装置であって、 前記パターン画像の各部分における空間周波数特性に基づき、前記各部分に対 応する空間フィルタを前記各部分ごとに設定する空間フィルタ設定部と、
前記各部分に対して前記空間フィルタを施して取得される画像情報に基づき、前 記 3次元情報を取得するために前記各部分に適用される閾値を前記各部分ごとに設 定する閾値設定部と
を含む 3次元情報取得装置。
[0068] この装置によれば、前記(1)項に係る方法と同じ原理に従い、同じ作用効果が実現 され得る。
図面の簡単な説明 [図 1]図 1は、本発明の一実施形態に従う 3次元情報取得方法を実施するのに好適 な画像入出力装置 1を示す外観斜視図である。
[図 2]図 2は、図 1における撮像ヘッド 2の内部構成を示す平面図である。
[図 3]図 3は、図 2における投影部 13を拡大して示す平面図、図 2における光源レン ズ 18を拡大して示す正面図、および図 2における投影 LCD19および CCD22を拡 大して示す正面図である。
[図 4]図 4は、図 3における複数個の LED17の配列を説明するための側面図、 1個の LED17によって個別的に実現される照度分布を示すグラフ、それら複数個の LED1 7を示す正面図、およびそれら複数個の LED17により総合的に実現される合成照度 分布を示グラフである。
[図 5]図 5は、図 1に示す画像入出力装置 1の電気的構成を概念的に表すブロック図 である。
[図 6]図 6は、図 5におけるカメラ制御プログラムにおいて実行されるメイン処理を概念 的に表すフローチャートである。
[図 7]図 7は、図 6における S605において実行されるデジカメ処理を概念的に表すフ ローチャートである。
[図 8]図 8は、図 6における S607において実行される webcam処理を概念的に表す フローチャートである。
[図 9]図 9は、図 8〖こおける S806にお ヽて実行される投影処理を概念的に表すフロ 一チャートである。
[図 10]図 10は、図 6における S609において実行される立体画像処理を概念的に表 すフローチャートである。
[図 11]図 11は、図 10の立体画像処理において採用される空間コード化法の原理を 説明するための平面図および側面図と、 2組のマスクパターンを示す平面図とである
[図 12]図 12は、図 10における S1006において実行される 3次元形状検出処理を 3 次元形状検出処理ルーチンとして概念的に表すフローチャートと、その 3次元形状 検出処理ルーチンにおける S1210を撮像処理サブルーチンとして概念的に表すフ ローチャートと、その 3次元形状検出処理ルーチンにおける S1220を 3次元計測処 理サブルーチンとして概念的に表すフローチャートとである。
[図 13]図 13は、図 12における S1222において実行されるコード画像生成プログラム 36dを概念的に表すフローチャートである。
[図 14]図 14は、図 13における S101において使用される代表パターン画像の一例を 示す正面図である。
[図 15]図 15は、図 14に示す代表パターン画像にぉ 、て輝度値がパターンラインの 列方向において空間的に変化する様子を説明するためのグラフである。
[図 16]図 16は、図 14における部分 Aと固定窓との関係を説明するための平面図と、 図 14における部分 Bと固定窓との関係を説明するための平面図とである。
[図 17]図 17は、図 14における部分 Aについて固定窓を用いて取得される閾値がパ ターンラインの列方向において空間的に変化する様子を説明するためのグラフであ る。
[図 18]図 18は、図 14における部分 Bについて固定窓を用いて取得される閾値がパタ ーンラインの列方向において空間的に変化する様子を説明するためのグラフである
[図 19]図 19は、図 14における代表パターン画像につ!、て 2値化処理のための閾値 T Hをローカルに設定するためにその代表パターン画像に対してローカルに設定され る可変窓 VWを示す平面図である。
[図 20]図 20は、図 14に示す代表パターン画像においてパターンライン周期を取得 するためにその代表パターン画像に対して設定される固定窓を説明するための正面 図である。
[図 21]図 21は、図 20における固定窓を用いることにより、図 14に示す代表パターン 画像について取得された輝度値の周波数特性の一例を示すグラフである。
[図 22]図 22は、図 12における S1225の実行によって 2次元の CCD座標系と 3次元 の実空間座標系との間において行われる座標変換と、 2次元の LCD座標系と 3次元 の実空間座標系との間とにおいて座標変換とを説明するための側面図および平面 図である。 発明を実施するための最良の形態
[0070] 以下、本発明のさらに具体的な実施の形態のいくつかを図面に基づいて詳細に説 明する。
[0071] 図 1には、本発明の一実施形態に従う 3次元情報取得方法を実施するのに好適な 画像入出力装置 1が外観斜視図で示されている。この画像入出力装置 1は、画像を 表す画像光(「画像信号光」ともいう。)の投影面 (例えば、平面、スクリーン、机上面 など)への投影 (通常の投影)およびストライプ状のパターン光の被写体への投影 (3 次元情報取得のための投影)と、被写体の撮像と、その撮像結果に基づき、被写体 の 3次元情報(3次元位置情報を含む。 )をコンピュータによって取得する処理とを行 うように設計されている。そのため、この画像入出力装置 1は、図 2に示すように、投影 部 13と、撮像部 14と、処理部 15とを含むように構成されている。
[0072] この画像入出力装置 1は、複数種類のモードのうちユーザによって選択されたもの に従って作動する。それらモードは、この画像入出力装置 1がデジタルカメラとして機 能するデジカメモードと、ウェブカメラとして機能する webcamモードと、被写体の 3次 元形状を検出して立体画像を取得するための立体画像モードと、湾曲した原稿等の 被写体の立体画像を平面化した平面化画像を取得するための平面化画像モードと を含んでいる。
[0073] 図 1には、この画像入出力装置 1が、特に、立体画像モードや平面化画像モードに おいて、被写体としての原稿 Pの 3次元形状を検出するために、明部と暗部とが交互 に並んで成るストライプ状のパターン光を投影部 13から原稿 Pに投影している状態で 示されている。
[0074] 図 1に示すように、この画像入出力装置 1は、略箱状を成す撮像ヘッド 2と、一端に おいてその撮像ヘッド 2に連結されたノィプ状のアーム部材 3と、そのアーム部材 3の 他端に連結されたベース 4であって、平面視において略 L字状を成すように形成され たものとを備えている。それらアーム部材 3とベース 4とは互いに共同して、撮像ヘッド 2を片持ち状で保持するスタンドとして機能する。
[0075] 撮像ヘッド 2は、図 2に示すように、投影部 13や撮像部 14がケース内に収容されて 構成されている。図 1に示すように、この撮像ヘッド 2は、鏡筒 5と、ファインダ 6と、フラ ッシュ 7とを、それぞれが部分的に撮像ヘッド 2の正面において露出する姿勢で備え ている。この撮像ヘッド 2は、さらに、撮像部 14の一部である撮像光学系 21を、それ のレンズの一部が撮像ヘッド 2の正面において露出する姿勢で備えている。その撮 像光学系 21は、それの露出部分において、被写体を表す画像光を受光する。
[0076] 鏡筒 5は、図 1に示すように、撮像ヘッド 2の正面力 突出しており、その内部にお いて、図 2に示すように、投影部 13の一部である投影光学系 20を収容している。この 鏡筒 5は投影光学系 20を、焦点調節のために全体的に移動可能である状態で保持 し、さら〖こ、この鏡筒 5は、投影光学系 20を損傷力も保護している。鏡筒 5の露出端 面から、投影部 13の一部である投影光学系 20のレンズの一部が露出している。投影 光学系 20は、それの露出部分において、投影面または被写体に向力つて画像光ま たはパターン光を投影する。
[0077] ファインダ 6は、撮像ヘッド 2の正面から入射した光をそれの背面まで誘導するよう に配設される光学レンズによって構成されて 、る。ユーザがファインダ 6を画像入出 力装置 1の背面からのぞき込むと、ユーザが、撮像光学系 21のうちのイメージセンサ の一例である CCD22 (結像面)上に画像が結像する領域とほぼ一致する領域内に ぉ 、てその画像を視認できるようになって!/、る。
[0078] フラッシュ 7は、例えば、デジカメモードにぉ 、て、不足光量を補充するために発光 する光源であり、キセノンガスが充填された放電管を用いて構成されている。したがつ て、このフラッシュ 7は、撮像ヘッド 2に内蔵されているコンデンサ(図示しない)の放 電により繰り返し使用することができる。
[0079] 撮像ヘッド 2は、さらに、それの上面において、レリーズボタン 8と、モード切替スイツ チ 9と、モニタ LCD10とを備えている。
[0080] レリーズボタン 8は、画像入出力装置 1を作動させるためにユーザによって操作され る。このレリーズボタン 8は、ユーザの操作状態 (押下状態)が「半押し状態」である場 合と「全押し状態」である場合とで異なる指令を発令できる 2段階の押しボタン式のス イッチによって構成されている。レリーズボタン 8の操作状態は処理部 15によって監 視される。処理部 15によって「半押し状態」が検出されれば、よく知られたオートフォ 一カス (AF)および自動露出(AF)の機能が起動し、ピント、絞りおよびシャツタスピ ードが自動的に調節される。これに対し、処理部 15によって「全押し状態」が検出さ れれば、撮像等が行われる。
[0081] モード切替スィッチ 9は、画像入出力装置 1の作動モードを、前述のデジカメモード 、 webcamモード、立体画像モード、および平面化画像モードと、オフモード等を含 む複数種類のモードの ヽずれかとして設定するためにユーザによって操作される。こ のモード切替スィッチ 9の操作状態は処理部 15によって監視されており、モード切替 スィッチ 9の操作状態が処理部 15によって検出されると、その検出された操作状態に 対応するモードでの処理が画像入出力装置 1に対して行われる。
[0082] モニタ LCD10は、液晶ディスプレイ(Liquid Crystal Display)を用いて構成されて おり、処理部 15から画像信号を受けて、画像をユーザに表示する。このモニタ LCD1 0は、例えば、デジカメモードや webcamモードにおける撮像画像、立体画像モード における 3次元形状検出結果画像、平面化画像モードにおける平面化画像等を表 示する。
[0083] 図 1に示すように、撮像ヘッド 2は、さらに、 RF (無線)インタフェースとしてのアンテ ナ 11と、撮像ヘッド 2とアーム部材 3とを互 ヽに連結する連結部材 12とを備えて 、る
[0084] アンテナ 11は、図 5に示すように、 RFドライバ 24に接続されている。このアンテナ 1 1は、デジカメモードで取得した撮像画像データ、立体画像モードで取得した立体画 像データ等を、 RFドライバ 24を介して、図示しない外部インタフェースに無線によつ て送信する。
[0085] 連結部材 12は、撮像ヘッド 2とアーム部材 3の一端部とを、ねじ機構により、着脱可 能であり、かつ、相対取付け角度が調節可能である状態で互いに連結する。具体的 には、この連結部材 12は、例えば、内周面に雌ねじが形成されたリングとして形成さ れ、撮像ヘッド 2の一側面に回転可能かつ離脱不能に保持されている。その雌ねじ に対応し、アーム部材 3の一端部に雄ねじが形成されている。それら雌ねじと雄ねじ とが互いに螺合されることにより、撮像ヘッド 2とアーム部材 3とが着脱可能に互いに 連結される。したがって、撮像ヘッド 2は、アーム部材 3から取り外せば、通常のデジ タルカメラとして使用することができる。さらに、それら雌ねじと雄ねじとが互いに螺合 されることにより、撮像ヘッド 2を、アーム部材 3の一端部に任意の角度で固定するこ とがでさる。
[0086] 図 1に示すように、アーム部材 3は、任意の形状に屈曲可能であり、かつ、外力が加 えられない限りその形状が復元しな 、素材または機構によって構成されて 、る。これ により、アーム部材 3は、それに装着された撮像ヘッド 2を、それの位置および向きを 任意に調整可能に保持することができる。このアーム部材 3は、例えば、任意の形状 に屈曲可能な蛇腹状のパイプによって構成される。
[0087] 図 1に示すように、ベース 4は、前述のように、アーム部材 3の他端に連結されて 、る 。このベース 4は、机等の載置台に載置され、撮像ヘッド 2とアーム部材 3とを支持す る。このベース 4は、平面視において略 L字状を成すように形成されているため、重量 の割に高い安定度で撮像ヘッド 2およびアーム部材 3を支持することができる。さらに 、それらアーム部材 3とベース 4とは着脱可能に互いに連結されているため、例えば 搬送や収納の先立ち、それらアーム部材 3とベース 4とを互いに分離することにより、 それらアーム部材 3とベース 4とが占めるスペースの形態を任意に変更することが可 能となり、よって、搬送し易さの向上および収納スペースの削減を容易に図り得る。
[0088] 図 2には、撮像ヘッド 2の内部構成が概念的に表されている。撮像ヘッド 2は、前述 のように、投影部 13と、撮像部 14と、処理部 15とを主に内蔵している。
[0089] 投影部 13は、投影面または被写体に任意の画像光 (投影画像)またはパターン光 を投影するためのユニットである。この投影部 13は、図 2に示すように、基板 16と、複 数個の LED17 (以下、それらのアレイを「LEDアレイ 17A」という。)と、光源レンズ 18 と、投影 LCD19と、投影光学系 20とを、投影方向に沿って直列に備えている。この 投影部 13の詳細は、後に図 3を参照して説明する。
[0090] 撮像部 14は、被写体としての原稿 Pを撮像するためのユニットである。この撮像部 1 4は、図 2に示すように、撮像光学系 21と、 CCD22とを、画像光の入射方向に沿って 直列に備えている。
[0091] 撮像光学系 21は、図 2に示すように、複数枚のレンズを用いて構成されている。こ の撮像光学系 21は、よく知られたオートフォーカス機能により、焦点距離および絞り を自動調整して外部からの光を CCD22上に結像する。 [0092] CCD (Charge Coupled Device) 22は、フォトダイオード素子などの光電変換素子を マトリクス状に配列して構成されている。この CCD22は、撮像光学系 21を介してこの CCD22の表面に結像される画像の光の色および強さに応じた信号を各画素ごと〖こ 生成する。その生成された信号は、デジタルデータに変換されて処理部 15に出力さ れる。
[0093] 図 5にブロック図で示すように、処理部 15は、フラッシュ 7、レリーズボタン 8およびモ ード切替スィッチ 9にそれぞれ電気的に接続されている。処理部 15は、さら〖こ、モ- タ LCD10にはモニタ LCDドライバ 23を介して、アンテナ 11には RFドライノく 24を介 して、バッテリ 26には電源インタフェース 25を介してそれぞれ電気的に接続されて!ヽ る。処理部 15は、さらに、外部メモリ 27およびキャッシュメモリ 28にそれぞれ電気的 に接続されている。処理部 15は、さら〖こ、 LEDアレイ 17Aには光源ドライバ 29を介し て、投影 LCD19には投影 LCDドライバ 30を介して、 CCD22には CCDインタフエ一 ス 31を介してそれぞれ電気的に接続されている。それらフラッシュ 7等は、処理部 15 によって制御される。
[0094] 外部メモリ 27は、着脱可能なフラッシュ ROMであり、デジカメモードや webcamモ ード、さらに立体画像モードにぉ ヽて撮像された撮像画像や 3次元情報を記憶するこ とが可能である。外部メモリ 27を構成するために、例えば、 SDカード、コンパクトフラ ッシュ (登録商標)カード等を使用することができる。
[0095] キャッシュメモリ 28は、データの読み書きを高速で行い得る記憶装置である。キヤッ シュメモリ 28は、例えば、デジカメモードにおいて撮像された撮像画像を高速でキヤ ッシュメモリ 28に転送し、処理部 15で画像処理を行って力も外部メモリ 27に格納す ることを可能にするために使用される。キャッシュメモリ 28を構成するために、例えば 、 SDRAM, DDRRAM等を使用することができる。
[0096] 電源インタフェース 25、光源ドライバ 29、投影 LCDドライバ 30および CCDインタフ エース 31はそれぞれ、ノ ッテリ 26、 LEDアレイ 17A、投景 LCD19および CCD22を 制御する各種の集積回路 IC (Integrated Circuit)によって構成されている。
[0097] ここで、投影部 13の詳細を図 3を参照することによって説明する。図 3 (a)は投影部 13の拡大図であり、図 3 (b)は光源レンズ 18の正面図であり、図 3 (c)は投影 LCD1 9と CCD22との配置関係を説明するための正面図である。
[0098] 前述のように、投影部 13は、図 3 (a)に示すように、基板 16と、 LEDアレイ 17Aと、 光源レンズ 18と、投影 LCD19と、投影光学系 20とをパターン光の投影方向に沿つ て直列に備えている。
[0099] 基板 16は、それに LEDアレイ 17Aが装着されることにより、その装着された LEDァ レイ 17Aとの間において電気的な配線を行う。基板 16は、例えば、アルミニウム製基 板に絶縁性合成樹脂を塗布してカゝら無電解メツキにてパターンを形成したものや、ガ ラスエポキシ基材をコアとする単層または多層構造の基板を使用して製作することが できる。
[0100] LEDアレイ 17Aは、投影 LCD19に向けて放射状の光を発光する光源である。この LEDアレイ 17Aにおいては、基板 16上に複数個の LED (発光ダイオード) 17が、図 3 (b)に示すように、千鳥状配列のもとに、銀ペーストを介して接着されている。それら 基板 16と複数個の LED17とは、ボンディングワイヤを介して電気的に結線されてい る。複数個の LED17を千鳥状に配列することによる効果は、後に図 4を参照して詳 細に説明する。
[0101] このように、本実施形態においては、投影部 13の光源として複数個の LED17が使 用されているため、光源として白熱電球、ハロゲンランプ等が使用される場合に比べ て、電気が光に変換される電気光変換効率の向上や、赤外線や紫外線の発生の抑 制を容易に行い得る。よって、画像入出力装置 1の節電、長寿命化、発熱抑制等を 容易に図り得る。
[0102] このように、 LED17はハロゲンランプ等に比べて熱線の発生率が極めて低いため 、光源レンズ 18や投影光学系 20に合成樹脂製のレンズを採用することができる。よ つて、ガラス製のレンズを採用する場合に比べて、光源レンズ 18および投影光学系 2 0を安価で軽量に構成することができる。
[0103] さらに、本実施形態においては、 LEDアレイ 17Aを構成する各 LED17が、互いに 同じ色の光を発光し、具体的には、材料に Al、 In、 Gaおよび Pの 4元素を用いたアン バー色を発光するように構成されている。したがって、複数色の光を発光させる場合 に考慮しなければならない問題である色収差の補正を考慮する必要がなぐよつて、 色収差を補正するために投影光学系 20に色消しレンズを採用する必要もない。その 結果、投影光学系 20の設計の自由度を向上させることができる。
[0104] さらに、本実施形態においては、電気光変換効率が約 80[lumenZW]というように 他の発光色に比べて高い 4元素材料のアンバー色 LEDが採用されるため、画像入 出力装置 1の高輝度化、節電および長寿命化を容易に図り得る。
[0105] 本実施形態においては、具体的には、 LEDアレイ 17Aが 59個の LED17によって 構成され、各 LED17は 50[mW] (20 [mA] , 2. 5 [V])で駆動され、結局、 59個の LED17の全体は略 3 [W]の消費電力で駆動される。
[0106] さらに、本実施形態においては、各 LED17から発光される光が光源レンズ 18およ び投影 LCD19を通過して投影光学系 20から出射する場合の光束値としての明るさ 力 全面照射の場合であっても 25ANSIルーメン程度に設定されている。
[0107] 本実施形態においては、画像入出力装置 1の投影部 13からの出射光の明るさがそ の程度に選定されるため、例えば、被写体が人や動物の顔である場合に、立体画像 モードにおいて、その被写体の 3次元形状を検出するためにその被写体にパターン 光を投影しても、被写体に眩しさを与えずに済む。したがって、本実施形態によれば 、被写体が人や動物である場合に、その被写体が目をつぶらない状態でその被写体 の 3次元形状を検出することが容易となる。
[0108] 図 3に示すように、光源レンズ 18は、 LEDアレイ 17A力も放射状に発光される光を 集光するレンズであり、その材質はアクリルに代表される光学榭脂である。
[0109] 図 3 (a)〖こ示すよう〖こ、光源レンズ 18は、複数個の凸状のレンズ部 18aと、それらレ ンズ部 18aを支持するベース部 18bと、エポキシ封止材 18cと、複数本の位置決めピ ン 18dとを備えている。
[0110] 図 3 (a)に示すように、各レンズ部 18aは、ベース部 18bのうち LEDアレイ 17Aの各 LED 17に対向する位置に、ベース部 18bから投影 LCD 19に向かつて突設されて!/ヽ る。エポキシ封止材 18cは、ベース部 18bのうち LEDアレイ 17Aが気密に収容される べき凹部 18e内に充填され、それにより、その凹部 18e内において LEDアレイ 17A が封止される。このエポキシ封止材 18cは、 LEDアレイ 17Aの封止機能を有するの であり、さらに、基板 16と光源レンズ 18とを互いに接着する機能も有する。 [0111] 図 3 (a)に示すように、複数本の位置決めピン 18dは、光源レンズ 18と基板 16とを 相対的に位置決めするために、光源レンズ 18に、その光源レンズ 18力 基板 16に 向かって突設されている。図 3 (b)に示すように、複数本の位置決めピン 18dのうちの 一部は、基板 16に穿設された長穴 16aに挿入される一方、残りは、基板 16に穿設さ れた真円穴 16bに挿入され、それにより、基板 16に光源レンズ 18ががたなく正規の 位置に固定される。
[0112] このように、本実施形態においては、光源レンズ 18と、 LEDアレイ 17Aと、基板 16 と力 投影方向に空間的に詰めて互いに積層されているため、それら光源レンズ 18 等の組立体のコンパクトィ匕および省スペース化が容易となる。
[0113] さらに、本実施形態においては、基板 16力 LEDアレイ 17Aを保持するという基本 的な機能の他に、光源レンズ 18を保持するという付随的な機能をも果たしている。し たがって、本実施形態によれば、光源レンズ 18を専ら保持する部品の追加を省略で き、その結果、画像入出力装置 1の部品点数の削減が容易となる。
[0114] さらに、本実施形態においては、各レンズ部 18aが、図 3 (a)に示すように、 LEDァ レイ 17Aの各 LED17に 1対 1の関係で正対するように配置されている。よって、各 LE D17から発光される放射状の光は、各 LED17に対向する各レンズ部 18によって効 率良く集光され、図 3 (a)に示すように、指向性の高い放射光として投影 LCD19に照 射される。
[0115] このように指向性を高めたのは、投影 LCD19に略垂直に光が入射すれば、その投 影 LCD19の面内における透過率むらが抑制されて画質が向上し得るという理由から である。
[0116] 投影光学系 20は、投影 LCD19を通過した光を投影面または被写体に向力つて投 影するための複数枚のレンズである。それらレンズは、ガラス製レンズと合成樹脂製 レンズとの組合せ力 成るテレセントリックレンズによって構成されて 、る。テレセントリ ックとは、投影光学系 20を通過する主光線は、入射側の空間では光軸に平行になり 、射出瞳の位置は無限になる構成をいう。
[0117] 投影光学系 20は、上述のようにテレセントリック特性を持ち、その入射 NAが 0. 1程 度であるため、垂直 ± 5° 以内の光のみが投影光学系 20の内部の絞りを通過できる ように、投影光学系 20の光路が規制されている。
[0118] したがって、本実施形態においては、投影光学系 20のテレセントリック性により、投 影 LCD19を垂直 ± 5° で通過する光のみを投影光学系 20に投影し得る構成と相 俟つて、画質の向上を容易に図り得る。
[0119] よって、本実施形態においては、画質向上のために、各 LED17からの出射光が投 影 LCD19に略垂直に入射するように各 LED17からの光の出射角度を揃え、かつ、 各 LED17からの出射光のほとんどが投影光学系 20に垂直 ± 5° の入射角度範囲 内で入射させることが重要である。
[0120] 図 3 (c)に示すように、投影 LCD19は、光源レンズ 18を通過して集光された光に空 間変調を施して、投影光学系 20に向けてパターン光を出力する空間変調素子であ る。この投影 LCD19は、具体的には、縦横比が 1 : 1ではない板状の液晶ディスプレ ィ(Liquid Crystal Display)によって構成されている。
[0121] 図 3 (c)に示すように、この投影 LCD19においては、その投影 LCD19を構成する 複数個の画素が一平面上において千鳥状に配列されている。具体的には、この投 影 LCD19においては、その液晶ディスプレイの長手方向(横方向)に複数個の画素 が予め定められた画素ピッチで等間隔に並んだ画素列が複数並列に配置され、力 つ、互いに隣接する 2つの画素列力 その画素ピッチより短い長さで、その液晶ディ スプレイの長手方向にずらされて ヽる。
[0122] このように、本実施形態においては、投影 LCD19を構成する複数個の画素が千鳥 状に配列されているため、投影 LCD19によって空間変調が施される光を投影 LCD 19の長手方向において前記画素ピッチの 1Z2のピッチで制御することができる。し たがって、本実施形態によれば、細いピッチで投影パターン光を制御することができ 、よって、被写体の 3次元の形状を高い分解能で高精度に検出することができる。
[0123] 特に、後に詳述する立体画像モードや平面化画像モードにおいては、被写体の 3 次元形状を検出すベぐ図 1に示すように、明部と暗部とが交互に並んで成るストライ プ状のパターン光が被写体に向けて投影される。本実施形態においては、そのバタ ーン光において複数本のストライプ(明部または暗部)が並ぶ方向(各ストライプの幅 方向)が投影 LCD19の長手方向に一致するようにパターン光が予め定義されて!、る 。したがって、パターン光において明部と暗部との境界を 1Z2ピッチで制御すること ができ、よって、同様に高精度に 3次元の形状を検出することができる。
[0124] 図 3 (c)においては、投影 LCD19と CCD22とが横に並んで示されている力 それ ら投影 LCD19と CCD22とは、紙面手前側に撮像ヘッド 2の正面が存在し、紙面裏 側から光が投影 LCD 19に入射し、紙面手間側力も光が CCD22に入射してその CC D22に被写体像が結像される状態で、配置されて ヽる。
[0125] それら投影 LCD19と CCD22とは、撮像ヘッド 2の内部においては、図 3 (c)に示 すレイアウトで配置される。具体的には、それら投影 LCD19と CCD22とは、投影 LC D19の幅広面と CCD22の幅広面とが略同一の方向を向くように配置されている。し たがって、本実施形態によれば、投影 LCD19がパターン光を投影している被写体か らの反射光を画像入出力装置 1内において CCD22に結像させることによって被写 体の 3次元形状を検出するために、投影 LCD19の中心と CCD22の中心とを結ぶ一 直線を、三角測量を行う際に着目される 3辺のうちの 1辺として利用することができる。
[0126] また、 CCD22は、投影 LCD19の長手方向に位置する側(画素列が延びる方向に 位置する側)に配置されている。よって、特に、立体画像モードや平面化画像モード において、三角測量の原理を利用して被写体の 3次元形状を検出する場合には、 C CD22と被写体とのなす傾きを 1Z2ピッチで制御することができるため、同様に高精 度に被写体の 3次元形状を検出することができる。
[0127] 本実施形態においては、投影 LCD19が画素配列として千鳥配列を採用するため 、画素列にぉ 、て画素が並ぶ間隔と等しい間隔で複数本のストライプが並んだパタ ーン光、すなわち、千鳥配列を利用せずに形成される複数種類の標準的なパターン 光のうちストライプ間の間隔が最も狭いものよりストライプ間の間隔が狭い別のパター ン光を形成することが可能となる。したがって、本実施形態によれば、標準的なバタ ーン光の種類が n種類である場合に、 (n+ 1)ビットの空間コードを扱うことが可能とな り、このことによつても、被写体の 3次元形状を検出する精度が向上する。
[0128] よって、本実施形態によれば、投影 LCD19における画素ピッチ間の間隔、すなわ ち、投影 LCD19の解像度の割に多数のビットの空間コードを扱うことが可能となる。
[0129] 以下、図 4を参照することにより、 LEDアレイ 17Aの配列をさらに詳しく説明する。 図 4 (a)は、光源レンズ 18から出射する光の 3次元形状を示す側面図である。図 4 (b )は、 1個の LED17から投影 LCD19の入射面 19aに入射した光の照度分布を示す グラフである。図 4 (c)は、 LEDアレイ 17Aの配列を部分的に拡大して示す正面図で ある。図 4 (d)は、複数個の LED17から投影 LCD19の入射面 19aに入射した複数 の光の合成照度分布を示すグラフである。
[0130] 図 4 (a)に示すように、光源レンズ 18からの出射光力 半値拡がり半角 Θが略 5° である状態で、図 4 (b)に示すような照度分布を有する光として、投影 LCD19の入射 面 19aに到達するように光源レンズ 18が設計されて 、る。
[0131] また、図 4 (c)に示すように、複数個の LED17は、投影 LCD19における画素の千 鳥配列に合わせて、基板上 16に千鳥状に配列されている。具体的には、複数個の L ED17がピッチ dで横方向に直列に並んで成る LED列が複数、ピッチ dの 3Z2倍 と等しいピッチで縦方向に並列に並んでいる。さらに、縦方向において互いに隣接す る 2つの LED列は、ピッチ dと等しい長さで、横方向に互いにずらされている。
[0132] すなわち、本実施形態においては、それら LED17の配列が三角格子配列とされ、
V、ずれの LED17も、それに隣接する別の 、ずれの LED 17からもピッチ dと等し!/ヽ距 離離れているのである。
[0133] そして、本実施形態においては、ピッチ dの長さ力 1個の LED17から出射した光 によって投影 LCD19について与えられる照度分布の半値全幅(FWHM (Full Widt h Half Maximun) )以下となるように、予め設定されている。
[0134] よって、本実施形態においては、光源レンズ 18を通過して投影 LCD 19の入射面 1
9aに到達する光の合成照度分布が、図 4 (d)に示すように、小さなリップルを有する 略直線状のグラフで表され、その結果、投影 LCD19の入射面 19aの全体に略均一 に光が照射される。したがって、本実施形態によれば、投影 LCD19における照度む らが抑制され、その結果、画像光が投影面に高品質で投影され、さらに、パターン光 が被写体に高品質で投影される。
[0135] 図 5には、画像入出力装置 1の電気的な構成がブロック図で表されている。処理部
15はコンピュータを主体として構成されており、そのコンピュータは、 CPU35と、 RO
M36と、 RAM37とを含むように構成されている。 [0136] CPU35は、 ROM36に記憶されたプログラムを RAM37を利用しつつ実行するこ とにより、レリーズボタン 8の操作状態の検出、 CCD22からの画像データの取込み、 その取り込まれた画像データの転送および格納、モード切替スィッチ 9の操作状態の 検出等の各種処理を行う。
[0137] ROM36には、カメラ制御プログラム 36aと、パターン光撮影プログラム 36bと、輝度 画像生成プログラム 36cと、コード画像生成プログラム 36dと、コード境界抽出プログ ラム 36eと、レンズ収差補正プログラム 36fと、三角測量演算プログラム 36gと、原稿 姿勢演算プログラム 36hと、平面変換プログラム 36iとが格納されて 、る。
[0138] カメラ制御プログラム 36aは、画像入出力装置 1全体の制御を実行するために実行 され、その制御には、図 6にフローチャートで概念的に表されているメイン処理が含ま れる。
[0139] ノターン光撮影プログラム 36bは、原稿 Pの 3次元形状を検出するためにパターン 光が投影された被写体を撮像してパターン光有画像を取得し、さらに、パターン光が 投影されて ヽな 、被写体を撮像してパターン光無画像を取得するために実行される
[0140] 輝度画像生成プログラム 36cは、パターン光撮影プログラム 36bの実行によって同 じ被写体について取得されたパターン光有画像とパターン光無画像との差分をとり、 ノ ターン光が投影された被写体を表す輝度画像を生成するために実行される。
[0141] 本実施形態においては、同じ被写体に対して複数種類のパターン光が時系列に 順次投影され、各パターン光が投影されるごとに被写体が撮像される。そのようにし て撮像された複数枚のパターン光有画像の各々とパターン光無画像との差分がとら れ、その結果、ノターン光の種類と同数の輝度画像が生成される。
[0142] コード画像生成プログラム 36dは、輝度画像生成プログラム 36cの実行によって生 成された複数枚の輝度画像それぞれに対する閾値処理により生成される 2値化画像 から、各画素毎に空間コードが割り当てられたコード画像を生成するために実行され る。
[0143] 概略的に説明するに、このコード画像生成プログラム 36dが実行されると、複数種 類のパターン光のうちノターンライン間の間隔が最も狭いものが投影された被写体の 輝度画像におけるパターンライン間の間隔が周期として取得され、その周期の輝度 画像全体における分布が周期分布として取得される。このコード画像生成プログラム 36dが実行されると、さらに、その取得された周期分布に従ってサイズが変化する可 変窓が各パターン光ごとの輝度画像にローカルに設定されることにより、前記可変窓 を用いたフィルタ処理により輝度画像全体に対して閾値がローカルに算出されて設 定される。そのようにして設定された閾値の分布を表す閾値画像と各パターン光ごと の輝度画像との関係から、各パターン光ごとに 2値ィ匕画像が生成される。
[0144] コード境界抽出プログラム 36eは、コード画像生成プログラム 36dの実行によって生 成されたコード画像と、輝度画像生成プログラム 36cの実行によって生成された輝度 画像とを利用することにより、コードの境界座標をサブピクセル精度で求めるために 実行される。
[0145] レンズ収差補正プログラム 36fは、コード境界抽出プログラム 36eの実行によってサ ブピクセル精度で求められたコードの境界座標に対して、撮像光学系 20の収差補正 を行うために実行される。
[0146] 三角測量演算プログラム 36gは、レンズ収差補正プログラム 36fの実行によって収 差補正が行われたコードの境界座標から、その境界座標に関する実空間の 3次元座 標を演算するために実行される。
[0147] 原稿姿勢演算プログラム 36hは、三角測量演算プログラム 36gの実行によって演算 された 3次元座標から原稿 Pの 3次元形状を推定して求めるために実行される。
[0148] 平面変換プログラム 36iは、原稿姿勢演算プログラム 36hの実行によって演算され た原稿 Pの 3次元形状に基づき、原稿 Pをその正面力も撮像した場合に生成される如 き平面化画像を生成するために実行される。
[0149] 図 5に示すように、 RAM37には、パターン光有画像格納部 37aと、パターン光無 画像格納部 37bと、輝度画像格納部 37cと、コード画像格納部 37dと、コード境界座 標格納部 37eと、収差補正座標格納部 37gと、 3次元座標格納部 37hと、原稿姿勢 演算結果格納部 37iと、平面変換結果格納部 37jと、投影画像格納部 37kと、ヮーキ ングエリア 371と、周期分布格納部 37pと、閾値画像格納部 37qと、 2値化画像格納 部 37rとがそれぞれ記憶領域として割り当てられて ヽる。 [0150] ノターン光有画像格納部 37aは、パターン光撮影プログラム 36bの実行によって撮 像されたパターン光有画像を表すパターン光有画像データを格納する。パターン光 無画像格納部 37bは、パターン光撮影プログラム 36bの実行によって撮像されたパ ターン光無画像を表すパターン光無画像データを格納する。
[0151] 輝度画像格納部 37cは、輝度画像生成プログラム 36cの実行によって生成された 輝度画像を表すデータを格納する。コード画像格納部 37dは、コード画像生成プロ グラム 36dの実行によって生成されたコード画像を表すデータを格納する。コード境 界座標格納部 37eは、コード境界抽出プログラム 36eの実行によってサブピクセル精 度で抽出された各コードの境界座標を表すデータを格納する。
[0152] 収差補正座標格納部 37gは、レンズ収差補正プログラム 36fの実行によって収差 補正が行われたコードの境界座標を表すデータを格納する。 3次元形状座標格納部 37hは、三角測量演算プログラム 36gの実行によって演算された実空間の 3次元座 標を表すデータを格納する。
[0153] 原稿姿勢演算結果格納部 37iは、原稿姿勢演算プログラム 36hの実行によって演 算された原稿 Pの 3次元形状に関するパラメータを格納する。平面変換結果格納部 3 7jは、平面変換プログラム 36iの実行によって取得された平面変換結果を表すデー タを格納する。投影画像格納部 37kは、投影部 13が被写体に投影する投影画像す なわちパターン光に関する情報を格納する。ワーキングエリア 371は、 CPU35がその 動作のために一時的に使用するデータを格納する。
[0154] 周期分布格納部 37p、閾値画像格納部 37qおよび 2値ィ匕画像格納部 37rは、コー ド画像生成プログラム 36dの実行によって取得された周期分布、閾値画像および 2値 化画像を表すデータをそれぞれ格納する。
[0155] ここで、図 6を参照することにより、カメラ制御プログラム 36aを説明する。このカメラ 制御プログラム 36aが前記コンピュータによって実行されることにより、前述のメイン処 理が実行される。
[0156] このメイン処理においては、まず、ステップ S601 (以下、単に「S601」で表す。他の ステップについても同じとする。)において、ノ ッテリ 26を含む電源が ONされる。次に 、 S602において、処理部 15、周辺インタフェース等が初期化される。 [0157] 続いて、 S603において、モード切替スィッチ 9の操作状態を判別するためにキース キャンが行われ、その後、 S604において、モード切替スィッチ 9の操作によってデジ カメモードが選択されたか否かが判定される。今回は、デジカメモードが選択されたと 仮定すれば、判定が Yesとなり、 S605において、後述のデジカメ処理が実行される。
[0158] これに対し、今回は、モード切替スィッチ 9の操作によってデジカメモードが選択さ れなかったと仮定すれば、 S604の判定力 SNoとなり、 S606において、モード切替ス イッチ 9の操作によって webcamモードが選択されたか否かが判定される。今回は、 webcamモードが選択されたと仮定すれば、判定が Yesとなり、 S607において、後 述の webcam処理が実行される。
[0159] これに対し、今回は、モード切替スィッチ 9の操作によって webcamモードが選択さ れなかったと仮定すれば、 S606の判定力 SNoとなり、 S608において、モード切替ス イッチ 9の操作によって立体画像モードが選択された力否かが判定される。今回は、 立体画像モードが選択されたと仮定すれば、判定が Yesとなり、 S609において、後 述の立体画像処理が実行される。
[0160] これに対し、今回は、モード切替スィッチ 9の操作によって立体画像モードが選択さ れなかったと仮定すれば、 S608の判定力 SNoとなり、 S610において、モード切替ス イッチ 9の操作によって平面化画像モードが選択された力否かが判定される。今回は 、平面化画像モードが選択されたと仮定すれば、判定が Yesとなり、 S611において、 後述の平面化画像処理が実行される。
[0161] これに対し、今回は、モード切替スィッチ 9の操作によって平面化画像モードが選 択されなかったと仮定すれば、 S610の判定力 SNoとなり、 S612において、モード切 替スィッチ 9の操作によってオフモードが選択された力否かが判定される。今回は、 モード切替スィッチ 9の操作によってオフモードが選択されたと仮定すれば、判定が Yesとなり、直ちに今回のメイン処理が終了する力 今回は、モード切替スィッチ 9の 操作によってオフモードが選択されな力つたと仮定すれば、判定が Yesとなり、 S603 に戻る。
[0162] 図 7には、図 6における S605がデジカメ処理ルーチンとしてフローチャートで概念 的に表されている。このデジカメ処理ルーチンの実行により、撮像部 14によって撮像 された画像を取得するデジカメ処理が実行される。
[0163] このデジカメ処理においては、まず、 S701において、 CCD22に高解像度設定信 号が送信される。これにより、高品質の撮像画像をユーザに提供することができる。
[0164] 次に、 S702において、ファインダ画像、すなわち、ファインダ 6を通して見える範囲 の画像と同じ画像がモニタ LCD10に表示される。よって、ユーザは、ファインダ 6をの ぞき込むことなぐモニタ LCD10に表示された画像を見ることにより、実際の撮像前 に、撮像画像 (撮像範囲)を確認することができる。
[0165] 続いて、 S703aにおいて、レリーズボタン 8の操作状態がスキャンされ、その後、 S7 03bにおいて、そのスキャン結果に基づき、レリーズボタン 8が半押し状態にある力否 かが判定される。半押し状態にあれば、判定が Yesとなり、 S703cにおいて、オートフ オーカス (AF)および自動露出 (AE)機能が起動し、それにより、ピント、絞りおよびシ ャッタスピードが調節される。 S703bにおいては、レリーズボタン 8が半押し状態に移 行しているか否かが判定され、移行していなければ、この S703bの判定が Noとなつ て S703aに戻る。
[0166] S703cの実行後、 S703dにおいて、再度、レリーズボタン 8の操作状態がスキャン され、その後、 S703eにおいて、そのスキャン結果に基づき、レリーズボタン 8が全押 し状態にある力否かが判定される。この S703eにおいては、レリーズボタン 8が全押し 状態に移行しているか否かが判定され、移行していなければ、この S703eの判定が Noとなって S703aに戻る。
[0167] レリーズボタン 8が半押し状態力も全押し状態に移行すれば、 S703eの判定が Yes となり、 S704において、フラッシュモードが選択されている力否かが判定される。フラ ッシュモードが選択されていれば、判定が Yesとなり、 S705において、フラッシュ 7が 発光させられる力 フラッシュモードが選択されていなければ、 S704の判定力Noと なり、 S705力 Sスキップされる。
[0168] いずれにしても、その後、 S706において、被写体が撮像される。続いて、 S707に ぉ 、て、被写体が撮像された撮像画像が CCD22からキャッシュメモリ 28に転送され て記憶される。その後、 S708〖こおいて、キャッシュメモリ 28に記憶された撮像画像が モニタ LCD10に表示される。本実施形態においては、撮像画像がキャッシュメモリ 2 8に転送されるため、メインメモリに転送される場合に比較して、撮像画像を高速にモ ユタ LCD10に表示させることができる。続いて、 S709において、その撮像画像が外 部メモリ 27に格納される。
[0169] その後、 S710において、モード切替スィッチ 9の操作状態に変化が無いか否かが 判定される。変化が無ければ、判定が Yesとなり、 S702に戻る力 変化が有れば、 S
710の判定力 SNoとなり、今回のデジカメ処理が終了する。
[0170] 図 8には、図 6における S607が webcam処理ルーチンとしてフローチャートで概念 的に表されている。この webcam処理ルーチンの実行により、撮像部 14によって撮 像された撮像画像 (静止画および動画を含む。 )を外部ネットワークに送信する webc am処理が実行される。本実施形態においては、撮像画像として動画が、図示しない 外部ネットワーク (例えば、インターネット)に送信される場合が想定されている。
[0171] この webcam処理においては、まず、 S801において、 CCD22に低解像度設定信 号が送信される。次に、 S802において、オートフォーカスおよび自動露出の機能が 起動し、それにより、ピント、絞りおよびシャツタスピードが調節される。続いて、 S803 において、被写体が撮像される。
[0172] その後、 S804において、撮像された撮像画像力CCD22からキャッシュメモリ 28に 転送され、続いて、 S805において、その撮像画像がモニタ LCD10に表示される。
[0173] その後、 S806において、その撮像画像が投影画像格納部 37kに格納される。続い て、 S807において、後述の投影処理が実行され、それにより、投影画像格納部 37k に格納されて ヽる画像が投影面に投影される。
[0174] その後、 S808において、キャッシュメモリ 28に転送された撮像画像が図示しない R
Fインタフェースを介して前記外部ネットワークに送信される。
[0175] 続いて、 S809において、モード切替スィッチ 9の操作状態に変化が無いか否かが 判定される。変化が無ければ、判定が Yesとなり、 S802に戻る力 変化が有れば、 S
809の判定力 SNoとなり、今回の webcam処理が終了する。
[0176] 図 9には、図 8における S807が投影ルーチンとしてフローチャートで概念的に表さ れている。この投影ルーチンの実行により、投影画像格納部 37kに格納されている画 像を投影部 13から投影面に投影する投影処理が実行される。 [0177] この投影処理においては、まず、 S901において、投影画像格納部 37kに画像が 格納されている力否かが判定される。格納されていない場合には、判定が Noとなり、 直ちに今回の投影処理が終了する。これに対し、格納されている場合には、判定が Yesとなり、 S902において、投影画像格納部 37kに格納されている画像が投影 LC Dドライバ 30に転送される。続いて、 S903において、その格納されている画像に応じ た画像信号が投影 LCDドライバ 30から投影 LCD19に送出され、それにより、その投 影 LCD 19に画像が表示される。
[0178] その後、 S904において、光源ドライバ 29が駆動され、続いて、 S905において、そ の光源ドライバ 29からの電気信号によって LEDアレイ 17Aが発光する。以上で、今 回の投影処理が終了する。
[0179] LEDアレイ 17Aから発光した光は、光源レンズ 18を経て投影 LCD19に到達する。
その投影 LCD19においては、投影 LCDドライバ 30から送信された画像信号に応じ た空間変調が施され、その結果、投影 LCD19への入射光が画像信号光に変換され て出力される。その投影 LCD19から出力される画像信号光は、投影光学系 20を経 て投影面に投影画像として投影される。
[0180] 図 10には、図 6における S609が立体画像処理ルーチンとしてフローチャートで概 念的に表されている。この立体画像処理ルーチンの実行により、被写体の 3次元形 状を検出し、その立体画像としての 3次元形状検出結果画像を取得し、表示し、投影 する立体画像処理が実行される。
[0181] この立体画像処理においては、まず、 S1001において、 CCD22に高解像度設定 信号力 s送信される。次に、 S1002ないし S1003h力 図 7における S702ないし S70 6と同様にして実行される。
[0182] 具体的には、 S1002において、モニタ LCD10にファインダ画像が表示される。続 いて、 S1003aにおいて、レリーズボタン 8の操作状態がスキャンされ、その後、 S10 03bにおいて、そのスキャン結果に基づき、レリーズボタン 8が半押し状態にある力否 かが判定される。半押し状態にあれば、判定が Yesとなり、 S1003cにおいて、オート フォーカス (AF)および自動露出 (AE)機能が起動する。
[0183] S1003cの実行後、 S1003dにおいて、再度、レリーズボタン 8の操作状態がスキヤ ンされ、その後、 S 1003eにおいて、そのスキャン結果に基づき、レリーズボタン 8が 全押し状態にあるカゝ否かが判定される。
[0184] レリーズボタン 8が半押し状態力も全押し状態に移行すれば、 S1003eの判定が Ye sとなり、 S 1003fにおいて、フラッシュモードが選択されているか否かが判定される。 フラッシュモードが選択されていれば、判定が Yesとなり、 S1003gにおいて、フラッシ ュ 7が発光させられる力 フラッシュモードが選択されていなければ、 S1003fの判定 力 SNoとなり、 S1003g力 Sスキップされる。いずれにしても、その後、 S 1003hにおいて 、被写体が撮像される。
[0185] 続いて、 S1006において、後述の 3次元形状検出処理が実行され、それにより、被 写体の 3次元形状が検出される。
[0186] その後、 S 1007において、その 3次元形状検出処理による 3次元形状検出結果が 外部メモリ 27に格納され、続いて、 S 1008において、その 3次元形状検出結果が 3 次元コンピュータグラフィック画像としてモニタ LCD10に表示される。ここに、 3次元 形状検出結果とは、後述の空間コード画像において検出される複数の空間コード境 界画像を 3次元座標に変換した結果取得される頂点座標の集合体を意味する。
[0187] その後、 S 1009において、その 3次元形状検出結果としての複数個の計測頂点を 通過するポリゴン図形が想定され、その想定されたポリゴン図形のサーフェスを表現 する立体画像 (3次元のコンピュータグラフィック画像)としての 3次元形状検出結果 画像が投影画像格納部 37kに格納される。
[0188] 続いて、 S1010において、図 8における S806の投影処理と同様な投影処理が実 行される。
[0189] その後、 S 1011において、モード切替スィッチ 9の操作状態に変化が無いか否か が判定される。変化が無ければ、判定が Yesとなり、 S1002に戻るが、変化が有れば 、 S1011の判定力 SNoとなり、今回の立体画像処理が終了する。
[0190] 図 10の S 1006において実行される 3次元形状検出処理においては、空間コードィ匕 法を用いて被写体の 3次元形状が検出される。以下、図 11を参照することにより、空 間コード化法を説明する。図 11 (a)には、 3次元座標系 XYZが設定された実空間を Y座標軸方向に見た図と、 X座標軸方向に見た図と、純 2進コードによる 3種類のマス ク A, Bおよび Cのパターンとが示されている。これに対し、図 11 (b)には、グレイコ一 ドによる 3種類のマスク A, Bおよび Cのパターンと、複数個の空間コードとが示されて いる。
[0191] 図 11 (a)に示すように、空間コード化法は、観察対象である被写体の像である観察 画像と、その被写体に光 (拡散光)を投影する投影光源 (例えば、プロジェクタ)と、被 写体を観測する観測器 (例えば、カメラ)との間に三角測量の原理を適用することによ つて被写体の 3次元形状を検出する手法の一種である。この空間コードィ匕法におい ては、図 11 (a)に示すように、投影光源 L (PROJECTOR)と観測器 O (CAMERA)とが 距離 dだけ離して設置される。したがって、観測空間内の任意の点 Pは、投影光の向 き Φと、観測器 O力 見える向き Θとが計測できれば、特定できる。この空間コードィ匕 法においては、さらに、被写体表面上の任意の位置を特定するため、観測空間が複 数個の細長!/ヽ扇状領域に分割されてコード化されて!/、る。
[0192] 被写体表面上の任意の位置のコードを観測画像力 取得するために、複数種類の ストライプ状のパターン光が時系列的に被写体に投影される。パターン光の切換えは 、ノターン光の種類と同数のマスクを用意し、マスクを機械的に交換する機械式とし て実施したり、電気光学効果を有する材料を用いてストライプ状の光シャツタ列を構 成し、その光シャツタ列における各ストライプの光透過率を電子的に制御する電子式 として実施することが可能である。もっとも、本実施形態においては、後者の電子式が 採用され、具体的には、投影 LCD19によって複数種類のマスクパターンが時系列 的に再現すなわち表示される。
[0193] 図 11 (a)に示す例においては、投影光源 Lと被写体(四角柱と円柱)との間にマス クが交換可能に設置される。この例においては、パターンが互いに異なる 3種類のマ スク A, Bおよび Cが用意されており、よって、 3種類のパターン光が時系列的に被写 体に投影される。
[0194] 各マスク A, B, Cによって生成されたパターン光を被写体に投影すると、 8個の扇 状領域のそれぞれが、明領域「1」と暗領域「0」とのいずれかにコード化される。 3枚 のマスク A, B, Cを経た光をそれらの順に被写体に投影すると、各扇状領域には、 3 ビットから成るコードが割り当てられる。それら 3ビットは、最初のマスク Aに対応する最 上位ビット MSBから、最後のマスク Cに対応する最下位ビット LSMまで順に並んで いる。例えば、図 11 (a)に示す例においては、点 Pが属する扇状領域は、マスク A, B によって光が遮られるのに対し、マスク Cによってのみ光が通過して明領域になるた め、「001 (A = 0、 B = 0、 C= 1)」としてコード化される。
[0195] このように、各扇状領域には、投影光源 Lからの向き φに相当するコードが割り当て られる。一方、各パターン光が投影された被写体の明暗パターンを各マスクごとに 2 値化してメモリの各ビットプレーンを構成すれば、各ビットプレーン画像の横方向の位 置(アドレス)は、観測器 Oからの向き Θに相当する。また、 3枚のマスクにそれぞれ対 応する 3枚のビットプレーンのメモリ内容を各ビット(各画素)ごとに注目すれば、各画 素ごとに 3ビットのコードが取得される。このコードから、各扇状領域の投影光源しから の向き φが特定される。そして、距離 dが既知である状況において、向き φおよび Θ が特定されれば、三角測量の原理により、被写体表面上の注目点の 3次元座標が特 定される。
[0196] 図 11 (a)には、マスク A, Bおよび Cの如き複数のマスクを用いることにより、空間を 純 2進コードを用いてコード化する例が示されているが、図 11 (b)には、マスク A, B および Cの如き複数のマスクを用いることにより、隣接するコード間のノ、ミング距離が 常に 1であるグレイコードを空間コードとして用いて空間をコードィ匕する例が示されて いる。
[0197] 本実施形態においては、前述の 3次元形状検出処理において、純 2進コードによる 空間コードィ匕法を採用しても、グレイコードによる空間コードィ匕法を採用してもよい。
[0198] この空間コードィ匕法の詳細は、例えば、佐藤宏介、他 1名、「空間コードィ匕による距 離画像入力」、電子通信学会論文誌、 85Z3Vol. J 68— D No3 p369〜375に 詳細に開示されている。
[0199] 図 12 (a)には、図 10における S1006が 3次元形状検出処理ルーチンとしてフロー チャートで概念的に表されている。
[0200] この 3次元形状検出処理ルーチンにおいては、まず、 S1210において、撮像処理 が実行される。この撮像処理が実行されれば、例えば、図 11 (b)に示す複数枚のグ レイコードのマスクパターンを利用して投影部 13からストライプ状のパターン光(図 1 参照)が時系列的に被写体に投影される。さらに、複数種類のパターン光が投影され て 、る被写体をそれぞれ撮像した複数枚のパターン光有画像と、パターン光が投影 されていない同じ被写体を撮像した 1枚のパターン光無画像とが取得される。
[0201] 撮像処理が終了すると、 S1220において、 3次元計測処理が実行される。この 3次 元計測処理が実行されると、上述の撮像処理によって取得された複数枚のパターン 光有画像と 1枚のパターン光無画像とが利用されて、実際に被写体の 3次元形状が 計測される。この 3次元計測処理が終了すると、今回の 3次元形状検出処理が終了 する。
[0202] 図 12 (b)には、図 12 (a)における S1210が撮像処理サブルーチンとしてフローチ ヤートで概念的に表されている。
[0203] この撮像処理サブルーチンにおいては、まず、 S1211において、パターン光撮影 プログラム 36aの実行により、投影部 13からパターン光を被写体に投影することなぐ 撮像部 14によって被写体を撮像することにより、 1枚のパターン光無画像が取得され る。その取得されたパターン光無画像はパターン光無画像格納部 37bに格納される
[0204] 次に、 S1212において、パターン光を形成するために使用されるマスクパターンの 番号を表すパターン番号 PNが 0に初期化される。続いて、 S1213において、そのパ ターン番号 PNの現在値が最大値 PNmaxより小さ 、か否かが判定される。その最大 値 PNmaxは、使用されるマスクパターンの合計数に応じて決定される。例えば、 8種 類のマスクパターンが使用される場合には、最大値 PNmaxが 8に設定される。
[0205] 今回は、パターン番号 PNの現在値が最大値 PNmaxより小さいと仮定すれば、 S1 213の判定力 S Yesとなり、その後、 S 1214において、使用される複数種類のマスクパ ターンのうち、パターン番号 PNの現在値と等しい番号が付された PN番目のマスクパ ターンが投景 LCD 19に表示される。この S1214においては、さらに、その PN番目 のマスクパターンによって形成される PN番目のパターン光が被写体に投影される。 続いて、 S1215において、その PN番目のパターン光が投影されている被写体が撮 像部 14によって撮像される。
[0206] その撮像により、 PN番目のパターン光が投影されて ヽる被写体を撮像した PN番 目のパターン光有画像が取得される。その取得されたパターン光有画像は、対応す るパターン番号 PNに関連付けてパターン光有画像格納部 37aに格納される。
[0207] その撮像が終了すると、 S1216において、 PN番目のパターン光の投影が終了し、 続いて、 S1217において、次のパターン光を投影すベぐパターン番号 PNが 1だけ インクリメントされ、その後、 S1213に戻る。
[0208] S 1213な!、し S 1217の実行がパターン光の種類の数と同数回繰り返された結果、 パターン番号 PNの現在値が最大値 PNmaxより小さくはない値になると、 S1213の 判定が Noとなり、今回の撮像処理が終了する。したがって、一回の撮像処理により、 1枚のパターン光無画像と、最大値 PNmaxと同数枚のパターン光有画像とが取得さ れること〖こなる。
[0209] 図 12 (c)には、図 12 (a)における S1220が 3次元計測処理サブルーチンとしてフロ 一チャートで概念的に表されている。
[0210] この 3次元計測処理サブルーチンにおいては、まず、 S1221において、輝度画像 生成プログラム 36cの実行により、輝度画像が生成される。この S1221においては、 輝度値が、 YCbCr空間における Y値として定義されており、各画素の RGB値より、 Y =0. 2989 -R+O. 5866 -G + 0. 1145 · Bなる式を用いて計算される。各画素につ いて Y値を求めることにより、複数枚のパターン光有画像と 1枚のパターン光無画像と に関する複数枚の輝度画像が生成される。それら生成された輝度画像は、パターン 番号 PNに関連付けて輝度画像格納部 37cに格納される。ただし、輝度値の算出に 用いられる式は、上記式に限定されるものではなぐ他の式に適宜変更することが可 能である。
[0211] 次に、 S1222において、コード画像生成プログラム 36dが実行される。このコード画 像生成プログラム 36dが実行されると、生成された複数枚の輝度画像が前述の空間 コードィ匕法を利用して組み合わされることにより、各画素ごとに空間コードが割り当て られたコード画像が生成される。そのコード画像は、輝度画像格納部 37cに格納され た複数種類のパターン光有画像に関する輝度画像と、各画素ごとに輝度閾値が割り 当てられた閾値画像との比較による 2値ィ匕処理によって生成される。その生成された コード画像はコード画像格納部 37dに格納される。 [0212] 図 13には、このコード画像生成プログラム 36dの詳細がフローチャートで概念的に 表されている。以下、図 13を参照することにより、このコード画像生成プログラム 36d を時系列的に説明するが、それに先立ち、図 14ないし図 21を参照することにより、原 理的に説明する。
[0213] 本実施形態においては、同じ被写体 (3次元対象物)にっき、複数種類のパターン 光のもとにそれぞれ複数枚の輝度画像が生成される。それらパターン光はいずれも、 明部、すなわち、幅を有する明るいパターンラインと、暗部、すなわち、幅を有する暗 いパターンラインとが交互に一定の周期で繰り返すように形成される。それらパターン 光は、その周期に関して互いに異なっており、それぞれ、パターン番号 PNを有する ノターン光と称される。それらパターン光のうち最も短 、周期を有するパターン光が、 パターン番号 PNが 0であるパターン光であり、最も長い周期を有するパターン光が、 パターン番号 PNが(PNmax— 1)であるパターン光である。
[0214] いずれの輝度画像も、対応するパターン光のもとに取得されるため、例えば図 14に 示すように、明部としての明るいパターンラインと、暗部としての暗いパターンラインと が交互に並んで成るパターン画像として形成される。ノターンライン間の間隔すなわ ち周期は、画像入出力装置 1と被写体との間における相対的な幾何学的関係 (位置 および向きに関する関係)に依存するため、各輝度画像内のすべての位置において 一定であるとは限らない。複数種類のパターン光のもとにそれぞれ取得される複数枚 の輝度画像は、対応するパターン光のパターン番号 PNを用いて特定される。
[0215] 本実施形態においては、それら複数枚の輝度画像のうちのいずれかが代表パター ン画像に選択される。その代表パターン画像の一典型例は、複数種類のパターン光 のうちパターンライン周期が最小であるものに対応する輝度画像であり、これは、パタ ーン番号 PNが 0である輝度画像である。図 14には、パターン番号 PNが 0である輝 度画像が代表パターン画像の一例として示されている。
[0216] 図 15には、パターン光が投影された被写体を撮像した輝度画像の一例において 輝度値が画素列の方向において空間的にかつ周期的に変化する様子が説明の便 宜上強調されて実線グラフで表されて ヽる。
[0217] 図 15には、さらに、その実線グラフにそれの複数個の下ピーク点(最低輝度点)に おいて接する包絡線が二点鎖線グラフで表されている。この包絡線は、同じ被写体 を無照射状態で撮像した輝度画像における輝度値、すなわち、被写体の背景光の 輝度値の空間的変化を表している。このような包絡線が存在する輝度画像について は、各画素の輝度値を閾値処理によって正確に 2値ィ匕するためには、閾値を画素位 置に応じて変化させることが望ましい。すなわち、輝度画像の実際の輝度値変化をト ラッキングすることによって閾値を適応的に変化させることが望ましいのである。
[0218] このような知見に基づき、本実施形態においては、輝度画像に対してフィルタ処理 を行うことによって閾値を算出するフィルタ窓がローカルに設定され、フィルタ処理さ れることによりその位置に適した閾値力 輝度画像に対してローカルに設定される。 輝度画像のうちのあるローカル位置に窓が設定されれば、輝度画像を構成する複数 本のパターンラインのうちその窓内に存在する画素の輝度値が取り出されて参照さ れることにより、そのあるローカル位置に対応する閾値が設定される。
[0219] 本実施形態において使用される窓は、方形窓である。この方形窓を採用する場合 には、その方形窓内に存在する複数本のパターンラインを構成する画素の輝度値が 取り出され、それら輝度値に対して同一の重み係数が用いられて閾値が算出される 。その重み係数により、方形窓の窓関数が定義される。
[0220] さらに、方形窓を採用する場合には、その方形窓の、パターンラインが延びるライン 方向におけるライン方向サイズに応じて、その方形窓内にぉ 、てライン方向に存在 する画素の数を可変とすることができる。一方、その方形窓の、複数本のパターンライ ンが列を成して並ぶ列方向における列方向サイズに応じて、その方形窓内において 列方向に存在するパターンラインの数も画素の数も可変とすることができる。
[0221] したがって、方形窓を採用する場合には、その方形窓の列方向サイズにより、輝度 画像に窓を設定することによってその輝度画像力 算出される閾値が変化することに なる。よって、その閾値を適応的に変化させることが必要である場合には、方形窓の 列方向サイズを適応的に変化させればょ 、。
[0222] もっとも、本実施形態において採用される窓を、ハニング窓、ハミング窓等、非方形 窓に変更することが可能である。この非方形窓を採用する場合には、その非方形窓 を定義する窓関数中の係数 (例えば、可変係数のマトリクス)により、輝度画像に対し て設定された窓を用いたフィルタ処理によってその輝度画像力も算出される閾値の 特性を変化させることができる。例えば、非方形窓を採用する場合には、その非方形 窓のライン方向サイズも列方向サイズも固定しても、上記係数を適応的に変化させれ れば、輝度画像に対して設定された非方形窓を用いたフィルタ処理によってその輝 度画像力も算出される閾値の特性を変化させることができる。
[0223] 本実施形態においては、方形窓として構成される窓のサイズが、その窓内に存在 するパターンラインの数がそれらパターンラインの間隔すなわち周期(例えば、明るい ノターンラインが繰り返される周期)の整数倍であるように設定することが望ま 、。 すなわち、窓内に、明るいパターンラインと暗いパターンラインとが同数ずつ存在する ように窓のサイズを設定することが望ましいのである。このように設定すれば、窓内に 存在する複数本のパターンラインの輝度値の平均値を算出することにより、望ましい 閾値を高精度に取得することができる。
[0224] しかしながら、同じ輝度画像上であっても、パターンラインの周期は場所によって異 なる可能性がある。そのため、窓のサイズを固定した場合には、窓内に存在するパタ ーンラインの数が場所によって変動してしま 、、閾値の設定精度が低下してしまう。
[0225] 図 14には、ある輝度画像において、それを構成する複数本のパターンラインが列 を成す列方向に並んだ 2つの部分がそれぞれ「A」および「B」という記号で示されて いる。図 16 (a)には、図 14中、部分 Aにおける複数本のパターンラインのうちの一部 が取り出されて拡大されて示されている。その部分 Aにおいては、同色のパターンラ インがある周期で並んでいる。これに対し、図 16 (b)には、図 14中、部分 Bにおける 複数本のパターンラインのうちの一部が取り出されて拡大されて示されて!/、る。その 部分 Bにおいては、同色のパターンラインが正規の周期とは異なる周期、具体的に は、上記ある周期より短い周期で並んでいる。
[0226] 図 16 (a)および (b)には、本実施形態との比較例として、サイズが固定された固定 窓であって、図 14に示す輝度画像に対して設定されるものが、説明の便宜上可視化 されて示されている。図 16 (a)には、図 14における部分 Aが部分的に拡大して示さ れており、この部分 Aにおいては、固定窓内に存在する同色のパターンラインの数が ほぼちようど 2本である。これに対し、図 16 (b)には、図 14における部分 Bが部分的に 拡大して示されており、この部分 Bにおいては、固定窓内に存在する同色のパターン ラインの数が 2本よりは多ぐ 3本よりは少ない。
[0227] そのため、図 16 (a)に示す部分 Aについては、固定窓によって捕捉される複数個 の画素の輝度値の平均値として算出された閾値力 図 17にグラフで表すように、輝 度画像の列方向に関して安定している。これに対し、図 16 (b)に示す部分 Bについ ては、窓によって捕捉される複数個の画素の輝度値の平均値として算出された閾値 力 図 18にグラフで表すように、輝度画像の列方向に関して振動している。暗部また は明部の包絡の形状に合った閾値が算出されることが望ましぐ閾値の算出値が振 動することは、通常、閾値の算出値が誤差を含んでいることを意味し、よって、そのよ うな閾値の算出値を用いて輝度画像を 2値ィ匕しても、その 2値ィ匕の精度を向上させる ことは困難である。
[0228] 本実施形態においては、複数枚の輝度画像のうち、ノターンラインの周期が最小 であるパターン光のもとに撮像されたもの、すなわち、パターン番号 PNが 0である輝 度画像が代表パターン画像として選択される。さらに、本実施形態においては、図 19 に示すように、その代表パターン画像に対してローカルに設定される窓 VWが、それ のサイズが可変である可変窓として構成されている。それにより、その可変窓 VWの サイズが、代表パターン画像の実際のパターンライン周期に適応して変化させられる
[0229] したがって、本実施形態によれば、図 19に示すように、代表パターン画像における ノターンライン周期が列方向位置に応じて変動しても、それに追従するように可変窓 VWのサイズが変更され、その結果、パターンライン周期の変動にもかかわらず、可 変窓 VW内に存在する明部と暗部のパターンラインの数が一定に維持される。本実 施形態においては、代表パターン画像に対して可変窓 VWが設定される各ローカル 位置ごとに閾値 THが取得される。各ローカル位置ごとの閾値 THは、各ローカル位 置に最適なサイズを有する可変窓 VWのもとに精度よく取得されること〖こなる。
[0230] また、明部と暗部のパターンラインの数が一定に維持されるような可変窓 VWのサイ ズは、パターン番号 PNが 0である輝度画像において最小となる。したがって、パター ン番号 PNが 0である輝度画像を代表パターン画像として選択することにより、最小の 可変窓 VWのサイズが可能になり、可変窓 VWを用いた後のフィルタ処理の計算負 荷を抑えることが可能になる。
[0231] 本実施形態においては、その可変窓 VWが、サイズが可変である方形窓として構成 されている。その可変窓 VWのサイズは、代表パターン画像の列方向には可変であ る力 ライン方向には固定であるように設定されて 、る。
[0232] 本実施形態にぉ ヽては、その可変窓 VWのサイズ、すなわち、代表パターン画像の 列方向におけるサイズが、その代表パターン画像の実際のパターンライン周期を適 応的に反映するように設定される。そのため、可変窓 VWのサイズを設定するために
、代表パターン画像の実際のパターンライン周期分布が事前に判明していることが必 要である。
[0233] よって、本実施形態においては、可変窓 VWのサイズの設定に先立ち、サイズが固 定された固定窓が代表パターン画像に対して設定される。その設定された固定窓に よって捕捉される複数個の連続画素が複数個の注目画素として選択され、それら選 択された注目画素の輝度値に基づき、代表パターン画像の実際のノターンライン周 期分布が取得される。
[0234] 図 20には、代表パターン画像のパターンライン周期分布を取得するためにその代 表パターン画像に対して固定窓が設定される様子の一例が示されて 、る。この代表 ノターン画像においては、複数個の画素が、代表パターン画像のライン方向と列方 向とに沿って平面的に並んで!/、る。
[0235] この代表パターン画像においては、列方向に並んだ複数個の画素が順次、注目画 素に選定され、各注目画素ごとに固定窓が設定される。この固定窓は、 256個の画 素を捕捉するサイズを有しており、各注目画素を中心としてそれの前後に跨るように 代表パターン画像に対して設定される。図 20の例においては、注目画素の上下にそ れぞ; ί! ^立置する 2本の矢印によって 1個の固定窓が概念的に表されている。
[0236] 本実施形態においては、さらに、代表パターン画像における複数個の注目画素の 輝度値に対して FFT(Fast Fourier Transform :高速フーリエ変換)処理が施され、そ れにより、代表パターン画像の列方向において輝度値変化の周波数成分のそれぞ れについて強度 (例えば、パワースペクトル)が取得される。ここに、「周波数成分」は 、 1個の固定窓によって捕捉される複数個の注目画素を列方向に迪つた場合に、輝 度値の変化が反復される反復回数を意味する。
[0237] 図 21には、その FFT処理による周波数分析結果の一例がグラフで表されている。
図 21においては、横軸に、周波数 (反復回数)が取られており、一方、縦軸に、パヮ 一スペクトルが取られている。図 21には、各々強度極大値を有する複数の空間周波 数が存在することがグラフで表されており、これが、前記(1)項における「空間周波数 特性」の一例である。
[0238] 図 21に示す例は、 256個の画素が連続する今回の領域において、同じ輝度値が 7 回反復的に出現する傾向が最大であったことを示している。このことは、同色のパタ ーンラインが、 256Z7、すなわち、約 37画素分の長さをパターンライン周期として反 復する傾向が最大であったことを意味する。したがって、前述の可変窓 VWのサイズ は、例えば、パターンライン周期に相当する約 37画素分の長さに設定したり、パター ンライン周期の 2倍に相当する約 73画素分の長さ、またはパターンライン周期の整数 倍の長さに設定することが望ま 、。
[0239] なお付言するに、本実施形態においては、代表パターン画像のパターンライン周 期を取得するためにフーリエ変換が実施されるが、フーリエ変換を用いない他のアブ ローチによってパターンライン周期を取得することが可能である。例えば、各注目画 素ごとに、それの列方向前後近傍に位置する設定複数個の連続画素に注目し、そ の注目されて 、る複数個の連続画素が持って 、るそれぞれの輝度値にぉ 、て極大 値が反復的に出現する間隔を画素数を単位として求め、その求められた間隔からパ ターンライン周期を取得することが可能である。
[0240] さらに付言するに、本実施形態においては、代表パターン画像において列方向に 連続的に並んだ複数個の連続画素のそれぞれが順次注目画素に選定され、その選 定された各注目画素ごとにパターンライン周期が、代表パターン画像の輝度値分布 に基づいて取得される。
[0241] これに対し、パターンライン周期を取得する別のアプローチによれば、代表パター ン画像において列方向に連続的に並んだ複数個の連続画素から、少なくとも 1画素 おきに並んだ複数個の離散画素が選択される。それら選択された複数個の離散画 素のそれぞれが順次注目画素に選定され、その選定された各注目画素ごとにパター ンライン周期が、代表パターン画像の輝度値分布に基づいて取得される。複数個の 連続画素のうち、注目画素として選定されな力つた複数個の非注目画素のそれぞれ のパターンライン周期は、各非注目画素に隣接する注目画素について取得されたパ ターンライン周期を参照 (例えば、補間)することにより、取得される。このアプローチ によれば、複数個の連続画素のすべてについてそれぞれ、いちいち複雑な演算をし なくても、パターンライン周期が取得される。
[0242] また、パラメータが可変である窓を用いる場合には、算出されたパターンライン周期 分布を元に、パターンライン周期を遮断周期として、窓のパラメータが決定される。遮 断周期から窓のパラメータを決定するためには、広く一般に知られているデジタル口 一パスフィルタ設計手法を用いればょ 、。
[0243] 以上、図 14ないし図 21を参照することにより、このコード画像生成プログラム 36dを 原理的に説明した力 以下、図 13を参照することにより、時系列的に説明する。
[0244] このコード画像生成プログラム 36dにおいては、まず、 S101において、パターン番 号 PNが 0であるパターン光が投影された被写体が撮像された輝度画像が輝度画像 格納部 37cから、代表パターン画像として読み込まれる。
[0245] 次に、 S 102において、その代表パターン画像につき、前記読み込まれた輝度画像 に基づき、前述の FFT変換によるアプローチにより、代表パターン画像において列 方向に連続的に並んだ各画素ごとにパターンライン周期が演算される。演算された 複数個のパターンライン周期は各画素 (各列方向画素位置)に関連付けて周期分布 格納部 37pに格納される。
[0246] 続いて、 S 103において、演算された複数個のパターンライン周期に基づき、可変 窓 VWの特性がローカルに設定される。本実施形態においては、可変窓 VWのライ ン方向サイズは、その可変窓 VWが設定される代表パターン画像上の位置にかかわ らず、変化しないように設定されるのに対し、可変窓 VWの列方向サイズは、各列方 向画素位置に関連付けて演算されたパターンライン周期の整数倍に相当するように 設定される。
[0247] その後、 S104において、代表パターン画像に対して可変窓 VW力 ライン方向と列 方向とに沿って平面的に、かつ、各画素に関連付けて設定される。それにより、各画 素ごとに、可変窓 VW内に存在する複数個の画素の輝度値の平均値がローカルな 閾値として演算される。この S104においては、さらに、演算された閾値が各画素に割 り当てられた閾値画像が生成される。生成された閾値画像は閾値画像格納部 37qに 格納される。
[0248] 続いて、 S105において、パターン番号 PNが 0に初期化され、その後、 S106にお V、て、パターン番号 PNの現在値が最大値 PNmaxより小さ!/、か否かが判定される。 今回は、パターン番号 PNの現在値が 0であるため、判定力Noとなり、 S107に移行 する。
[0249] この S107においては、パターン番号 PNの現在値と等しいパターン番号 PNが割り 当てられた輝度画像の輝度値と、前記生成された閾値画像の閾値とが、各画素ごと に互いに比較される。その比較結果は、各画素ごとに 2値化画像に反映される。具体 的には、輝度画像の輝度値が閾値より大きい場合には、「1」を表すデータが、 2値ィ匕 画像のうち対応する画素位置に関連付けて 2値化画像格納部 37rに格納され、一方 、輝度画像の輝度値が閾値より大きくはない場合には、「0」を表すデータが、 2値ィ匕 画像のうち対応する画素位置に関連付けて 2値ィ匕画像格納部 37rに格納される。
[0250] その後、 S108において、パターン番号 PNが 1だけインクリメントされる。続いて、 S1 06に戻り、パターン番号 PNの現在値が最大値 PNmaxより小さいか否かが判定され る。今回も、最大値 PNmaxより小さい場合には、判定力Νοとなり、 S107に移行する
[0251] S106ないし S108の実行がパターン光の種類の数と同数回繰り返された結果、パ ターン番号 ΡΝの現在値が最大値 PNmaxより小さくはない値になると、 S 106の判定 力 ^Yesとなり、 S 109に移行する。
[0252] この S109においては、各画素ごとに、最大値 PNmaxと同数枚の 2値化画像から 画素値(「1」または「0」)力 パターン番号 PNが 0である輝度画像に対応する 2値ィ匕 画像から、パターン番号 PNが(PNmax— 1)である輝度画像に対応する 2値化画像 に至る順序に従って抽出され、最下位ビット LSM力 最上位ビット MSBに至る順序 に従って並んだ空間コードが生成される。各画素ごとの空間コードのビット数は、最 大値 PNmaxと同数である。各画素ごとに空間コードが生成されることにより、今回の 被写体に対応する空間コード画像が生成される。生成された空間コードは、各画素 位置に関連付けて空間コード格納部 37dに格納される。
[0253] 以上で、このコード画像生成プログラム 36dの一回の実行が終了する。
[0254] その後、図 12 (c)における S1223において、コード境界抽出プログラム 36eの実行 により、コード境界座標検出処理が実施される。前述の空間コードィ匕法によるコード 化は、各画素単位で行われるため、実際のパターン光における明暗の境界線と、前 記生成されたコード画像における空間コードの境界線 (ある空間コードが割り当てら れた領域と別の空間コードが割り当てられた領域との間の境界線)との間にサブピク セル精度の誤差が生ずる。そのため、このコード境界座標検出処理は、空間コードの 境界座標値をサブピクセル精度で検出することを目的として実施される。
[0255] 検出されたコード境界座標値はコード境界座標格納部 37eに格納される。コード境 界座標値は、 CCD22の結像面に設定された 2次元座標系である CCD座標系 ccdx ccdyにお 、て定義される。
[0256] 続いて、 S1224において、レンズ収差補正プログラム 36fの実行により、レンズ収差 補正処理が実施される。このレンズ収差補正処理は、撮像光学系 21に入射した光束 の実際の結像位置であってその撮像光学系 21の収差の影響を受けたものを、その 撮像光学系 21が理想レンズであったならば結像されるはずである理想結像位置に 近づくように補正する処理である。
[0257] このレンズ収差補正処理により、 S1223において検出されたコード境界座標値が、 撮像光学系 21の歪みなどに起因した誤差が除去されるように補正される。そのように して補正されたコード境界座標は収差補正座標格納部 37gに格納される。
[0258] それらコード境界座標検出処理およびレンズ収差補正処理はいずれも、本発明を 理解するために不可欠な事項ではなぐし力も、本出願人の特願 2004— 105426号 明細書に詳細に開示されているため、それを参照することによって合体させることに より、本明細書においては詳細な説明を省略する。
[0259] その後、 S1225において、三角測量演算プログラム 36gの実行により、三角測量の 原理による実空間変換処理が実施される。この実空間変換処理が実施されれば、三 角測量の原理により、前述の、 CCD座標系 ccdx— ccdy上のコード境界座標値であ つて収差補正が施されたものが、実空間に設定された 3次元座標系である実空間座 標系 X— Y— Z上の 3次元座標値に変換され、その結果、 3次元形状検出結果として の 3次元座標値が取得される。その取得された 3次元座標値は 3次元座標格納部 37 hに格納される。
[0260] ここで、図 22を参照することにより、三角測量の原理により、 CCD座標系 ccdx— cc dy上の 2次元座標値を実空間座標系 X— Y— Z上の 3次元座標値に変換する手法を 詳細に説明する。
[0261] 本実施形態においては、実空間座標系 X— Y— Zが画像入出力装置 1に固定され 、この実空間座標系 X— Y— Z上において、図 1に示すように、撮像対象である原稿 P であって横方向に湾曲したものが撮像される。図 22に示すように、この実空間座標 系 X— Y— Zは画像入出力装置 1に対し、 X軸は水平方向に延び、 Y軸は垂直方向 に延び、 Z軸は撮像光学系 21の光軸方向に延びるように位置決めされている。図 22 (a)には、実空間座標系 X— Y— Zが X軸方向に観察された状態で示され、図 22 (b) には、実空間座標系 X—Y—Zが Y軸方向に観察された状態で示されている。この実 空間座標系 X— Y— Zは画像入出力装置 1に対し、原点が、撮像光学系 21の入力瞳 位置力 Z軸に沿って距離 VPZ離れた位置に位置するように設定されて!、る。
[0262] この実空間座標系 X—Y—Zにおいては、投影部 13から原稿 Pへの投影角度が「
θ p」で表記され、撮像光学系 21の光軸と投影部 13の光軸との距離が「D」で表記さ れている。投影角度 Θ pは、各画素ごとに割り当てられた空間コードによって一義的 に特定される。
[0263] この実空間座標系 X— Y— Zにおいては、さらに、原稿 P上の対象点 targetからの 反射光が CCD22に入射する光路が逆向きに延長された直線と X— Y平面との交点 の Y座標値が「Ytarget」、 X座標値が「Xtarget」でそれぞれ表記されている。この実 空間座標系 X—Y—Zにおいては、さらに、撮像光学系 21の Y方向の視野が、「Yfto PJで示す表記される点から「Yfbottom」で表記される点までの領域として定義され、 X方向の視野が、「Xfstart」で表記される点から「Xfend」で表記される点までの領域 として定義されている。さらに、 CCD22の Y軸方向における長さ(高さ)が「Hc」で表 記され、 X軸方向における長さ(幅)力 S「Wc」で表記されている。
[0264] このように定義された実空間座標系 X—Y—Z上においては、 CCD22の CCD座標 系上の任意座標値 (ccdx, ccdy)に対応する実空間座標系上の 3次元座標値 (X, Y, Z)は、
[0265] (a)原稿 P上の対象点 target (X, Υ, Z) (図 22において引出し線を付して「(a)」示 す。)と、
[0266] (b)撮像光学系 21の入力瞳位置(図 22において引出し線を付して「(1))」示す。)と [0267] (c)投影光学系 20の出力瞳位置(図 22において引出し線を付して「(c)」示す。)と
[0268] (d)撮像光学系 21の入力瞳位置と原稿 P上の対象点を通る直線と X— Y平面との 交点 (Xtarget, Ytarget) (図 22において引出し線を付して「(d)」示す。)と、
[0269] (e)投影光学系 20の出力瞳位置と原稿 P上の対象点を通る直線と X— Y平面との 交点(図 22にお 、て引出し線を付して「(e)」示す。 )と
[0270] に関する関係を示す次の 5つの式を解くことにより、取得される。
[0271] (1) Y= (PPZ-Z) - tan Θ p -D + cmp (Xtarget)
[0272] (2) Y= ( Ytarget/ VPZ) Z + Ytarget
[0273] (3) X= (Xtarget/ VPZ) Z + Xtarget
[0274] (4) Ytarget =Yf top - (ccdcy/Hc) X ( Yf top— Yf bottom)
[0275] (5) Xtarget =Xf start + (ccdcx/Wc) X (Xf end— Xf start)
[0276] ただし、式(1)における「cmp (Xtarget)」は、撮像光学系 20と投影部 13とのズレを 補正する関数であり、ズレが無い理想的な場合には、 0とみなすことができる。
[0277] さらに、この実空間変換処理においては、実画像における任意点の座標値 (ccdx, ccdy)力 理想カメラで撮像された画像における座標値 (ccdcx, ccdcy)に変換され る。この変換は、次の 3つの式、すなわち、カメラキャリブレーションのための近似式を 用いて行われる。
[0278] (6) ccdcx= (ccdx - Centx) / ( 1 + dist/ 100) +Centx
[0279] (7) ccdcy = (ccdy - Centy) / ( 1 + dist/ 100) +Centy [0280] (8) hf a = arctan [ ( ( (ccdx - Centx) 2 + (ccdy— Centy) 2) 0' 5) X pixellength Z focallength]
[0281] ただし、収差量 dist (%)は、半画角 Ma (deg)の関数 fを用いて dist=f (Ma)と記 述される。また、撮像光学系 21の焦点距離は、「focallength (mm)」で表記され、 cc d画素長は、「pixellength (mm)」で表記され、 CCD22におけるレンズの中心の座 標値は、(Centx, Centy)として定義されている。
[0282] この実空間変換処理においては、上述のように、 CCD座標系を実空間座標系に変 換する処理のみならず、 3次元の空間座標系上の任意の 3次元座標値 (X, Υ, Z)を 、投影部 13内の投影 LCD 19の面上に設定された 2次元座標系である LCD座標系 上の 2次元座標値 (lcdcx, lcdcy)に変換する処理も実施可能である。
[0283] それら 2次元座標値 (lcdcx, lcdcy)と 3次元座標値 (X, Υ, Z)との間における幾何 学的な関係は、次の 4つの式によって記述することができる。
[0284] (9) Y =— ( Yptarget/PPZ) Z + Yptarget
[0285] (10) X= (Xptarget/PPZ) Z+Xptarget
[0286] (11) Yptarget = Ypf top - (lcdcy/Hp) X (Xpf top— Xpf bottom)
[0287] (12) Xptarget = Xpf start + (lcdcx/Wp) X (Xpfend- Xpf start)
[0288] ただし、この実空間座標系 X— Y— Zにおいては、図 22に示すように、光束が投影 部 13から原稿 P上の対象点 targetに入射する光路が同じ向きに延長された直線と X —Y平面との交点の Y座標値が「Yptarget」、 X座標値が「Xptarget」でそれぞれ表 記されている。さらに、投影部 13の出力瞳位置が(0, 0, PPZ)として定義されている 。さらに、投影部 13の Y方向の視野が、「Ypftop」で表記される点から「Ypfbottom 」で表記される点までの領域として定義され、 X方向の視野が、「Xpfstart」で表記さ れる点から「Xpfend」で表記される点までの領域として定義されている。さらに、投影 LCD19の Y軸方向における長さ(高さ)が「Hp」で表記され、 X軸方向における長さ( 幅)が「Wp」で表記されて!ヽる。
[0289] 上記式(9)ないし(12)で記述される関係を利用するために、 3次元座標値 (X, Y, Z)をそれら式(9)ないし(12)に代入すると、 LCD座標系上の 2次元座標値 (lcdcx, lcdcy)を算出することができる。したがって、例えば、任意の 3次元形状を有する投 影面上に文字、図形等の画像を投影するための投影 LCD19の投影光パターンを算 出することができる。
[0290] 以上、図 6における S609において実行される立体画像処理を説明した力 以下、 S611にお ヽて実行される平面化画像処理を説明する。
[0291] この平面化画像処理によれば、例えば、原稿 Pが実際には図 1に示すように湾曲し て 、る状態で撮像されたにもかかわらず、あた力も湾曲して 、な 、状態で同じ原稿 P が撮像されたかのように、実際に撮像された画像が平面化される。さらに、この平面 化画像処理によれば、正面視において長方形を成す原稿 Pが実際には斜めから撮 像されたにもかかわらず、あた力も正面から同じ原稿 Pが撮像されたかのように、実際 に撮像された画像が平面化される。
[0292] この平面化画像処理は、本発明を理解するために不可欠な事項ではなぐしかも、 前記特願 2004— 105426号明細書に詳細に開示されているため、それを参照する ことによって合体させることにより、本明細書においては詳細な説明を省略する。
[0293] 以上の説明から明らかなように、本実施形態においては、可変窓 VWが前記(1)項 における「空間フィルタ」の一例を構成し、図 13における S101ないし S103力互いに 共同して同項における「空間フィルタ設定工程」の一例を構成し、 S104が同項にお ける「閾値設定工程」の一例を構成し、輝度値情報が同項における「画像情報」の一 例を構成して 、るのである。
[0294] さらに、本実施形態においては、図 20を用いて説明した固定窓が前記(2)項にお ける「窓関数」の一例を構成し、可変窓 VWの列方向サイズが前記 (4)項における「 可変幅」の一例を構成して 、るのである。
[0295] さらに、本実施形態においては、図 13における S102が前記(10)項における「空 間周波数特性演算工程」の一例を構成し、代表パターン画像が前記(13)および (1 4)項における「選択パターン画像」の一例を構成して ヽるのである。
[0296] さらに、本実施形態においては、図 13における S105ないし S108が互いに共同し て前記(15)項における「2値化工程」の一例を構成し、 S103および S104力 S互いに 共同して前記(16)項における「閾値画像生成工程」の一例を構成し、 S107が同項 における「2値ィ匕画像生成工程」の一例を構成し、図 13における S109が前記(17) 項における「空間コード画像算出工程」の一例を構成し、図 12 (c)における S1225が 前記(18)項における「3次元位置情報演算工程」の一例を構成して!/、るのである。
[0297] さらに、本実施形態においては、コード画像生成プログラム 36dが前記(19)項に係 るプログラムの一例を構成し、 ROM36のうちそのコード画像生成プログラム 36dを記 憶する部分が前記(20)項に係る「記録媒体」の一例を構成して 、るのである。
[0298] さらに、本実施形態においては、画像入出力装置 1が前記(21)項に係る「3次元情 報取得装置」の一例を構成し、処理部 15の前記コンピュータのうち、図 13における S 101ないし S 103を実行する部分が同項における「空間フィルタ設定部」の一例を構 成し、 S104を実行する部分が同項における「閾値設定部」の一例を構成し、輝度値 情報が同項における「画像情報」の一例を構成しているのである。
[0299] 以上、本発明の実施の形態のいくつかを図面に基づいて詳細に説明したが、これ らは例示であり、前記 [発明の開示]の欄に記載の態様を始めとして、当業者の知識 に基づいて種々の変形、改良を施した他の形態で本発明を実施することが可能であ る。

Claims

請求の範囲
[1] パターン光が投影された対象物を撮像することによって取得されるパターン画像に 基づき、前記対象物の 3次元情報を取得する 3次元情報取得方法であって、 前記パターン画像の各部分における空間周波数特性に基づき、前記各部分に対 応する空間フィルタを前記各部分ごとに設定する空間フィルタ設定工程と、
前記各部分に対して前記空間フィルタを施して取得される画像情報に基づき、前 記 3次元情報を取得するために前記各部分に適用される閾値を前記各部分ごとに設 定する閾値設定工程と
を含む 3次元情報取得方法。
[2] 前記空間フィルタ設定工程は、窓関数によって前記パターン画像から取り出された 各部分の画像情報に基づき、前記空間周波数特性を前記各部分ごとに取得し、そ の取得された空間周波数特性に基づき、前記空間フィルタを前記各部分ごとに設定 する請求の範囲第 1項に記載の 3次元情報取得方法。
[3] 前記空間フィルタは、可変係数のマトリクスである請求の範囲第 1項に記載の 3次元 情報取得方法。
[4] 前記空間フィルタは、可変幅を持つ方形窓と、遮断周波数が可変であるローバスフ ィルタとの少なくとも一方の特性を含む請求の範囲第 1項に記載の 3次元情報取得 方法。
[5] 前記パターン光は、明部と暗部とが交互に並んで構成されており、
前記パターン画像は、そのパターン光に対応し、明部と暗部とが交互に並んで構 成されており、
前記空間周波数特性は、前記パターン画像の各部分において、前記明部と前記 暗部との繰り返しについての空間周波数を反映する請求の範囲第 1項に記載の 3次 元情報取得方法。
[6] 前記空間フィルタ設定工程は、前記パターン画像の各部分の前記空間周波数特 性が複数の空間周波数にぉ 、て強度極大値を有することを示す場合に、それら複数 の強度極大値を有する空間周波数の少なくとも一つに基づき、前記空間フィルタを 前記各部分ごとに設定する請求の範囲第 5項に記載の 3次元情報取得方法。
[7] 前記空間フィルタ設定工程は、前記パターン画像の輝度分布に対してフーリエ変 換を施すことにより、前記空間周波数特性を特定する請求の範囲第 6項に記載の 3 次元情報取得方法。
[8] 前記空間フィルタは、可変幅を持つ方形窓であり、
前記空間フィルタ設定工程は、前記複数の強度極大値を有する空間周波数のうち 強度が最大であるものに基づき、前記方形窓の幅を決定する窓幅決定工程を含む 請求の範囲第 6項に記載の 3次元情報取得方法。
[9] 前記空間フィルタは、遮断周波数が可変であるローパスフィルタであり、
前記空間フィルタ設定工程は、前記複数の強度極大値を有する空間周波数のうち 強度が最大であるものに基づき、その空間周波数より低い空間周波数に前記遮断周 波数を決定する遮断周波数決定工程を含む請求の範囲第 6項に記載の 3次元情報 取得方法。
[10] 前記空間フィルタ設定工程は、前記パターン画像を構成する複数個の画素のそれ ぞれにっき、各画素を含んでそれの近傍に位置する複数個の画素の輝度情報に基 づいて前記空間周波数特性を演算する空間周波数特性演算工程を含む請求の範 囲第 1項に記載の 3次元情報取得方法。
[11] 前記空間フィルタ設定工程は、前記パターン画像を構成する複数個の画素のうち 互 ヽに離散するように選択された複数個の離散画素のそれぞれにつ!、て、各離散画 素を含んでそれの近傍に位置する複数個の画素の輝度情報に基づいて前記空間 周波数特性を演算する空間周波数特性演算工程を含む請求の範囲第 1項に記載 の 3次元情報取得方法。
[12] 前記空間フィルタ設定工程は、さらに、前記複数個の画素のうち前記選択された複 数個の離散画素以外の各非選択画素についての前記空間周波数特性を、前記複 数個の離散画素のうち各非選択画素の周辺に位置するものについて前記空間周波 数特性演算工程によって演算された前記空間周波数特性を用いて推定する空間周 波数特性推定工程を含む請求の範囲第 11項に記載の 3次元情報取得方法。
[13] 前記パターン光は、明部と暗部とが交互に並んで構成されており、
前記パターン画像は、そのパターン光に対応し、明部と暗部とが交互に並んで構 成されており、
前記パターン光は、前記明部と前記暗部との繰り返しにつ 、ての空間周波数が互 Vヽに異なる複数種類のパターン光を含み、
前記パターン画像は、それら複数種類のパターン光にそれぞれ対応する複数種類 のパターン画像を含み、
前記空間フィルタ設定工程は、それら複数種類のパターン画像の ヽずれかとして 選択された選択パターン画像を用いて前記空間フィルタを設定し、
前記閾値設定工程は、前記閾値を前記複数種類のパターン画像に共通に割り当 てる請求の範囲第 1項に記載の 3次元情報取得方法。
[14] 前記選択パターン画像は、前記複数種類のパターン光のうち、前記明部と前記暗 部との繰り返しについての周期が実質的に最小であるものに対応する請求の範囲第 13項に記載の 3次元情報取得方法。
[15] さらに、前記設定された閾値を用いることによって前記パターン画像を 2値ィ匕し、そ れにより、そのパターン画像を 2値ィ匕画像に変換する 2値ィ匕工程を含む請求の範囲 第 1項に記載の 3次元情報取得方法。
[16] 前記閾値設定工程は、前記パターン画像を構成する複数個の画素のそれぞれ〖こ ついて前記閾値を割り当てることにより、閾値画像を生成する閾値画像生成工程を 含み、
前記 2値化工程は、その生成された閾値画像と前記パターン画像とを輝度値に関 して各画素ごとに互いに比較することにより、前記 2値化画像を生成する 2値化画像 生成工程を含む請求の範囲第 15項に記載の 3次元情報取得方法。
[17] さらに、前記 2値化画像に基づき、かつ、予め定められた空間コードィ匕規則に従い 、前記 2値ィ匕画像カゝら空間コード画像を算出する空間コード画像算出工程を含む請 求の範囲第 15項に記載の 3次元情報取得方法。
[18] さらに、前記算出された空間コード画像に基づき、前記対象物を構成する複数の画 素のそれぞれに対応する 3次元位置を前記 3次元情報として演算する 3次元位置演 算工程を含む請求の範囲第 17項に記載の 3次元情報取得方法。
[19] 請求の範囲第 1項に記載の 3次元情報取得方法を実施するためにコンピュータに よって実行されるプログラム。
[20] 請求の範囲第 19項に記載のプログラムをコンピュータ読取り可能に記録した記録 媒体。
[21] パターン光が投影された対象物を撮像することによって取得されるパターン画像に 基づき、前記対象物の 3次元情報を取得する 3次元情報取得装置であって、 前記パターン画像の各部分における空間周波数特性に基づき、前記各部分に対 応する空間フィルタを前記各部分ごとに設定する空間フィルタ設定部と、
前記各部分に対して前記空間フィルタを施して取得される画像情報に基づき、前 記 3次元情報を取得するために前記各部分に適用される閾値を前記各部分ごとに設 定する閾値設定部と
を含む 3次元情報取得装置。
PCT/JP2005/017678 2004-09-30 2005-09-27 3次元情報取得方法および3次元情報取得装置 WO2006035736A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US11/690,923 US20070177160A1 (en) 2004-09-30 2007-03-26 Three-dimensional object information acquisition using patterned light projection with optimized image-thresholding

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2004-285736 2004-09-30
JP2004285736A JP2006098252A (ja) 2004-09-30 2004-09-30 3次元情報取得方法

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US11/690,923 Continuation-In-Part US20070177160A1 (en) 2004-09-30 2007-03-26 Three-dimensional object information acquisition using patterned light projection with optimized image-thresholding

Publications (1)

Publication Number Publication Date
WO2006035736A1 true WO2006035736A1 (ja) 2006-04-06

Family

ID=36118881

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2005/017678 WO2006035736A1 (ja) 2004-09-30 2005-09-27 3次元情報取得方法および3次元情報取得装置

Country Status (3)

Country Link
US (1) US20070177160A1 (ja)
JP (1) JP2006098252A (ja)
WO (1) WO2006035736A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114295225A (zh) * 2021-12-30 2022-04-08 东南大学 基于二值条纹全局编码字校正的红外人脸测量方法
CN116017170A (zh) * 2022-11-30 2023-04-25 中南大学 一种具有局部强光的弱光场景成像自动曝光方法及***

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006300531A (ja) * 2005-04-15 2006-11-02 Brother Ind Ltd 3次元形状測定装置
US20090008955A1 (en) * 2007-07-03 2009-01-08 Sergio Desoto System and method for automatically designing an automobile wrap
DE112009001652T5 (de) 2008-07-08 2012-01-12 Chiaro Technologies, Inc. Mehrkanal-Erfassung
WO2011013373A1 (en) * 2009-07-29 2011-02-03 Canon Kabushiki Kaisha Measuring apparatus, measuring method, and program
CN103069250B (zh) * 2010-08-19 2016-02-24 佳能株式会社 三维测量设备、三维测量方法
KR101494066B1 (ko) 2010-10-05 2015-02-16 엠파이어 테크놀로지 디벨롭먼트 엘엘씨 공간 광 패턴에 기초한 깊이 데이터의 생성
DE102010049310A1 (de) * 2010-10-22 2012-04-26 Weber Maschinenbau Gmbh Breidenbach Abtastvorrichtung und Verfahren zum Ermitteln der Kontur eines Objekts
US20120120051A1 (en) * 2010-11-16 2012-05-17 Shu-Ming Liu Method and system for displaying stereoscopic images
JP5822463B2 (ja) * 2010-12-28 2015-11-24 キヤノン株式会社 三次元計測装置、三次元計測方法、およびプログラム
JP2012225701A (ja) * 2011-04-18 2012-11-15 Mitsutoyo Corp 形状測定装置
DE102011102862B4 (de) * 2011-05-31 2015-07-09 Steinbichler Optotechnik Gmbh Verfahren und Vorrichtung zum Bestimmen der dreidimensionalen Koordinaten der Oberfläche eines Objekts
US8885884B2 (en) * 2011-09-19 2014-11-11 Siemens Corporation Motion analysis through geometry correction and warping
JP5986364B2 (ja) * 2011-10-17 2016-09-06 キヤノン株式会社 三次元形状計測装置、三次元形状計測装置の制御方法、およびプログラム
US10089739B2 (en) * 2013-06-28 2018-10-02 Texas Instruments Incorporated Structured light depth imaging under various lighting conditions
US9562760B2 (en) 2014-03-10 2017-02-07 Cognex Corporation Spatially self-similar patterned illumination for depth imaging
US9786251B1 (en) * 2014-05-28 2017-10-10 Musco Corporation Apparatus, method, and system for visually indicating perceived glare thresholds
JP6420572B2 (ja) * 2014-06-13 2018-11-07 キヤノン株式会社 計測装置およびその方法
US10281264B2 (en) * 2014-12-01 2019-05-07 Canon Kabushiki Kaisha Three-dimensional measurement apparatus and control method for the same
US10571668B2 (en) 2015-05-09 2020-02-25 Cognex Corporation Catadioptric projector systems, devices, and methods
US10311634B2 (en) * 2015-07-21 2019-06-04 IAM Robotics, LLC Three dimensional scanning and data extraction systems and processes for supply chain piece automation
KR101828376B1 (ko) * 2016-05-13 2018-02-13 (주)칼리온 휴대용 3차원 문서 스캐닝 장치 및 방법
JP6735615B2 (ja) * 2016-06-29 2020-08-05 キヤノン株式会社 情報処理装置、情報処理装置の制御方法およびプログラム
US10699429B2 (en) 2017-08-19 2020-06-30 Cognex Corporation Coding distance topologies for structured light patterns for 3D reconstruction
CN109635619B (zh) 2017-08-19 2021-08-31 康耐视公司 用于三维重建的结构化光图案的编码距离拓扑
US11262192B2 (en) 2017-12-12 2022-03-01 Samsung Electronics Co., Ltd. High contrast structured light patterns for QIS sensors
US10740913B2 (en) 2017-12-12 2020-08-11 Samsung Electronics Co., Ltd. Ultrafast, robust and efficient depth estimation for structured-light based 3D camera system
TWI676781B (zh) * 2018-08-17 2019-11-11 鑑微科技股份有限公司 三維掃描系統
CN109961432A (zh) * 2019-03-27 2019-07-02 广东工业大学 一种滤布破损的检测方法和***
CN111256589B (zh) * 2020-02-14 2020-12-01 长飞光纤光缆股份有限公司 一种基于丢帧检测的图像法尺寸测量补偿方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01292477A (ja) * 1988-05-19 1989-11-24 Toshiba Corp 画像処理装置
JPH07306019A (ja) * 1994-05-12 1995-11-21 Nissan Motor Co Ltd 塗装膜厚計測装置
JPH0886634A (ja) * 1994-09-14 1996-04-02 Nissan Motor Co Ltd 表面欠陥検査装置
JP2921748B2 (ja) * 1996-04-30 1999-07-19 村田機械株式会社 画像認識装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6587148B1 (en) * 1995-09-01 2003-07-01 Canon Kabushiki Kaisha Reduced aliasing distortion optical filter, and an image sensing device using same
US5834761A (en) * 1996-03-22 1998-11-10 Sharp Kabushiki Kaisah Image input apparatus having a spatial filter controller
JP4536170B2 (ja) * 1996-12-27 2010-09-01 シャープ株式会社 撮像装置
JP3621288B2 (ja) * 1999-04-16 2005-02-16 シャープ株式会社 画像処理装置
US6841780B2 (en) * 2001-01-19 2005-01-11 Honeywell International Inc. Method and apparatus for detecting objects
US7151574B2 (en) * 2003-12-01 2006-12-19 Ess Technology, Inc. Optimized structure for digital separation of composite video signals
US7471843B2 (en) * 2004-02-04 2008-12-30 Sharp Laboratories Of America, Inc. System for improving an image displayed on a display

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01292477A (ja) * 1988-05-19 1989-11-24 Toshiba Corp 画像処理装置
JPH07306019A (ja) * 1994-05-12 1995-11-21 Nissan Motor Co Ltd 塗装膜厚計測装置
JPH0886634A (ja) * 1994-09-14 1996-04-02 Nissan Motor Co Ltd 表面欠陥検査装置
JP2921748B2 (ja) * 1996-04-30 1999-07-19 村田機械株式会社 画像認識装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114295225A (zh) * 2021-12-30 2022-04-08 东南大学 基于二值条纹全局编码字校正的红外人脸测量方法
CN114295225B (zh) * 2021-12-30 2024-01-12 东南大学 基于二值条纹全局编码字校正的红外人脸测量方法
CN116017170A (zh) * 2022-11-30 2023-04-25 中南大学 一种具有局部强光的弱光场景成像自动曝光方法及***

Also Published As

Publication number Publication date
JP2006098252A (ja) 2006-04-13
US20070177160A1 (en) 2007-08-02

Similar Documents

Publication Publication Date Title
WO2006035736A1 (ja) 3次元情報取得方法および3次元情報取得装置
WO2007114189A1 (ja) 3次元色形状計測装置
US7672505B2 (en) Apparatus, method and program for three-dimensional-shape detection
CN106127745B (zh) 结构光3d视觉***与线阵相机的联合标定方法及装置
JP2005293075A5 (ja)
TWI668997B (zh) 產生全景深度影像的影像裝置及相關影像裝置
US7711179B2 (en) Hand held portable three dimensional scanner
KR101906780B1 (ko) 공간 내의 광원 측정시스템
US7845807B2 (en) Projection apparatus and three-dimensional-shape detection apparatus
US20160364903A1 (en) 3d geometric modeling and 3d video content creation
US9142025B2 (en) Method and apparatus for obtaining depth information using optical pattern
US20130294089A1 (en) Pattern projection using micro-lenses
WO2007116744A1 (ja) 3次元形状検出装置及び3次元形状検出方法
EP3069100B1 (en) 3d mapping device
US20140293011A1 (en) Scanner System for Determining the Three Dimensional Shape of an Object and Method for Using
CN111971525B (zh) 用立体镜测量物体的方法和***
JP2005291839A5 (ja)
WO2006112297A1 (ja) 3次元形状測定装置
JP2007256116A (ja) 3次元形状検出装置
CN111692987A (zh) 深度数据测量头、测量装置和测量方法
JP4552485B2 (ja) 画像入出力装置
KR100332995B1 (ko) 비접촉식 3차원 스캐너 장치
JP2005352835A (ja) 画像入出力装置
WO2005122553A1 (ja) 画像入出力装置
JP4552484B2 (ja) 画像入出力装置

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS KE KG KM KP KR KZ LC LK LR LS LT LU LV LY MA MD MG MK MN MW MX MZ NA NG NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SM SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LT LU LV MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 11690923

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

WWP Wipo information: published in national office

Ref document number: 11690923

Country of ref document: US

122 Ep: pct application non-entry in european phase