WO2023218705A1 - 測距装置、測距装置の制御方法、およびデータ処理方法 - Google Patents

測距装置、測距装置の制御方法、およびデータ処理方法 Download PDF

Info

Publication number
WO2023218705A1
WO2023218705A1 PCT/JP2023/003707 JP2023003707W WO2023218705A1 WO 2023218705 A1 WO2023218705 A1 WO 2023218705A1 JP 2023003707 W JP2023003707 W JP 2023003707W WO 2023218705 A1 WO2023218705 A1 WO 2023218705A1
Authority
WO
WIPO (PCT)
Prior art keywords
measurement
density
measurement points
measuring device
distance measuring
Prior art date
Application number
PCT/JP2023/003707
Other languages
English (en)
French (fr)
Inventor
安寿 稲田
享 橋谷
弓子 加藤
Original Assignee
パナソニックIpマネジメント株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニックIpマネジメント株式会社 filed Critical パナソニックIpマネジメント株式会社
Publication of WO2023218705A1 publication Critical patent/WO2023218705A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/30Measuring arrangements characterised by the use of optical techniques for measuring roughness or irregularity of surfaces
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/10Systems determining position data of a target for measuring distance only using transmission of interrupted, pulse-modulated waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates

Definitions

  • the present disclosure relates to a distance measuring device, a method of controlling the distance measuring device, and a data processing method.
  • 3D measurement is performed using a sensor capable of measuring distance.
  • a sensor capable of measuring distance.
  • 3D measurement is sometimes performed to inspect conditions such as shape, dents, or surface irregularities.
  • Process management can be performed by performing 3D measurement on parts or work-in-progress and evaluating the shape or flaws.
  • progress management or quality control can be performed based on data by acquiring 3D measurement information at necessary scenes in the construction process. For example, marking can be automated by measuring a construction site in 3D and marking the necessary locations using a projector or the like.
  • drawings can be re-produced by acquiring 3D shape information using sensors. Furthermore, during the construction process, when spraying fireproofing materials or treating concrete joint surfaces, the shape can be measured and inspected using sensors, making it possible to manage the process without relying on visual inspection. can.
  • Patent Documents 1 and 2 disclose examples of systems for acquiring information on the surface shape of a structure.
  • Patent Document 1 discloses a surface treatment shape evaluation system that calculates feature quantities of the treated shape of the surface of existing concrete using a distance measuring device such as a laser distance meter or an ultrasonic distance meter.
  • Patent Document 2 discloses a method of scanning a stationary steel plate with a deflected laser beam to obtain data of a group of detection points on the steel plate, and measuring the shape of the steel plate from the data of the group of detection points.
  • a thinning process that equalizes the point density of a detected point group and an arithmetic process that analyzes a regression curve from detected point group data are performed.
  • the present disclosure provides a technique for improving the accuracy of 3D measurement.
  • a distance measuring device includes a light source that emits a light beam, a scanning device that performs a beam scan that changes the direction of emission of the light beam, and a distance measuring device that detects a measurement point of an object irradiated with the light beam.
  • the scanning device includes a photodetector that outputs a detection signal upon receiving reflected light from the sensor, a processing circuit that calculates a distance to the measurement point based on the detection signal, and a control circuit that controls the scanning device.
  • the control circuit determines the angular step of the beam scan so as to reduce the difference in density of the measurement points from region to region on the object.
  • a distance measuring device includes a light source, a photodetector that receives reflected light from an object irradiated with light from the light source and outputs a detection signal, and a distance measuring device that includes a light source that outputs a detection signal based on the detection signal.
  • a processing circuit that calculates a distance to each of a plurality of measurement points included in a target region of the object and generates measurement data indicating a distribution of distances or positions of the plurality of measurement points.
  • the processing circuit performs a process of changing the density of the measurement points in at least one of the plurality of partial regions so as to reduce a density difference of the measurement points in the plurality of partial regions included in the target region. Run on data.
  • Generic or specific aspects of the present disclosure may be realized by a system, apparatus, method, integrated circuit, computer program, or recording medium such as a computer-readable recording disk, and the system, apparatus, method, integrated circuit, It may be realized by any combination of a computer program and a recording medium.
  • the computer-readable recording medium may include a volatile recording medium or a non-volatile recording medium such as a CD-ROM (Compact Disc-Read Only Memory).
  • a device may be composed of one or more devices. When the device is composed of two or more devices, the two or more devices may be placed within one device, or may be separately placed within two or more separate devices.
  • “device” may refer not only to a device, but also to a system of devices.
  • the accuracy of 3D measurement can be improved.
  • FIG. 1A is a diagram schematically illustrating a ranging device according to an exemplary embodiment of the present disclosure.
  • FIG. 1B is a diagram showing another example of the configuration of the distance measuring device.
  • FIG. 2 is a block diagram showing a configuration example of a distance measuring device.
  • FIG. 3A is a diagram schematically showing an example of the distribution of measurement points when beam scanning is performed at constant angle steps.
  • FIG. 3B is a diagram schematically showing an example of the distribution of measurement points when beam scanning is performed with the angle step corrected according to the emission direction.
  • FIG. 4 is a flowchart showing an example of a measurement procedure using a distance measuring device.
  • FIG. 1A is a diagram schematically illustrating a ranging device according to an exemplary embodiment of the present disclosure.
  • FIG. 1B is a diagram showing another example of the configuration of the distance measuring device.
  • FIG. 2 is a block diagram showing a configuration example of a distance measuring device.
  • FIG. 3A is a diagram schematically showing an
  • FIG. 5A is a diagram schematically showing the relationship among the reference plane, arithmetic mean height, and root-square height in an evaluation region having an uneven shape.
  • FIG. 5B is a diagram schematically showing an example of a reference surface in an uneven shape having low-period undulations.
  • FIG. 5C is a diagram schematically showing another example of a reference surface in an uneven shape having low-period undulations.
  • FIG. 6 is a flowchart showing an example of the flow of distance measurement when pre-measurement is performed.
  • FIG. 7 is a diagram schematically showing how distance measurement is performed by moving the distance measuring device.
  • FIG. 8 is a diagram for explaining a method of making the measurement point density close to uniform through data processing.
  • FIG. 9A is a diagram for explaining the size of the structure.
  • FIG. 9B is another diagram for explaining the size of the structure.
  • FIG. 10A is a diagram illustrating an example in which the density of measurement points is insufficient relative to the structure size.
  • FIG. 10B is a diagram showing an example in which the density of measurement points is appropriate for the structure size.
  • FIG. 10C is a diagram showing an example in which the density of measurement points is excessive with respect to the structure size.
  • FIG. 11 is a block diagram showing a configuration example of a LiDAR sensor.
  • FIG. 12 is a diagram showing an example of temporal changes in the frequencies of the reference light, reflected light, and interference light when the distance between the LiDAR sensor and the target object is constant.
  • all or part of a circuit, unit, device, member, or part, or all or part of a functional block in a block diagram may be, for example, a semiconductor device, a semiconductor integrated circuit (IC), or an LSI (large scale integration). ) may be implemented by one or more electronic circuits.
  • An LSI or IC may be integrated into one chip, or may be configured by combining a plurality of chips.
  • functional blocks other than the memory element may be integrated into one chip.
  • it is called LSI or IC, but the name changes depending on the degree of integration, and it may also be called system LSI, VLSI (very large scale integration), or ULSI (ultra large scale integration).
  • Field Programmable Gate Arrays (FPGAs) which are programmed after the LSI is manufactured, or reconfigurable logic devices that can reconfigure the connections inside the LSI or set up circuit sections inside the LSI can also be used for the same purpose.
  • the functions or operations of all or part of a circuit, unit, device, member, or section can be performed by software processing.
  • the software is recorded on one or more non-transitory storage media, such as a ROM, an optical disk, or a hard disk drive, and when the software is executed by a processor, the functions specified in the software are performed. Executed by processing units and peripheral devices.
  • the system or apparatus may include one or more non-transitory storage media on which software is recorded, a processing unit, and necessary hardware devices, such as interfaces.
  • light includes not only visible light (wavelength of about 400 nm to about 700 nm) but also electromagnetic waves including ultraviolet light (wavelength of about 10 nm to about 400 nm) and infrared light (wavelength of about 700 nm to about 1 mm). means.
  • sensors such as contact sensors, imaging sensors, and LiDAR (Light Detection and Ranging) are used as sensors capable of 3D measurement of structures.
  • LiDAR Light Detection and Ranging
  • the method using a contact sensor requires time to measure the surface shape, so when performing 3D measurement of a large structure, there is a problem that measurement cannot be done in a short time.
  • a measurement method using imaging there is a method of measuring the parallax of a subject using a stereo camera including two cameras, and acquiring 3D shape information based on the parallax.
  • the method using a stereo camera requires matching processing to determine parallax from two images.
  • the LiDAR sensor measures distance using a light beam such as a laser. For example, it is possible to perform 3D measurement by performing distance measurement while performing a scanning operation that changes the emission direction of the light beam.
  • Such LiDAR sensors utilize a collimated or focused light beam, which allows the light energy to be concentrated at the point of illumination. Therefore, the distance can be measured with high accuracy even to distant objects.
  • it is necessary to perform sampling while beam scanning so a disadvantage is that measurement takes time. Therefore, if the object does not move during beam scanning or if the movement of the object is sufficiently slow relative to the beam scanning movement, 3D measurement using LiDAR can be said to be one of the optimal methods.
  • the emission angle of the laser beam is changed by rotating a mirror or prism using an electric motor, or by a beam scanning mechanism such as a MEMS (Micro-Electromechanical Systems) mirror.
  • a beam scanning mechanism such as a MEMS (Micro-Electromechanical Systems) mirror.
  • the drive operation for beam scanning and the sampling rate for distance measurement using a laser beam are determined in advance when designing a product.
  • the specifications of the LiDAR sensor are determined so that the measurement points are arranged in angular steps that are approximately equally spaced.
  • the density of measurement points changes depending on the angle at which the beam is incident on the object. Specifically, the density of measurement points is lower when the light is incident obliquely than when the light is incident at an angle close to perpendicular. If the density of measurement points in the measurement data of the object varies in this way, problems may occur when analyzing the measurement results. For example, when determining the outline of a target object based on 3D measurement results, the fitting is affected by the measurement results of areas with a high density of measurement points, so the deviation of the evaluation results in areas with a low density of measurement points becomes large. I end up. Furthermore, when evaluating surface area or surface roughness based on 3D measurement results, the evaluation value is influenced by the measurement point density (that is, the number of measurement points per unit area or unit length). For this reason, it becomes impossible to evaluate relative changes for each measurement area.
  • Patent Document 2 discloses a method for detecting waviness in the shape of a steel plate by thinning out point cloud data obtained by scanning with a laser beam, uniformizing the density of measurement points, and finding a regression surface. This method is effective in analyzing the macroscopic shape of undulations because there is no need to increase the density of measurement points in the first place.
  • FIG. 1A is a diagram schematically illustrating a ranging device 100 according to an exemplary embodiment of the present disclosure.
  • a distance measuring device 100 shown in FIG. 1A measures distances to a plurality of measurement points on an object while performing a scanning operation that changes the emission direction of a light beam.
  • the distance measuring device 100 can generate three-dimensional point group data based on the distance to each measurement point.
  • the three-dimensional point group data includes data of three-dimensional coordinate values of each of the plurality of measurement points, and represents a three-dimensional distribution of the plurality of measurement points.
  • the distance measuring device 100 may be installed on the ground or the floor of a building using a support 300 such as a tripod.
  • the measurement target is a floor surface.
  • the object may be a structure made of any material, such as the ground, a floor, or a concrete surface. Further, the target object is not limited to a planar structure, but may be other structures such as the ground with an uneven surface, the wall of a building, or an industrial product.
  • the distance measuring device 100 has a beam scanning mechanism and can change the direction of the light beam emitted from the beam emitting section 110. 3D measurement can be performed by scanning an area within the field of view in the direction in which the beam emitting unit 110 faces with a light beam.
  • the field of view which is the scan range, is illustrated by four broken lines. The black circles in the figure indicate examples of measurement points.
  • the distance measuring device 100 shown in FIG. 1A can adjust the height, horizontal angle, and vertical angle of the beam emitting section 110.
  • the height of the beam emitting unit 110 is the height from the installation surface of the distance measuring device 100.
  • the horizontal angle is the rotation angle with respect to a reference direction about an axis perpendicular to the installation surface.
  • the vertical angle is the rotation angle relative to the vertical downward direction around an axis parallel to the installation surface.
  • the height, horizontal angle, and vertical angle of the beam emitting section 110 may be fixed at the time of installation, or may be adjusted and fixed by the user before measurement.
  • the height of the beam emitting section 110 can be set to an appropriate height depending on the object, such as 50 cm, 1 m, or 2 m, for example.
  • the horizontal angle and the vertical angle are set so that the beam emitting section 110 faces the measurement target area of the object. Note that the mechanism for adjusting the height, horizontal angle, and vertical angle of the beam emitting section 110 does not need to be included in the distance measuring device 100.
  • FIG. 1B is a diagram showing another configuration example of the distance measuring device 100.
  • the distance measuring device 100 may be supported by a support 300 such as a turret. With such a configuration, the distance measuring device 100 can perform measurements in a posture that directly faces the surface of the object (that is, the vertical angle is 0°).
  • the distance measuring device 100 may include a light source such as a laser, an optical system such as a lens, a photodetector, and a scanning device.
  • a scanning device changes the direction of a light beam emitted from a light source.
  • the ranging device 100 may also include a control circuit that controls the scanning device and a processing circuit that processes the signal output from the photodetector.
  • the control circuit controls the scanning device to change the horizontal component and vertical component of the light beam emitted from the beam emitting section 110 in the emission direction.
  • the scanning device may be configured to change only one of the horizontal component and the vertical component of the emission direction of the light beam. In that case, one-dimensional scanning is possible.
  • the processing circuit calculates the distance to each measurement point based on the detection signal generated by the photodetector upon receiving reflected light from each measurement point.
  • a known distance measurement technique such as ToF (Time of Flight) or FMCW (Frequency Modulation Continuous Wave) can be used.
  • ToF Time of Flight
  • FMCW Frequency Modulation Continuous Wave
  • beam scanning distance data of multiple measurement points can be generated.
  • three-dimensional coordinate data of a plurality of measurement points that is, point group data, can be generated from distance data of a plurality of measurement points.
  • the angle of incidence of the light beam on the object changes within the field of view, so the distance measurement per unit area or unit length changes.
  • the density of measurement points changes.
  • the spatial density of point cloud data which is the measurement result of the object, becomes uneven.
  • the angle step of the beam scan according to the emission direction or to remove data of some measurement points in areas where the density is higher than necessary from the acquired point cloud data.
  • This suppresses variations in the density of measurement points.
  • the density of measurement points can be made close to uniform.
  • FIG. 2 is a block diagram showing a configuration example of the distance measuring device 100 in this embodiment.
  • thick arrows illustrate the flow of light
  • thin arrows illustrate the flow of signals.
  • the beam emitting unit 110 is a part of the distance measuring device 100 from which a light beam is emitted, and may include an optical system such as a lens.
  • the light source 120 includes a light emitting element that emits light, such as a laser or an LED.
  • the light source 120 may be configured to emit a light beam in the infrared or visible wavelength range, for example.
  • the scanning device 130 has a beam scanning mechanism, such as a combination of an electric motor and a mirror, a MEMS mirror, or a phased array.
  • the scanning device 130 performs a beam scan that changes the emission direction of the light beam.
  • the photodetector 140 receives the reflected light from the measurement point of the object irradiated with the light beam and outputs a detection signal.
  • Photodetector 140 includes one or more light receiving elements. Each light receiving element performs photoelectric conversion and outputs an electrical signal according to the intensity of the received light. The photodetector 140 outputs a detection signal based on the electrical signal output from each light receiving element to the processing circuit 150.
  • Photodetector 140 may include an image sensor.
  • An image sensor has a structure in which a plurality of light receiving elements are arranged in a two-dimensional plane. The image sensor outputs an image signal as a detection signal.
  • the processing circuit 150 calculates the distance to each measurement point based on the detection signal.
  • the processing circuit 150 may include one or more processors such as a CPU (Central Processing Unit), an FPGA (Field Programmable Gate Array), or a GPU (Graphics Processing Unit).
  • the processing circuit 150 calculates the distance using a distance measurement technique such as ToF or FMCW. Note that when the FMCW technique is used, the photodetector 140 may be configured to detect interference light between the emitted light and the reflected light, rather than directly detecting the reflected light from the object. A configuration example of a distance measuring device using FMCW technology will be described later.
  • the control circuit 160 controls the amount of light emitted from the light source 120 and the scanning operation by the scanning device 130.
  • Control circuit 160 may be implemented by a circuit including one or more processors and one or more memories, such as an FPGA or a microcontroller unit (MCU).
  • the control circuit 160 and the processing circuit 150 may be realized by one integrated circuit.
  • each of the control circuit 160 and the processing circuit 150 may be provided in a device different from the distance measuring device 100.
  • a processor in a computer connected to distance measuring device 100 may function as at least one of control circuit 160 and processing circuit 150. In that case, the control circuit 160 or the processing circuit 150 is configured to communicate with the ranging device 100 through wired or wireless communication.
  • the storage device 170 is any storage device such as a semiconductor storage device, a magnetic storage device, or an optical storage device. Storage device 170 stores computer programs executed by control circuit 160 and processing circuit 150, and various data generated in the course of processing by these circuits.
  • the input interface 180 is an interface for inputting signals from an external device.
  • the output interface is an interface for outputting a signal to an external device.
  • the control circuit 160 in this embodiment determines the beam scan angle step (hereinafter also referred to as "spatial scan step”) so as to reduce the difference in density of measurement points for each region on the object.
  • the "angle step” means the angle formed between the direction in which a light beam is emitted toward a certain measurement point and the direction in which a light beam is emitted toward the next measurement point.
  • the control circuit 160 can reduce the difference in the density of measurement points from region to region on the object by changing the angular step of the beam scan depending on the emission direction of the light beam, for example.
  • the control circuit 160 can reduce the difference in density of measurement points in each region of the object by changing the angle step according to the distance between the beam emitting unit 110 (or light source 120) and the object.
  • the control circuit 160 may obtain information indicating the distance from the storage device 170 and change the angle step based on the information. For example, the control circuit 160 may make the angle step smaller as the distance is larger. Note that when the object is placed on the surface on which the distance measuring device 100 is installed, the height of the beam emitting section 110 (or the light source 120) corresponds to the above distance. An example of the operation of the control circuit 160 will be described in detail below.
  • FIG. 3A is a diagram schematically showing an example of the distribution of measurement points when beam scanning is performed at constant angle steps.
  • FIG. 3B is a diagram schematically showing an example in which the distribution of measurement points is made uniform by correcting the angle step according to the emission direction and performing beam scanning.
  • 3A and 3B illustrate an X-axis, a Y-axis, and a Z-axis that are orthogonal to each other.
  • the X-axis and Y-axis are set within the installation plane of the distance measuring device 100.
  • the Z-axis is perpendicular to the installation surface and is set with the vertically upward direction being the positive direction.
  • the position of the beam emitting section 110 is represented by a black circle on the Z axis.
  • the point cloud data may be data of three-dimensional coordinate values of each measurement point expressed in the XYZ coordinate system shown in FIGS. 3A and 3B, for example.
  • the measurement points are acquired in equal angular steps.
  • the density of measurement points will vary depending on the area to be measured, as shown in FIG. 3A.
  • the vertical angle of the beam exit direction is ⁇
  • the density of measurement points is generally sparse in areas where the irradiation angle ⁇ is large, and the irradiation angle ⁇ is small. Areas tend to be dense.
  • the measurement point density also changes depending on the height h of the beam emitting section 110, which is the point from which the beam is emitted. For example, when the height is doubled, the measurement point density decreases to 1/4 as long as the same scanning operation is performed.
  • the measurement point density can be determined from the parameter values.
  • the distribution can be predicted. Therefore, it is effective to correct the spatial scan step by adjusting the beam scan operation or measurement rate according to the prediction of the measurement point density.
  • the control circuit 160 slows down the beam scanning speed in accordance with the decrease in the measurement point density due to the increase in the irradiation angle ⁇ , while keeping the measurement rate, that is, the number of beam emission per unit time, fixed. This allows the density of measurement points within the field of view to be made more uniform. Further, the control circuit 160 may increase the measurement rate in accordance with the decrease in the measurement point density due to the increase in the irradiation angle ⁇ , while keeping the beam scanning speed fixed. Alternatively, the control circuit 160 may adjust both the beam scanning speed and the measurement rate to control the measurement point density to be nearly uniform. Through these operations, the density of measurement points can be made uniform, as shown in FIG. 3B.
  • the control circuit 160 may adjust the measurement point density to be increased by 1/cos ⁇ times according to the irradiation angle ⁇ of the light beam. Further, when the height of the beam emitting unit 110 is h and it is desired to match the measurement point density with the past measurement result at the height h1, the control circuit 160 controls the measurement point density to be (h1/h) twice .
  • the angle step of the beam scan may be changed so that Note that even when distance measurement in a one-dimensional area is performed by beam scanning in a one-dimensional direction, the control circuit 160 may change the angle step of the beam scan according to the irradiation angle ⁇ and the height h1.
  • FIG. 4 is a flowchart showing an example of a measurement procedure using the distance measuring device 100.
  • the distance measuring device 100 is installed at an appropriate location for measuring the distance to the object. For example, when the target object is a floor surface as shown in FIG. 1A, the distance measuring device 100 is installed near a portion of the floor whose shape is desired to be evaluated.
  • step S102 the horizontal angle, vertical angle, and height of the beam emitting section 110 are adjusted.
  • This adjustment may be performed, for example, by a worker who performs measurement work.
  • the operator may input angle and height information by operating the input device.
  • the device may automatically read the angle and height and input that information.
  • the input information is recorded in the storage device 170 via the input interface 180.
  • the distance measuring device 100 may include one or more sensors that measure the horizontal angle, vertical angle, and height of the beam emitting section 110. In that case, the horizontal angle, vertical angle, and height information measured by the sensor may be recorded in the storage device 170.
  • step S103 the control circuit 160 determines the angle step of the scan so that a predetermined measurement point density is obtained based on the input or measured horizontal angle, vertical angle, and height.
  • the control circuit 160 changes the scanning angular step according to the emission direction of the light beam, such that the scanning angular step becomes smaller as the angle from the direction of the vertically incident light increases, for example.
  • step S104 the control circuit 160 controls the scanning device 130 according to the determined angle step to perform 3D measurement.
  • the processing circuit 150 calculates the distance to the measurement point.
  • information indicating that the measurement is in progress or the remaining time of the measurement may be displayed on a display of a PC (Personal Computer) or mobile computer connected to the distance measuring device 100.
  • PC Personal Computer
  • step S106 the processing circuit 150 stores the measurement data including distance information of each measurement point in the storage device 170 or a storage device such as a PC or mobile computer connected to the distance measuring device 100.
  • the processing circuit 150 converts the measurement data into three-dimensional point group data in a predetermined coordinate system.
  • the predetermined coordinate system may be, for example, the XYZ coordinate system shown in FIGS. 3A and 3B. Since the origin of the measurement data is the beam emission point, coordinate transformation processing is performed as necessary.
  • the coordinate conversion process uses the data on the horizontal angle, vertical angle, and height of the beam emitting unit 110 input in step S102.
  • the processing circuit 150 cuts out data of a part of the area to be analyzed from the obtained data as necessary.
  • the field of view of the distance measuring device 100 may include objects other than the target object. In such a case, the operator can operate a PC or mobile computer to specify which part of the field of view is to be subjected to shape analysis.
  • the processing circuit 150 cuts out data of the designated area to be analyzed. This area will be referred to as an "evaluation area" in the following description.
  • step S109 the processing circuit 150 analyzes the shape from the point cloud data in the cut out evaluation area.
  • the surface shape may be extracted or the surface roughness may be evaluated by fitting based on the distribution of measurement points.
  • the surface roughness can be evaluated, for example, by a roughness parameter described below.
  • step S110 the processing circuit 150 outputs information indicating the analysis result (eg, roughness parameters, etc.) to the storage device 170 or an external display device. In this way, the processing circuit 150 may generate and output information indicating the surface roughness in a region including the plurality of measurement points based on the distance information of the plurality of measurement points on the target object.
  • the processing circuit 150 determines whether the surface state of the object satisfies desired conditions by comparing the calculated roughness parameters and the like with a predetermined threshold. Good too. When the surface of the object is required to be rough, a roughness parameter greater than a predetermined threshold value is determined as a desired value.
  • the roughness parameter is set to be a desired value when it is smaller than a predetermined threshold value.
  • a roughness parameter falling within a predetermined range is determined as a desired value.
  • the evaluation area may be a two-dimensional area or a one-dimensional area.
  • the width of the evaluation area can be determined, for example, depending on the size of a convex portion or a concave portion on the surface of the object.
  • the evaluation area may be, for example, a rectangular, circular, or elliptical two-dimensional area.
  • Such an evaluation region is effective for a surface of an object having a two-dimensionally distributed uneven shape.
  • the roughness parameter is the arithmetic mean height Sa.
  • the arithmetic mean height Sa is calculated by the following formula (1).
  • "A" in equation (1) represents the area of the evaluation region.
  • the height of the unevenness can be known from the distance information of each of the plurality of measurement points.
  • the root-square height Sq is calculated by the following equation (2).
  • the root-square height Sq corresponds to the standard deviation of the height difference in the evaluation area, and represents the variation in the height difference.
  • the root-square height Sq and the arithmetic mean height Sa satisfy the relationship Sq ⁇ Sa. The greater the variation in the height difference, the greater the deviation of Sq/Sa from 1.
  • roughness parameters include the developed interface area ratio Sdr, which is an index of surface area, the skewness Ssk, which indicates the symmetry of the height distribution of the unevenness, the kurtosis Sku, which indicates the sharpness of the height distribution of the unevenness, and the roughness of the unevenness.
  • Sdr developed interface area ratio
  • Skk skewness
  • Sku kurtosis Sku
  • Sdq root mean square slope
  • the roughness parameters include, for example, the arithmetic mean height Sa, root-square height Sq, developed interface area ratio Sdr, skewness Ssk, kurtosis Sku, and root-mean-square slope Sdq in a two-dimensional area. may be one selected from the group.
  • the broken line shown in FIG. 5A represents the reference plane, and the solid line represents the arithmetic mean height Sa and the root-square height Sq.
  • FIGS. 5B and 5C are diagrams schematically showing examples of reference surfaces in an uneven shape having low-period undulations.
  • the reference plane is a plane obtained by averaging the heights of the unevenness in the evaluation region. If the reference surface is a flat surface, roughness parameters including waviness are calculated.
  • the example shown in FIG. 5B the reference plane is a plane obtained by averaging the heights of the unevenness in the evaluation region. If the reference surface is a flat surface, roughness parameters including waviness are calculated.
  • the reference plane divides the evaluation area into multiple areas, averages the height of the unevenness in each area, and connects the averaged heights in the multiple areas. It is a curved surface obtained by If the reference surface is a curved surface, a roughness parameter with waviness removed is calculated.
  • the evaluation area may be a one-dimensional area. Such an evaluation region is effective for a surface of an object having a one-dimensionally distributed uneven shape.
  • the roughness parameter may be, for example, one selected from the group consisting of arithmetic mean height Ra, root-square height Rq, skewness Rsk, kurtosis Rku, and root-mean-square slope Rdq in a one-dimensional area.
  • the control circuit 160 may cause the scanning device 130 to perform a one-dimensional beam scan.
  • Pre-measurement is an operation that measures the distances of multiple measurement points on the object by beam scanning with a constant angle step.
  • the control circuit 160 may adjust the angle step of the beam scan in the main measurement performed after the pre-measurement based on the result of the pre-measurement. For example, the control circuit 160 may make the angle step of the beam scan in the main measurement smaller in a region where the density of measurement points in the pre-measurement is smaller.
  • FIG. 6 is a flowchart showing an example of the flow of distance measurement when pre-measurement is performed.
  • the flowchart shown in FIG. 6 differs from the flowchart shown in FIG. 4 in that step S111 is added after step S101, and steps S102 and S103 are replaced with steps S112 and S113, respectively.
  • the measurement point density is corrected using parameters such as the installation angle and height of the beam emitting section 110.
  • preliminary measurement is performed in step S111, and the measurement point density in the main measurement is corrected based on the point cloud data obtained in the preliminary measurement.
  • the control circuit 160 performs distance measurement at each measurement point, for example, by keeping the angle step of the beam scan constant.
  • the processing circuit 150 generates point cloud data of a plurality of measurement points.
  • the processing circuit 150 calculates the distance from the measured surface of the beam emitting unit 110 and the vertical angle based on the generated point group data. This information is used in the coordinate transformation in step S107 later.
  • the control circuit 160 determines the angle step of the beam scan based on the result of the preliminary measurement.
  • the measurement point density can also be appropriately corrected using the method shown in FIG.
  • the incident angle of the beam changes depending on its shape, so there is a possibility that the measurement point density cannot be effectively corrected. Therefore, as in the example shown in Figure 6, it is recommended to perform pre-measurement, estimate the overall measurement point density based on the point cloud data obtained in the pre-measurement, and use the result to determine the scan angle step. It is valid. For example, assume that measurement data as shown in FIG. 3A is obtained as a result of preliminary measurement. The density distribution of measurement points can be estimated from this measurement data.
  • control circuit 160 predetermines the angular step of scanning for each emission direction, and performs 3D measurement based on the angular step. This makes it possible to evaluate the shape of the surface of the object with higher accuracy.
  • the angle and height (or distance) parameters of the beam emitting section 110 at the time of installation are unknown or unmeasured. Even so, these parameters can be determined from pre-measurement data.
  • the measurement point density may be further corrected by correcting the scanning angle step using these parameters.
  • Multiple measurements There may be cases where only a part of the area that requires surface evaluation can be measured in one measurement. In such a case, it is effective to move the distance measuring device 100 and perform measurements multiple times, as shown in FIG. 7, for example. By performing multiple measurements, it is possible to measure the entire area that requires evaluation. For example, the distance measuring device 100 may be moved by an operator himself, or the movement may be automated using a device that moves the distance measuring device 100.
  • the control circuit 160 may adjust the angle step of the beam scan in each measurement to reduce the difference in the density of measurement points in each measurement. That is, when the distance measuring device 100 measures a first area of the object and then moves the distance measuring device 100 to measure a second area of the object, the control circuit 160 controls the first area.
  • the angle step of the beam scan in distance measurement in the second region may be adjusted so as to reduce the difference between the density of measurement points in the second region and the density of measurement points in the second region.
  • the angle or height parameters of the beam emitting unit 110 may change in measurements before and after the movement because the installation surface is tilted or uneven after the movement. be. Even in such a case, the angle and height of the beam emitting section 110 can be measured after installation, and the measurement point density can be corrected and measured based on those parameters. This has the effect of making the measurement conditions uniform each time.
  • the above-mentioned preliminary measurement may be performed every time the vehicle moves, and the actual measurement may be performed after correcting the measurement point density based on the preliminary measurement. Even in that case, the effect of leveling the measurement point density can be obtained as well.
  • the difference in the density of measurement points from region to region is reduced by adjusting the angle step of the beam scan, but it is also possible to obtain a similar effect by data processing.
  • the processing circuit 150 divides a target area occupied by a plurality of measurement points whose distances have been measured into a plurality of virtual partial areas (indicated by dotted line frames in FIG.
  • the density of measurement points in some or all partial regions may be changed to reduce the difference.
  • the density of measurement points can be changed, for example, by removing some measurement points.
  • the processing circuit 150 approaches the density of measurement points in at least one remaining partial region among the plurality of partial regions to the density in a partial region having the smallest density of measurement points among the plurality of partial regions.
  • the difference in density of measurement points in a plurality of regions may be reduced. Furthermore, the processing circuit 150 makes the density of the measurement points in some or all of the remaining partial areas approximately match the density of the partial area having the smallest density of measurement points among the plurality of partial areas. The difference in density of measurement points in the region may be reduced.
  • the plurality of partial regions may be set by the processing circuit 150 such that, for example, the difference in the number of angular steps or the area between the partial regions is small. Alternatively, the user may be able to arbitrarily set the partial area. In that case, setting information for the plurality of partial areas can be input from the computer used by the user via the input interface 180.
  • the processing circuit 150 may divide the target region into a plurality of partial regions according to information input via the input interface 180.
  • a plurality of partial regions may be set by combining the plurality of methods described above.
  • the processing circuit 150 may limit the density of measurement points in each of the plurality of partial regions to a predetermined density or less.
  • the processing circuit 150 refers to the density of the measurement points of each of the plurality of partial regions, and removes data of the measurement points of other partial regions so as to match the density of the partial region with the lowest density, thereby determining the density of the measurement points. may be leveled. For example, the point densities of other partial regions may be made smaller so as to match the point density of the partial region in which the average distance from the beam emitting unit 110 to each measurement point is the farthest. If the surface of the object is planar, the incident angle of the beam will be large in a partial region that is far away from the beam emitting unit 110.
  • the data of the measurement points may be removed from all of the plurality of partial regions.
  • the specified density required for surface evaluation may be, for example, the number of points required when determining a surface by fitting measurement points.
  • a density that allows two or more measurement points to cover the typical structure size of the surface may be set as the specified density.
  • Typical structural sizes may be the width of the protrusions or recesses, the period of the protrusions, the height of the protrusions, or the depth of the recesses of the structure, as shown in FIG. 9A, for example.
  • a typical feature size may be the average width or average height of the roughened surface, as shown in FIG. 9B.
  • FIG. 10A is a diagram showing an example in which the density of measurement points is insufficient relative to the structure size.
  • FIG. 10B is a diagram showing an example in which the density of measurement points is appropriate for the structure size.
  • FIG. 10C is a diagram showing an example in which the density of measurement points is excessive with respect to the structure size. In these figures, measurement points are indicated by circles.
  • FIG. 10A if the point density is too small, the shape obtained by 3D measurement will deviate from the actual shape, reducing the reliability of structure evaluation.
  • FIG. 10B when the structure size is covered by about 2 to 5 measurement points, it is possible to obtain a 3D measurement result close to the true value of the shape.
  • FIG. 10A is a diagram showing an example in which the density of measurement points is insufficient relative to the structure size.
  • FIG. 10B is a diagram showing an example in which the density of measurement points is appropriate for the structure size.
  • FIG. 10C is a diagram showing an example in which the density of measurement points is excessive with respect to
  • the typical structure size can be determined based on the size of aggregate contained in the concrete.
  • typical structure sizes can be estimated by pre-measurement. Based on the information on typical structure sizes obtained in this way, the prescribed density can be determined.
  • the processing circuit 150 may determine the prescribed density based on information input via the input interface 180 regarding the scale of irregularities on the surface of the object (for example, any of the structure sizes exemplified above). . By suppressing the density of measurement points in each partial region to a specified density or less, it is possible to reduce the computational processing load while ensuring the minimum measurement accuracy required for surface evaluation.
  • the processing circuit 150 may determine the plurality of partial regions and the specified density in the main measurement based on the results of a pre-measurement in which distances between a plurality of measurement points in the target area are measured without changing the density of the measurement points. .
  • the processing circuit 150 may limit the density of measurement points in each of the plurality of partial regions in the main measurement to a predetermined density or less. In this way, the processing circuit 150 may capture a rough overall image of the object by performing pre-measurement, and then perform processing to set partial regions and reduce density differences between measurement points. By performing such processing, it is possible to appropriately set partial regions and reduce density differences even when the identity of the object is unknown.
  • the processing circuit 150 may increase the density of measurement points in at least one of the plurality of partial regions in the main measurement based on the result of the previous measurement or pre-measurement.
  • the processing circuit 150 may perform distance measurement on a plurality of partial regions using the method described above, and then extract data of an evaluation region whose shape is to be analyzed from the obtained data. Then, if necessary, the shape may be analyzed from the data and the results may be output. Shape analysis can be performed, for example, by extracting the shape by fitting or evaluating surface roughness. The data may be output by, for example, displaying the evaluation results for each partial region on a display device or outputting data such as numerical values.
  • the distance measuring device 100 acquires distance data of a plurality of measurement points by performing beam scanning.
  • a distance measuring device that uses a light source 120 such as a laser or an LED that emits diffused light and an image sensor to obtain distance data at a plurality of measurement points may be used.
  • scanning device 130 is not provided.
  • photodetector 140 includes an image sensor that outputs an image signal as a detection signal.
  • the processing circuit 150 calculates the distance for each of the plurality of pixels in the image signal or for each of the plurality of pixel regions in the image signal, and outputs the calculated distance as the distance of the plurality of measurement points. Even with such a configuration, the same effect can be obtained by performing a process of leveling the measurement point density through data processing.
  • the distance measuring device 100 that performs data processing includes a light source 120, a photodetector 140 that receives reflected light from an object illuminated with light from the light source 120 and outputs a detection signal, and a processing circuit 150. Equipped with.
  • the processing circuit 150 calculates the distance to each of the plurality of measurement points included in the target area of the object based on the detection signal, and generates measurement data indicating the distribution of distances or positions of the plurality of measurement points.
  • the processing circuit 150 executes processing on the measurement data to change the density of measurement points in at least one of the plurality of partial regions so as to reduce the difference in density of measurement points in the plurality of partial regions included in the target region, Output measurement data with changed density.
  • the density of measurement points in the plurality of partial regions can be brought close to uniform, and the accuracy of analysis or evaluation of the shape of the object can be improved.
  • the user may be able to switch ON/OFF the operation of leveling the measurement point density.
  • the specifications such that the user can select ON/OFF of the above operation, data can also be acquired without leveling the measurement point density. This makes it possible to compare cases with and without leveling, and to select an appropriate mode depending on the situation.
  • the control circuit 160 determines the beam scan angle step so as to reduce the difference in density of measurement points for each region of the target object. It may be configured to switch between the first mode and a second mode in which the angular step of beam scanning is made constant according to an operation from a user.
  • the processing circuit 150 controls at least one of the plurality of partial regions so as to reduce the difference in the density of measurement points in the plurality of partial regions.
  • the device is configured to switch between a first mode in which processing for changing the density of measurement points is executed on the measurement data and a second mode in which processing for changing the density of measurement points is not executed in response to an operation from a user. It's okay.
  • FMCW-LiDAR distance measurement As an example of the distance measuring device 100, a specific example of the configuration and distance measuring operation of a LiDAR sensor that measures distance using FMCW technology will be described.
  • FIG. 11 is a block diagram showing a configuration example of a LiDAR sensor 200, which is an example of a distance measuring device.
  • thick arrows represent the flow of light
  • thin arrows represent the flow of signals or data.
  • FIG. 11 also shows an object that is a distance measurement target.
  • the object may be, for example, an object with minute irregularities on its surface, such as a concrete surface or a wall.
  • the LiDAR sensor 200 shown in FIG. 11 includes a light source 210, an interference optical system 220, a photodetector 230, a processor 240, and a scanning device 250.
  • processor 240 also serves as the functions of processing circuit 150 and control circuit 160 described above.
  • the light source 210 can change the frequency or wavelength of the emitted light in response to a control signal output from the processor 240.
  • the interference optical system 220 separates the emitted light from the light source 210 into a reference light and an output light, and generates interference light by causing the reflected light generated by the output light to be reflected by an object to interfere with the reference light.
  • the interference light is incident on photodetector 230.
  • the photodetector 230 receives the interference light, generates and outputs an electrical signal according to the intensity of the interference light. This electrical signal is called a "detection signal.”
  • Photodetector 230 includes one or more light receiving elements.
  • the light receiving element includes, for example, a photoelectric conversion element such as a photodiode.
  • the photodetector 230 may be a sensor, such as an image sensor, in which a plurality of light receiving elements are two-dimensionally arranged.
  • the processor 240 controls the light source 210 and performs processing based on the detection signal output from the photodetector 230.
  • the processor 240 functions as a control circuit that controls the light source 210 and the scanning device 250, and a processing circuit that performs signal processing based on the detection signal.
  • Processor 240 may be configured as a single circuit or may be a collection of multiple separate circuits.
  • Processor 240 sends control signals to light source 210.
  • the control signal causes the light source 210 to periodically change the frequency of the emitted light within a predetermined range.
  • Processor 240 also sends a control signal that causes scanning device 250 to change the direction of the light beam.
  • Processor 240 further calculates the distance to each measurement point based on the detection signal output from photodetector 230.
  • the light source 210 in this example includes a drive circuit 211 and a light emitting element 212.
  • the drive circuit 211 receives a control signal output from the processor 240, generates a drive current signal according to the control signal, and inputs the drive current signal to the light emitting element 212.
  • the light emitting element 212 may be an element that emits highly coherent laser light, such as a semiconductor laser element.
  • the light emitting element 212 emits frequency-modulated laser light in response to the drive current signal.
  • the frequency of the laser light emitted from the light emitting element 212 is modulated at a constant cycle.
  • the frequency modulation period may be, for example, 1 microsecond ( ⁇ s) or more and 10 milliseconds (ms) or less.
  • the frequency modulation amplitude may be, for example, 100 MHz or more and 1 THz or less.
  • the wavelength of the laser beam may be included in the near-infrared wavelength range of 700 nm or more and 2000 nm or less, for example. In sunlight, the amount of near-infrared light is smaller than the amount of visible light. Therefore, by using near-infrared light as the laser light, the influence of sunlight can be reduced.
  • the wavelength of the laser light may be included in the visible light wavelength range of 400 nm or more and 700 nm or less, or in the ultraviolet light wavelength range.
  • the control signal input from the processor 240 to the drive circuit 211 is a signal whose voltage fluctuates at a predetermined period and with a predetermined amplitude.
  • the voltage of the control signal may be modulated in a triangular or sawtooth waveform, for example.
  • the frequency of the light emitted from the light emitting element 212 can be swept in a nearly linear manner using a control signal in which the voltage repeatedly changes linearly, such as a triangular wave or a sawtooth wave.
  • the interference optical system 220 in the example shown in FIG. 11 includes a splitter 221, a mirror 222, and a collimator 223.
  • the splitter 221 separates the laser light emitted from the light emitting element 212 of the light source 210 into a reference light and an output light, and combines the reflected light from the object and the reference light to generate interference light.
  • Mirror 222 reflects the reference light and returns it to splitter 221 .
  • the collimator 223 includes a collimating lens, and irradiates the output light onto the object with a nearly parallel spread angle.
  • the interference optical system 220 is not limited to the configuration shown in FIG. 11, and may be a fiber optical system, for example. In that case, a fiber coupler may be used as the splitter 221.
  • the reference light does not necessarily need to be reflected by the mirror 222; for example, the reference light may be returned to the splitter 221 by routing an optical fiber.
  • the scanning device 250 may include, for example, a MEMS mirror or a galvano mirror.
  • the scanning device 250 can change the direction of output light 22 by changing the angle of the mirror according to a command from the processor 240. This makes it possible to measure a wide range of distances by beam scanning.
  • the scanning device 250 is not limited to the above configuration, and may be a beam scanning device using an optical phased array and a slow light waveguide, for example, as described in International Publication No. 2019/230720.
  • Distance measurement using the FMCW-LiDAR method is performed based on the frequency of interference light generated by interference between a frequency-modulated reference light and reflected light.
  • FIG. 12 shows an example of how the frequencies of the reference light, reflected light, and interference light change over time when the distance between the LiDAR sensor 200 and the object is constant (for example, when both are stationary).
  • the frequency f of the light emitted from the light source 210 changes in a triangular waveform, and the rate of change in frequency per unit time is the same in a period in which the frequency increases and a period in which the frequency decreases.
  • a period in which the frequency increases is referred to as an "up-chirp period”
  • a period in which the frequency decreases over time is referred to as a "down-chirp period”.
  • dotted lines represent reference light
  • broken lines represent reflected light
  • thick solid lines represent interference light.
  • the reflected light from the object with respect to the reference light is accompanied by a time delay depending on the distance. Therefore, a certain difference occurs between the frequency of the reflected light and the frequency of the reference light depending on the distance, except immediately after the turning point of frequency modulation.
  • the interference light has a frequency corresponding to the frequency difference between the reference light and the reflected light. Therefore, the frequency f up of the interference light during the up-chirp period and the frequency f down of the interference light during the down-chirp period are equal, except immediately after the turn-back point of frequency modulation.
  • Photodetector 230 outputs a detection signal indicating the intensity of the interference light.
  • the detection signal is called a beat signal, and the frequency of the beat signal is called a beat frequency.
  • the beat frequency is equal to the frequency difference between the reference light and the reflected light. This frequency difference depends on the distance from the LiDAR sensor 200 to the object. Therefore, the distance from the LiDAR sensor 200 to the target object can be calculated based on the beat frequency.
  • the speed of light is c
  • the modulation frequency of the emitted light is f FMCW
  • the frequency modulation width of the emitted light i.e. the difference between the highest frequency and the lowest frequency
  • the distance from the LiDAR sensor 200 to the target object is d.
  • the modulation frequency fFMCW is the reciprocal of the frequency modulation period of the emitted light.
  • the processing circuit 150 can generate distance data for a plurality of measurement points by performing the above calculation for each measurement point.
  • the processing circuit 150 can further convert the distance data of the plurality of measurement points into three-dimensional point group data based on information indicating the position and orientation of the beam emitting part of the LiDAR sensor 200.
  • FMCW-LiDAR can measure not only distance but also the speed of an object. However, since the object in this embodiment is a stationary object, a description of the speed measurement process will be omitted.
  • the processor 240 may change the step angle of the beam scan executed by the scanning device 250 according to parameters such as the angle of the emitted light. Furthermore, the processor 240 may suppress variations in the density of measurement points between regions by removing data of some measurement points from the generated three-dimensional point group data.
  • the distance measuring device is not limited to the LiDAR sensor 200 described above, but may be a sensor that measures distance using ToF technology.
  • a distance measuring device using ToF technology measures the time from when light is emitted until reflected light is received, and calculates distance based on that time.
  • the technology of the present disclosure is applicable regardless of the type of distance measuring device.
  • a distance measuring device includes a light source that emits a light beam, a scanning device that performs a beam scan that changes the emission direction of the light beam, and an object that is irradiated with the light beam.
  • a photodetector that receives reflected light from a measurement point of an object and outputs a detection signal; a processing circuit that calculates a distance to the measurement point based on the detection signal; and a control circuit that controls the scanning device. Equipped with The control circuit determines the angular step of the beam scan so as to reduce the difference in density of the measurement points from region to region on the object. Thereby, variations in the density of measurement points between regions can be suppressed, and the reliability of surface state evaluation based on the acquired data can be improved.
  • the control circuit may change the angle step depending on the emission direction of the light beam. For example, the control circuit may make the angle step smaller as the angle of incidence of the light beam on the object is larger. This makes it possible to suppress changes in the density of measurement points caused by changes in the angle of incidence of the light beam on the object.
  • the control circuit may acquire information indicating a distance between the light source and the target object, and change the angle step according to the distance. For example, the control circuit may make the angle step smaller as the distance becomes larger. Thereby, changes in the density of measurement points due to changes in the distance between the light source and the object can be suppressed.
  • the control circuit adjusts the angle step of the beam scan in the main measurement performed after the pre-measurement, based on the result of a pre-measurement in which distances between a plurality of measurement points on the object are measured by the beam scan. It's okay. As a result, even if the surface of the object is not flat, the overall measurement point density can be estimated based on the data obtained in the pre-measurement, so the angular step of the scan in the main measurement can be appropriately determined. I can do it.
  • the control circuit may make the angle step of the beam scan in the main measurement smaller in a region where the density of the measurement points in the pre-measurement is smaller. Thereby, the difference in density of measurement points between regions can be reduced.
  • the distance measuring device After the distance measuring device measures a first area of the target object, the distance measuring device may be moved to measure a second area of the target object.
  • the control circuit controls the beam scan in distance measurement in the second area so as to reduce the difference between the density of the measurement points in the first area and the density of the measurement points in the second area.
  • the angular step of may be adjusted. Thereby, the difference in density of measurement points between the first region and the second region can be reduced.
  • the processing circuit generates and outputs information indicating surface roughness in an area including the plurality of measurement points based on the distance from the distance measuring device to each of the plurality of measurement points on the target object.
  • Information indicating surface roughness includes, for example, arithmetic mean height Ra, root-square height Rq, skewness Rsk, kurtosis Rku, and root-mean-square slope Rdq in a one-dimensionally extending region or two-dimensionally expanding region. It may be one or more selected from the group consisting of.
  • the control circuit operates in a first mode in which the angular step of the beam scan is determined so as to reduce a density difference of the measurement points in each region of the object, and in a first mode in which the angular step in the beam scan is constant.
  • the two modes may be switched according to an operation from the user.
  • a user can switch between the first mode and the second mode, for example, via the user interface. This allows you to compare data acquired by performing an operation to reduce the density difference between measurement points for each area with data acquired without performing the operation, or to use the first mode and second mode depending on the purpose. You can choose one of them.
  • a distance measuring device includes a light source, a photodetector that receives reflected light from an object irradiated with light from the light source and outputs a detection signal, and a distance measuring device that includes a light source that outputs a detection signal based on the detection signal.
  • a processing circuit that calculates a distance to each of a plurality of measurement points included in a target region of the object and generates measurement data indicating a distribution of distances or positions of the plurality of measurement points.
  • the processing circuit performs a process of changing the density of the measurement points in at least one of the plurality of partial regions so as to reduce a density difference of the measurement points in the plurality of partial regions included in the target region. Run on data. Thereby, variations in the density of measurement points between regions can be suppressed, and the reliability of surface state evaluation based on the acquired data can be improved.
  • the light source may be configured to emit a light beam.
  • the distance measuring device may further include a scanning device that performs beam scanning to change the emission direction of the light beam. By beam scanning, information on the distance to each of a plurality of measurement points within the target area can be acquired with high accuracy.
  • the light source may be configured to emit diffused light.
  • the photodetector may include an image sensor that outputs an image signal as the detection signal.
  • the processing circuit calculates the distance for each of the plurality of pixels in the image signal or each of the plurality of pixel regions in the image signal, and outputs the calculated distance as a distance between the plurality of measurement points. It's okay. Thereby, information on the distance to each of the plurality of measurement points within the target area can be acquired at once.
  • the distance measuring device may further include an input interface for inputting information for setting the plurality of partial areas.
  • the processing circuit may divide the target area into the plurality of partial areas according to the information input via the input interface. This allows the user to arbitrarily set a plurality of partial areas, for example.
  • the processing circuit adds the density of the measurement points in at least one remaining partial region among the plurality of partial regions to the density in a partial region having the smallest density of the measurement points among the plurality of partial regions. By bringing the measurement points closer together, the density difference between the measurement points in the plurality of regions may be reduced. For example, the processing circuit may set the density of the measurement points in a partial region having the smallest density of the measurement points among the plurality of partial regions to the density of the measurement points in all remaining partial regions among the plurality of partial regions. You may move them closer together or align them. Such processing makes it possible to equalize the density of measurement points between partial regions, and further improve the reliability of surface shape evaluation.
  • the processing circuit may limit the density of the measurement points in each of the plurality of partial regions to a predetermined density or less.
  • the predetermined density may be set, for example, to be equal to or higher than the minimum density necessary for surface evaluation of the object.
  • the distance measuring device may further include an input interface for inputting information regarding a scale of unevenness on the surface of the object.
  • the processing circuit may change the predetermined density depending on the input information. This allows the user to appropriately set the predetermined density depending on the object, for example.
  • the processing circuit determines the distance between the plurality of measurement points in the main measurement performed after the pre-measurement based on the result of a pre-measurement in which distances between the plurality of measurement points in the target area are measured without changing the density of the measurement points.
  • a partial area may also be determined. Thereby, a plurality of partial regions can be appropriately determined based on the data obtained by pre-measurement.
  • the processing circuit may determine the predetermined density based on the result of the pre-measurement, and limit the density of the measurement points in each of the plurality of partial regions in the main measurement to be equal to or less than the predetermined density. . Thereby, the prescribed density can be set to an appropriate value based on the data obtained in the pre-measurement.
  • the processing circuit may increase the density of the measurement points in at least one of the plurality of partial regions in the main measurement based on the result of the pre-measurement. Thereby, for example, it is possible to supplement data about a partial region whose density required for surface evaluation has not been reached by the main measurement alone with the data obtained by the pre-measurement. Therefore, necessary data can be acquired with a small number of measurements.
  • the processing circuit is configured to perform, on the measurement data, a process of changing the density of the measurement points in at least one of the plurality of partial regions so as to reduce a density difference of the measurement points in the plurality of partial regions.
  • the mode and a second mode in which the process of changing the density is not executed may be switched according to an operation from a user. This allows you to compare data acquired by performing an operation to reduce the density difference between measurement points for each area with data acquired without performing the operation, or to use the first mode and second mode depending on the purpose. You can choose one of them.
  • a method is a method for controlling a distance measuring device that includes a light source that emits a light beam and a scanning device that performs a beam scan that changes the emission direction of the light beam.
  • the method includes obtaining information regarding the emission direction of the light beam and/or the distance between the object and the light source, and adjusting the angular step of the beam scan based on the information.
  • the method includes determining to reduce a difference in density of measurement points between regions, and performing the beam scan based on the angular step.
  • a method provides data in a distance measuring device that includes a light source and a photodetector that receives reflected light from an object irradiated with light from the light source and outputs a detection signal.
  • This is a processing method.
  • the method includes calculating a distance to each of a plurality of measurement points included in a target area of the object based on the detection signal, and generating measurement data indicating a distribution of distances or positions of the plurality of measurement points. and changing the density of the measurement points in at least one of the plurality of partial regions so as to reduce the density difference of the measurement points in the plurality of partial regions included in the target region. performing on the data;
  • information indicating surface roughness was calculated as an index for evaluating the state of the surface of the object.
  • the index for evaluating the surface condition is not limited to roughness.
  • the calculated evaluation index may be the degree of slope of the surface in the target region.
  • the evaluation index may be the size or surface area of the target region.
  • the technology of the present disclosure can be used, for example, to perform 3D measurement of structures such as buildings or industrial products made of materials such as concrete, metal, wood, or plastic.

Landscapes

  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Optical Radar Systems And Details Thereof (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

測距装置は、光ビームを出射する光源と、前記光ビームの出射方向を変化させるビームスキャンを行うスキャン装置と、前記光ビームで照射された対象物の計測点からの反射光を受けて検出信号を出力する光検出器と、前記検出信号に基づいて前記計測点までの距離を算出する処理回路と、前記スキャン装置を制御する制御回路と、を備える。前記制御回路は、前記対象物における領域ごとの前記計測点の密度差を低減するように、前記ビームスキャンの角度ステップを決定する。

Description

測距装置、測距装置の制御方法、およびデータ処理方法
 本開示は、測距装置、測距装置の制御方法、およびデータ処理方法に関する。
 構造物の3次元形状の情報を取得するために、距離計測が可能なセンサを用いた3D計測が行われている。例えば、工場で車両、装置、または家電などの比較的大型の製品を製造する際に、形状、打痕、または表面の凹凸などの状態を検査するために3D計測が行われることがある。部品または仕掛品に対して3D計測を行い、形状または傷の評価を行うことで、工程管理することができる。建設現場においても、建設工程における必要な場面において、3D計測情報を取得することで、進捗管理または品質管理をデータに基づいて行うことができる。例えば、建設現場を3D計測し、必要な箇所にプロジェクタ等でマーキングを行うことで、墨出しを自動化することができる。また、建物の増改築時に図面がない場合にも、センサで3D形状の情報を取得することで、図面を再度作製することができる。さらに、建設の工程において、耐火材を吹き付けたり、コンクリートの打継面処理を実施したりするときに、その形状をセンサで計測・検査することで、目視に頼らずに工程管理を行うこともできる。
 特許文献1および2は、構造物の表面形状の情報を取得するためのシステムの例を開示している。特許文献1は、レーザ測距計または超音波測距計などの測距装置を用いて、既設コンクリートの表面の処理形状の特徴量を算出する表面処理形状評価システムを開示している。特許文献2は、偏向されたレーザ光を静止した鋼板上に走査して鋼板上の検出点群のデータを取得し、検出点群のデータから鋼板の形状を計測する方法を開示している。特許文献2の方法では、検出点群の点密度を均一化する間引き処理および検出点群データから回帰曲線を解析する演算処理が行われる。
特開平11-336017号公報 特開2010-156622号公報
 本開示は、3D計測の精度を向上させるための技術を提供する。
 本開示のある実施形態による測距装置は、光ビームを出射する光源と、前記光ビームの出射方向を変化させるビームスキャンを行うスキャン装置と、前記光ビームで照射された対象物の計測点からの反射光を受けて検出信号を出力する光検出器と、前記検出信号に基づいて前記計測点までの距離を算出する処理回路と、前記スキャン装置を制御する制御回路と、を備える。前記制御回路は、前記対象物における領域ごとの前記計測点の密度差を低減するように、前記ビームスキャンの角度ステップを決定する。
 本開示の他の実施形態による測距装置は、光源と、前記光源からの光で照射された対象物からの反射光を受けて検出信号を出力する光検出器と、前記検出信号に基づいて前記対象物の対象領域に含まれる複数の計測点の各々までの距離を算出し、前記複数の計測点の距離または位置の分布を示す計測データを生成する処理回路と、を備える。前記処理回路は、前記対象領域に含まれる複数の部分領域における前記計測点の密度差を低減するように、前記複数の部分領域の少なくとも1つにおける前記計測点の密度を変更する処理を前記計測データについて実行する。
 本開示の包括的または具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラムまたはコンピュータ読み取り可能な記録ディスク等の記録媒体によって実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラムおよび記録媒体の任意の組み合わせによって実現されてもよい。コンピュータ読み取り可能な記録媒体は、揮発性の記録媒体を含んでいてもよいし、CD-ROM(Compact Disc‐Read Only Memory)等の不揮発性の記録媒体を含んでいてもよい。装置は、1つ以上の装置で構成されてもよい。装置が2つ以上の装置で構成される場合、当該2つ以上の装置は、1つの機器内に配置されてもよく、分離した2つ以上の機器内に分かれて配置されてもよい。本明細書および特許請求の範囲では、「装置」とは、1つの装置を意味し得るだけでなく、複数の装置からなるシステムも意味し得る。
 本開示の実施形態によれば、3D計測の精度を向上させることができる。
図1Aは、本開示の例示的な実施形態による測距装置を模式的に示す図である。 図1Bは、測距装置の他の構成例を示す図である。 図2は、測距装置の構成例を示すブロック図である。 図3Aは、一定の角度ステップでビームスキャンが行われた場合における計測点の分布の例を模式的に示す図である。 図3Bは、出射方向に応じて角度ステップを補正したビームスキャンが行われた場合における計測点の分布の例を模式的に示す図である。 図4は、測距装置を用いた計測手順の一例を示すフローチャートである。 図5Aは、凹凸形状を有する評価領域における基準面、算術平均高さ、および二乗平方根高さの関係を模式的に示す図である。 図5Bは、低周期のうねりを有する凹凸形状における基準面の例を模式的に示す図である。 図5Cは、低周期のうねりを有する凹凸形状における基準面の他の例を模式的に示す図である。 図6は、プレ計測が行われる場合における距離計測の流れの一例を示すフローチャートである。 図7は、測距装置を移動させて測距を行う様子を模式的に示す図である。 図8は、データ処理によって計測点密度を均一に近付ける方法を説明するための図である。 図9Aは、構造体のサイズを説明するための図である。 図9Bは、構造体のサイズを説明するための他の図である。 図10Aは、構造サイズに対して計測点の密度が不足する例を示す図である。 図10Bは、構造サイズに対して計測点の密度が適切である例を示す図である。 図10Cは、構造サイズに対して計測点の密度が過剰である例を示す図である。 図11は、LiDARセンサの構成例を示すブロック図である。 図12は、LiDARセンサと対象物との距離が一定の場合における参照光、反射光、および干渉光の周波数の時間変化の例を示す図である。
 以下で説明される実施形態は、いずれも包括的または具体的な例を示すものである。以下の実施形態で示される数値、形状、材料、構成要素、構成要素の配置位置および接続形態、ステップ、およびステップの順序等は、一例であり、本開示の技術を限定する趣旨ではない。以下の実施形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。各図は模式図であり、必ずしも厳密に図示されたものではない。さらに、各図において、実質的に同一または類似の構成要素には同一の符号を付している。重複する説明は省略または簡略化されることがある。
 本開示において、回路、ユニット、装置、部材または部の全部または一部、またはブロック図における機能ブロックの全部または一部は、例えば、半導体装置、半導体集積回路(IC)、またはLSI(large scale integration)を含む1つまたは複数の電子回路によって実行され得る。LSIまたはICは、1つのチップに集積されてもよいし、複数のチップを組み合わせて構成されてもよい。例えば、記憶素子以外の機能ブロックは、1つのチップに集積されてもよい。ここでは、LSIまたはICと呼んでいるが、集積の度合いによって呼び方が変わり、システムLSI、VLSI(very large scale integration)、もしくはULSI(ultra large scale integration)と呼ばれるものであってもよい。LSIの製造後にプログラムされる、Field Programmable Gate Array(FPGA)、またはLSI内部の接合関係の再構成またはLSI内部の回路区画のセットアップができるreconfigurable logic deviceも同じ目的で使うことができる。
 さらに、回路、ユニット、装置、部材または部の全部または一部の機能または操作は、ソフトウェア処理によって実行することが可能である。その場合、ソフトウェアは1つまたは複数のROM、光学ディスク、ハードディスクドライブなどの非一時的記録媒体に記録され、ソフトウェアが処理装置(processor)によって実行されたときに、そのソフトウェアで特定された機能が処理装置および周辺装置によって実行される。システムまたは装置は、ソフトウェアが記録されている1つまたは複数の非一時的記録媒体、処理装置、および必要とされるハードウェアデバイス、例えばインターフェースを備えていてもよい。
 本開示において、「光」とは、可視光(波長が約400nm~約700nm)だけでなく、紫外線(波長が約10nm~約400nm)および赤外線(波長が約700nm~約1mm)を含む電磁波を意味する。
 (本開示の基礎となった知見)
 本開示の実施形態を説明する前に、本開示の基礎となった知見を説明する。
 構造物の3D計測が可能なセンサとして、接触式センサ、イメージング用のセンサ、およびLiDAR(Light Detection and Ranging)などの種々のセンサが利用されている。
 接触式センサを用いる方法は、表面形状の計測に時間を要するため、大型の構造物の3D計測を行う場合、短時間で計測できないという課題がある。
 イメージングによる計測方法として、2つのカメラを含むステレオカメラを用いて被写体の視差を計測し、視差に基づいて3D形状の情報を取得する方法がある。ステレオカメラを用いた方法では、2つの画像から視差を求めるマッチング処理が必要である。しかし、特徴点のない平坦面、あるいは細かいランダムパターンを有する面においては、高い精度で表面形状を計測することができない。
 LiDARセンサは、レーザ等の光ビームを用いて測距を行う。例えば、光ビームの出射方向を変化させるスキャン動作を行いながら測距を行うことによって3D計測を行うことが可能である。そのようなLiDARセンサは、コリメートまたはフォーカスされた光ビームを利用するため、照射点に光のエネルギを集中することができる。このため、遠くの対象物でも高い精度で距離を計測することができる。一方で3D計測を行うためには、ビームスキャンしながらサンプリングを行う必要があるため、計測に時間を要することがデメリットとして挙げられる。従って、ビームスキャン中に対象物が動かない、または対象物の動きがビームスキャンの動きに対して十分にゆっくりである場合においては、LiDARによる3D計測は最適な手法の1つであると言える。
 LiDARのように、対象物を照射する光ビームをスキャンする方法には、さらにいくつかの方式がある。例えば、特許文献1に開示されている方式では、固定ビームを出射する計測器を変位させることによってスキャンが行われる。しかし、計測器の変位の軌跡を正確に把握していなければ、対象物の3D形状の情報を正確に取得することができない。また、計測器を変位させる機構が必要であり、構成が複雑になるデメリットもある。
 スキャン動作を行うLiDARセンサにおいては、電気モータによるミラーもしくはプリズムの回転、またはMEMS(Micro-Electromechanical Systems)ミラー等のビームスキャン機構によってレーザビームの出射角度が変更される。一般的にはビームスキャンの駆動動作、およびレーザビームによる測距のサンプリングレートは、製品の設計時に予め決められている。多くの場合、計測点が等間隔に近い角度ステップになるようにLiDARセンサの仕様が決められている。
 発明者らの検討によれば、そのようなLiDARセンサを用いて対象物の3D計測を行う場合、以下の課題が生じる。計測の視野角において、ビームが対象物に対して入射する角度に応じて、計測点の密度が変化する。具体的には、垂直に近い角度で入射する場合よりも、斜めに入射する場合の方が、計測点の密度が低下する。このように対象物の計測データにおいて計測点の密度にばらつきが生じると、計測結果を分析する際に不具合が発生する場合がある。例えば、3D計測結果に基づいて対象物の概形をフィッティングで求める場合、計測点が密な部位の計測結果にフィッティングが影響されるため、計測点密度の低い箇所の評価結果のズレが大きくなってしまう。また、3D計測結果に基づいて表面積または表面粗さを評価する場合、計測点密度(すなわち単位面積または単位長さ当たりの計測点数)によって評価値が影響を受ける。このため、計測エリアごとの相対変化を評価することができなくなる。
 特許文献2は、レーザ光のスキャンによって取得した点群データを間引いて、計測点の密度を均一化して回帰曲面を求めることによって鋼板の形状のうねりを検出する方法を開示している。うねりというマクロな形状を分析する上では、そもそも計測点密度を高くする必要がないため、このような方法は有効である。
 しかしながら、複雑な形状の計測、または表面積もしくは粗さといった面評価を行う場面においては、一定以上の計測点密度が必要になる。このため、場所によっては必要以上に高い計測点密度で計測しておく必要があり、計測時間が長くなったり、データ処理の負荷が大きくなったりする課題が生じ得る。
 本発明者らは、上記の考察に基づき、以下に説明する実施形態の構成に想到した。以下、添付の図面を参照しながら、本開示の例示的な実施形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明および実質的に同一の構成に対する重複する説明を省略する場合がある。これは、以下の説明が不必要に冗長になることを避け、当業者の理解を容易にするためである。なお、発明者らは当業者が本開示を十分に理解するために添付図面および以下の説明を提供するものであって、これらによって、特許請求の範囲に記載の主題を限定することを意図するものではない。
 (実施形態)
 図1Aは、本開示の例示的な実施形態による測距装置100を模式的に示す図である。図1Aに示す測距装置100は、光ビームの出射方向を変化させるスキャン動作を行いながら、対象物における複数の計測点までの距離を計測する。測距装置100は、各計測点までの距離に基づいて3次元点群データを生成することができる。3次元点群データは、複数の計測点の各々の3次元座標値のデータを含み、複数の計測点の3次元分布を表す。測距装置100を用いることにより、対象物の3D計測が可能である。
 測距装置100は、例えば三脚などの支持体300によって地面または建物の床面に設置され得る。図1Aの例では、計測対象物は床面である。対象物は、任意の材料で構成された構造物であってよく、例えば地面、床面、またはコンクリート面であってもよい。また、対象物は平面状の構造物に限らず、例えば表面が平坦でない地面、建造物の壁、または工業製品といった他の構造物であってもよい。
 測距装置100は、ビームスキャン機構を有し、ビーム出射部110から出射する光ビームの方向を変化させることができる。ビーム出射部110が向いた方向にある視野内のエリアを光ビームでスキャンすることで3D計測を行うことができる。図1Aには、スキャンの範囲である視野が4本の破線で例示されている。図中の黒丸は、計測点の例を示している。
 図1Aに示す測距装置100は、ビーム出射部110の高さ、水平角度、および垂直角度を調整することができる。ビーム出射部110の高さは、測距装置100の設置面からの高さである。水平角度は、設置面に垂直な軸のまわりの基準方向に対する回転角である。垂直角度は、設置面に平行な軸のまわりの、鉛直下方向に対する回転角である。ビーム出射部110の高さ、水平角度、および垂直角度は、設置時に固定されてもよいし、計測前にユーザによって調整および固定されてもよい。ビーム出射部110の高さは、例えば50cm、1m、または2mといった、対象物に応じた適切な高さに設定され得る。水平角度および垂直角度は、ビーム出射部110が対象物における計測対象領域を向くように設定される。なお、ビーム出射部110の高さ、水平角度、および垂直角度を調整する機構は、測距装置100に搭載されていなくてもよい。
 図1Bは、測距装置100の他の構成例を示す図である。図1Bに示すように、櫓のような支持体300によって測距装置100が支持されてもよい。このような構成により、測距装置100が対象物の表面に正対(すなわち垂直角度が0°)する姿勢で計測することができる。
 測距装置100は、レーザ等の光源、レンズ等の光学系、光検出器、およびスキャン装置を備え得る。スキャン装置は、光源から出射される光ビームの方向を変化させる。測距装置100はまた、スキャン装置を制御する制御回路、および光検出器から出力された信号を処理する処理回路を備え得る。制御回路は、スキャン装置を制御して、ビーム出射部110から出射される光ビームの出射方向の水平成分および垂直成分を変化させる。これにより、図1Aおよび図1Bにおいて黒丸で示されるように、2次元的に並ぶ複数の計測点が順に光ビームで照射される。なお、スキャン装置は、光ビームの出射方向の水平成分および垂直成分の一方のみを変化させるように構成されていてもよい。その場合、1次元的なスキャンが可能である。処理回路は、光検出器が各計測点からの反射光を受けて生成した検出信号に基づいて、各計測点までの距離を計算する。距離計測の方法として、例えばToF(Time of Flight)またはFMCW(Frequency Modulation Continuous Wave)等の公知の測距技術を用いることができる。ビームスキャンにより、複数の計測点の距離データを生成することができる。また、複数の計測点の距離データから、複数の計測点の3次元座標データ、すなわち点群データを生成することができる。
 このような測距装置100を用いて、ビームスキャンを行いながら1点ずつ測距を行う場合、視野内で対象物への光ビームの入射角度が変化するため、単位面積または単位長さあたりの計測点の密度が変化してしまう。その結果、対象物の計測結果である点群データの空間密度にムラができてしまう。
 そこで、本実施形態では、ビームスキャンの角度ステップを出射方向に応じて調整したり、取得された点群データから必要以上に密度が大きいエリアにおける一部の計測点のデータを除去したりすることにより、計測点の密度のばらつきを抑制する。これにより、計測点の密度を均一に近付けることができる。計測点の密度を均一に近付けることにより、対象物の3D形状の抽出精度の空間的なムラを低減することができる。また、細かいパターンまたはランダムな凹凸を有する粗面を評価する場合において、計測点密度のばらつきに起因する計測結果の信頼性の低下を抑制することができる。
 図2は、本実施形態における測距装置100の構成例を示すブロック図である。図2において、太い矢印は光の流れを例示しており、細い矢印は信号の流れを例示している。図2に示す測距装置100は、ビーム出射部110と、光源120と、スキャン装置130と、光検出器140と、処理回路150と、制御回路160と、記憶装置170、入力インターフェース(I/F)180と、出力インターフェース190とを備える。ビーム出射部110は、測距装置100において光ビームが出射される部分であり、レンズ等の光学系が内部に含まれ得る。
 光源120は、例えばレーザまたはLED等の光を出射する発光素子を含む。光源120は、例えば赤外線または可視光の波長域の光ビームを出射するように構成され得る。
 スキャン装置130は、例えば電気モータとミラーとの組み合わせ、MEMSミラー、またはフェーズドアレイといったビームスキャン機構を有する。スキャン装置130は、光ビームの出射方向を変化させるビームスキャンを実行する。
 光検出器140は、光ビームで照射された対象物の計測点からの反射光を受けて検出信号を出力する。光検出器140は、1つ以上の受光素子を備える。各受光素子は、光電変換を行い、受けた光の強度に応じた電気信号を出力する。光検出器140は、各受光素子から出力される電気信号に基づく検出信号を処理回路150に出力する。光検出器140は、イメージセンサを含んでいてもよい。イメージセンサは、複数の受光素子が2次元面内に配列された構造を有する。イメージセンサは、画像信号を検出信号として出力する。
 処理回路150は、検出信号に基づいて各計測点までの距離を算出する。処理回路150は、例えばCPU(Central Processing Unit)、FPGA(Field Programmable GateArray)、またはGPU(Graphics Processing Unit)等の1つ以上のプロセッサを含み得る。処理回路150は、例えばToFまたはFMCW等の測距技術を利用して距離を算出する。なお、FMCW技術が用いられる場合、光検出器140は、対象物からの反射光を直接検出するのではなく、出射光と反射光との干渉光を検出するように構成され得る。FMCW技術を用いた測距装置の構成例については後述する。
 制御回路160は、光源120からの発光量、およびスキャン装置130によるスキャン動作を制御する。制御回路160は、例えばFPGAまたはマイクロコントローラユニット(MCU)等の、1つ以上のプロセッサと1つ以上のメモリとを備えた回路によって実現され得る。なお、制御回路160および処理回路150は、統合された1つの回路によって実現されていてもよい。また、制御回路160および処理回路150の各々は、測距装置100とは別の装置に設けられていてもよい。例えば、測距装置100に接続されたコンピュータにおけるプロセッサが、制御回路160および処理回路150の少なくとも一方として機能してもよい。その場合、制御回路160または処理回路150は、有線または無線の通信によって測距装置100と通信を行うように構成される。
 記憶装置170は、例えば半導体記憶装置、磁気記憶装置、または光学記憶装置などの、任意の記憶装置である。記憶装置170は、制御回路160および処理回路150によって実行されるコンピュータプログラム、およびこれらの回路の処理の過程で生成される種々のデータを記憶する。
 入力インターフェース180は、外部の装置からの信号を入力するためのインターフェースである。出力インターフェースは、外部の装置に信号を出力するためのインターフェースである。
 本実施形態における制御回路160は、対象物における領域ごとの計測点の密度差を低減するように、ビームスキャンの角度ステップ(以下、「空間スキャンステップ」とも称する。)を決定する。ここで、「角度ステップ」は、ある計測点に向かう光ビームの出射方向と、次の計測点に向かう光ビームの出射方向とのなす角度を意味する。制御回路160は、例えば光ビームの出射方向に応じてビームスキャンの角度ステップを変更することによって対象物における領域ごとの計測点の密度差を低減することができる。あるいは、制御回路160は、ビーム出射部110(または光源120)と対象物との距離に応じて角度ステップを変更することによって対象物における領域ごとの計測点の密度差を低減することができる。制御回路160は、当該距離を示す情報を、記憶装置170から取得し、その情報に基づいて角度ステップを変更してもよい。例えば、制御回路160は、上記距離が大きいほど、角度ステップを小さくしてもよい。なお、測距装置100が設置された面に対象物が配置されている場合、ビーム出射部110(または光源120)の高さが上記距離に相当する。以下、制御回路160の動作の例を詳細に説明する。
 図3Aは、一定の角度ステップでビームスキャンを行なった場合における計測点の分布の例を模式的に示す図である。図3Bは、出射方向に応じて角度ステップを補正してビームスキャンを行うことで、計測点の分布を均一化した場合の例を模式的に示す図である。図3Aおよび図3Bには、互いに直交するX軸、Y軸、およびZ軸が例示されている。X軸およびY軸は、測距装置100の設置面内に設定されている。Z軸は、設置面に垂直で鉛直上方向を正方向として設定されている。図3Aおよび図3Bにおいて、ビーム出射部110の位置がZ軸上の黒丸で表現されている。点群データは、例えば図3Aおよび図3Bに示すXYZ座標系で表現された各計測点の3次元座標値のデータであり得る。
 ビームスキャン機構として、例えば電気モータによってミラーを一定速度で回転させる機構を用いる場合、1点ずつ一定のサンプリングレートで計測し続けると、計測点は等角度ステップで取得される。このとき、例えば、平面的な表面を有する対象物をビームスキャンによって計測すると、図3Aに示すように、計測点の密度は計測される領域によってばらつくことになる。ビームの出射方向の垂直角度がθのとき、垂直入射(θ=0°)のときに比べて、その周辺の点密度は、cosθ倍に低下する。ビームスキャン機構として、共振ミラーまたはMEMSミラー等のように、一定速度ではない動きでスキャンを行なった場合においても、概して照射角度θが大きいエリアは計測点密度が疎になり、照射角度θが小さいエリアは密になる傾向がある。
 また、ビームが出射されるポイントであるビーム出射部110の高さhによっても計測点密度が変化する。例えば、高さを2倍にした場合には、同じスキャン動作を行う限り、計測点密度が1/4倍に低下する。
 ビーム出射部110の設置角度および高さのパラメータが固定値である場合、または治具または別のセンサなどでそれらのパラメータを計測または設定可能である場合には、パラメータの値から計測点密度の分布を予測することができる。従って、計測点密度の予測に従って、ビームスキャンの動作または計測レートを調整して、空間スキャンステップを補正することが有効である。
 具体的には、制御回路160は、計測レート、すなわち単位時間当たりのビーム出射回数を固定したまま、照射角度θが大きくなることによる計測点密度の低下に合わせてビームスキャンのスピードを遅くすることで、視野内での計測点密度をより均一に近づけることができる。また、制御回路160は、ビームスキャンのスピードを固定したまま、照射角度θが大きくなることによる計測点密度の低下に合わせて計測レートを早くしても良い。あるいは、制御回路160は、ビームスキャンのスピードと計測レートの両方を調整して、計測点密度を均一に近付けるように制御してもよい。これらの動作により、図3Bに示すように、計測点の密度を均一に近付けることができる。
 対象物の表面がほぼ平面的である場合、制御回路160は、光ビームの照射角度θに従って、計測点密度を1/cosθ倍に増やすように調整してもよい。また、ビーム出射部110の高さがhであり、過去の高さh1で計測したときの結果と計測点密度を揃えたい場合、制御回路160は、計測点密度が(h1/h)倍になるようにビームスキャンの角度ステップを変更してもよい。なお、1次元方向にビームスキャンすることよって1次元領域の測距が行われる場合においても、照射角度θや高さh1に従って、制御回路160はビームスキャンの角度ステップを変更してもよい。
 対象物の表面が平面的ではなく、起伏の大きい構造体である場合、上記の補正では完全に計測点密度を補正することはできない。しかし、全く補正しない場合と比べると密度ムラは低減されるので、効果を得ることができる。
 図4は、測距装置100を用いた計測手順の一例を示すフローチャートである。まずステップS101において、測距装置100が対象物の測距を行う上で適当な場所に設置される。例えば、図1Aに示すように床面が対象物である場合、形状を評価したい床の部分の近くに測距装置100が設置される。
 次に、ステップS102において、ビーム出射部110の水平角度、垂直角度、および高さが調整される。この調整は、例えば計測作業を行う作業者によって行われ得る。調整完了後、作業者が入力装置を操作して角度および高さの情報を入力してもよい。あるいは、装置が自動的に角度および高さを読み取ってその情報を入力してもよい。入力された情報は、入力インターフェース180を介して記憶装置170に記録される。これらのデータは、後のステップS103およびS107において用いられる。測距装置100は、ビーム出射部110の水平角度、垂直角度、および高さを計測する1つ以上のセンサを備えていてもよい。その場合、センサによって計測された水平角度、垂直角度、および高さの情報が記憶装置170に記録され得る。
 ステップS103において、制御回路160は、入力または計測された水平角度、垂直角度、および高さに基づき、所定の計測点密度が得られるようにスキャンの角度ステップを決定する。制御回路160は、例えば垂直入射の光の方向からの角度が大きくなるにつれて、スキャンの角度ステップが小さくなるように、光ビームの出射方向に応じてスキャンの角度ステップを変化させる。続くステップS104において、制御回路160は、決定した角度ステップに従ってスキャン装置130を制御して3D計測を実行する。3D計測中は、ビーム出射部110から光ビームが出射されるたびに、処理回路150が計測点までの距離を計算する。計測中、測距装置100に接続されたPC(Personal Computer)またはモバイルコンピュータ等のディスプレイに、計測中であることを示す情報、または計測の残り時間が表示されてもよい。
 計測終了後、ステップS106において、処理回路150は、各計測点の距離情報を含む計測データを、記憶装置170、または測距装置100に接続されたPCもしくはモバイルコンピュータ等の記憶装置に保存する。
 続くステップS107において、処理回路150は、計測データを、所定の座標系における3次元点群データに変換する。所定の座標系は、例えば図3Aおよび図3Bに示すXYZ座標系であり得る。計測データは、原点がビームの出射ポイントになっているため、必要に応じて座標変換の処理が行われる。座標変換の処理には、ステップS102において入力されたビーム出射部110の水平角度、垂直角度、および高さのデータが用いられる。
 続くステップS108において、処理回路150は、得られたデータから、必要に応じて分析対象の一部の領域のデータを切り出す。測距装置100の視野内には、対象物以外の物体が含まれることがある。そのような場合、作業者は、PCまたはモバイルコンピュータを操作して、視野内のどの部分を形状分析の対象とするかを指定することができる。処理回路150は、指定された分析対象の領域のデータを切り出す。この領域を以下の説明において「評価領域」と称する。
 ステップS109において、処理回路150は、切り出された評価領域における点群データから形状を分析する。例えば計測点の分布に基づくフィッティングによって表面形状を抽出したり、表面の粗さを評価したりしてもよい。表面の粗さは、例えば後述する粗さパラメータによって評価され得る。
 ステップS110において、処理回路150は、分析結果を示す情報(例えば粗さパラメータ等)を記憶装置170または外部の表示装置に出力する。このように、処理回路150は、対象物における複数の計測点の距離情報に基づいて、複数の計測点を含む領域における表面の粗さを示す情報を生成して出力してもよい。ステップS110において、処理回路150は、算出された粗さパラメータ等と予め定められたしきい値とを比較することにより、対象物の表面状態が所望の条件を満たしているか否かを判定してもよい。対象物の表面が粗いことが求められる場合、粗さパラメータが所定のしきい値よりも大きい場合を所望の値とする。対象物の表面が粗くないこと、すなわち平滑性が求められる場合、粗さパラメータが所定のしきい値よりも小さい場合を所望の値とする。対象物の表面が適度な粗さを有することが求められる場合、粗さパラメータが所定の範囲内に収まる場合を所望の値とする。
 以上の動作により、対象物の領域ごとの計測点密度の不均一性を抑制し、高い精度で対象物の表面形状の評価を行うことができる。
 [粗さパラメータの例]
 次に、ステップS109において算出される評価領域における粗さパラメータの例を説明する。評価領域は2次元的な領域であってもよいし、1次元的な領域であってもよい。評価領域の広さは、例えば、対象物の表面における凸部または凹部の寸法に応じて決定され得る。
 まず、評価領域が2次元的な領域である場合における粗さパラメータの算出方法を説明する。評価領域は、例えば矩形、円形、または楕円の2次元的な領域であり得る。そのような評価領域は、2次元的に分布する凹凸形状を有する対象物の表面に有効である。
 粗さパラメータの例として、算術平均高さSaが挙げられる。算術平均高さSaは、以下の式(1)によって算出される。
 Z(x、y)は、評価領域内の位置X=xおよびY=yにおける、基準面Z=0からの凹凸の高さの高低差を表す。基準面Z=0は、評価領域内の凹凸の高さの平均面である。式(1)における「A」は、評価領域の面積を表す。算術平均高さSaは、基準面Z=0からの凹凸の高さの高低差の絶対値を評価領域において平均化した値である。凹凸の高さは、複数の計測点の各々の距離情報から知ることができる。
 粗さパラメータの他の例として、二乗平方根高さSqは、以下の式(2)によって算出される。
 二乗平方根高さSqは、基準面Z=0からの凹凸の高さの高低差の二乗を評価領域において平均化した値の平方根によって得られる。二乗平方根高さSqは、評価領域における当該高低差の標準偏差に相当し、当該高低差のばらつきを表す。二乗平方根高さSqおよび算術平均高さSaはSq≧Saの関係を満たす。当該高低差のばらつきが大きいほど、Sq/Saが1から大きくずれる。
 粗さパラメータのさらに他の例として、表面積の指標である展開界面面積率Sdr、凹凸の高さ分布の対称性を示すスキューネスSsk、凹凸の高さ分布のとがり具合を示すクルトシスSku、および凹凸の険しさを示す二乗平均平方根傾斜Sdqが挙げられる。
 上記のように、粗さパラメータは、例えば、2次元的な領域における算術平均高さSa、二乗平方根高さSq、展開界面面積率Sdr、スキューネスSsk、クルトシスSku、および二乗平均平方根傾斜Sdqからなる群から選択される1つであり得る。
 次に、図5Aから図5Cを参照して、凹凸形状を有する評価領域における算術平均高さSaおよび二乗平方根高さSqの例ならびに基準面の例を説明する。図5Aは、凹凸形状を有する評価領域における基準面Z=0、算術平均高さSa、および二乗平方根高さSqの関係を模式的に示す図である。図5Aに示す破線は基準面を表し、実線は算術平均高さSaおよび二乗平方根高さSqを表す。図5Aに示す例においてSq/Sa>1であり、基準面Z=0からの凹凸の高さの高低差にある程度のばらつきがある。
 図5Aに示すように、凹凸形状がうねりを有さない場合、基準面Z=0は平面である。これに対して、凹凸形状が低周期のうねりを有する場合、基準面を以下のように規定してもよい。図5Bおよび図5Cは、低周期のうねりを有する凹凸形状における基準面の例を模式的に示す図である。図5Bに示す例において、基準面は、評価領域における凹凸の高さを平均化することによって得られる平面である。基準面が平面である場合、うねりを含めた粗さパラメータが算出される。これに対して、図5Cに示す例において、基準面は、評価領域を複数の領域に分割し、各領域における凹凸の高さを平均化し、複数の領域における平均化された高さを繋げることによって得られる曲面である。基準面が曲面である場合、うねりを除去した粗さパラメータが算出される。
 評価領域は、1次元的な領域であってもよい。そのような評価領域は、1次元的に分布する凹凸形状を有する対象物の表面に有効である。粗さパラメータは、例えば、1次元的な領域における算術平均高さRa、二乗平方根高さRq、スキューネスRsk、クルトシスRku、および二乗平均平方根傾斜Rdqからなる群から選択される1つであり得る。1次元的な領域の形状が評価される場合、制御回路160は、スキャン装置130に1次元的なビームスキャンを実行させてもよい。
 [プレ計測]
 次に、本計測の前に行われるプレ計測の結果に基づいてビームスキャンの角度ステップを決定する動作の例を説明する。
 プレ計測は、角度ステップが一定のビームスキャンによって対象物の複数の計測点の距離を計測する動作である。制御回路160は、プレ計測の結果に基づいて、プレ計測の後に行われる本計測におけるビームスキャンの角度ステップを調整してもよい。例えば、制御回路160は、プレ計測における計測点の密度が小さい領域ほど、本計測におけるビームスキャンの角度ステップを小さくしてもよい。
 図6は、プレ計測が行われる場合における距離計測の流れの一例を示すフローチャートである。図6に示すフローチャートは、ステップS101の後にステップS111が追加され、ステップS102およびS103が、ステップS112およびS113にそれぞれ置き換わっている点で、図4に示すフローチャートと異なっている。図4に示す例では、ビーム出射部110の設置角度および高さのパラメータを利用して計測点密度の補正が行われる。これに対し、図6の例では、ステップS111においてプレ計測が行われ、プレ計測で得られた点群データに基づいて本計測における計測点密度の補正が行われる。プレ計測では、制御回路160は、例えばビームスキャンの角度ステップを一定にして、各計測点の測距を行う。これにより、処理回路150は、複数の計測点の点群データを生成する。続くステップS112において、処理回路150は、生成した点群データに基づいて、ビーム出射部110の計測される面からの距離と、垂直角度とを算出する。これらの情報は、後のステップS107における座標変換で用いられる。ステップS113において、制御回路160は、プレ計測の結果に基づいて、ビームスキャンの角度ステップを決定する。
 対象物が平面的な表面を有する場合には、図4に示す方法でも計測点密度の補正を適切に行うことができる。しかし、対象物の表面が平面的でない場合は、その形状に依存してビームの入射角度が変化するので、計測点密度を有効に補正できない可能性がある。そこで、図6の例のように、プレ計測を実施し、プレ計測で得られた点群データに基づいて全体の計測点密度を見積もり、その結果を用いてスキャンの角度ステップを決定することが有効である。例えば、プレ計測の結果、図3Aに示すような計測データが得られたとする。この計測データから計測点の密度の分布を見積もることができる。その密度分布を測距装置100の視野内で均一化するように、制御回路160は、スキャンの角度ステップを出射方向ごとに予め決定し、その角度ステップに基づいて3D計測を行う。これにより、対象物の表面の形状をより高い精度で評価することが可能になる。
 また、図6に示す方法によれば、対象物が平面などの既知の形状を有する場合は、設置時のビーム出射部110の角度および高さ(または距離)のパラメータが未知または未計測であったとしても、プレ計測のデータからこれらのパラメータを決定することができる。それらのパラメータを用いて、スキャンの角度ステップを補正することで、計測点密度をさらに補正するようにしてもよい。
 [複数回計測]
 一度の計測では表面の評価が必要な領域の一部しか計測できない場合が考えられる。そのような場合は、例えば図7に示すように、測距装置100を移動させて複数回計測を行うことが有効である。複数回の計測により、評価が必要な領域の全体を計測することができる。測距装置100の移動は、例えば作業者が自ら行ってもよいし、測距装置100を移動させる装置を用いて移動を自動化してもよい。
 測距装置100を移動させて複数回の計測を行う場合、計測ごとに計測点の密度がばらつくと、表面形状を適切に評価できない場合がある。そこで、制御回路160は、各計測におけるビームスキャンの角度ステップを調整して、各計測における計測点の密度の差を低減してもよい。すなわち、測距装置100によって対象物における第1領域の測距を行った後、測距装置100を移動させて対象物における第2領域の測距を行う場合、制御回路160は、第1領域における計測点の密度と、第2領域における計測点の密度との差を低減するように、第2領域の測距におけるビームスキャンの角度ステップを調整してもよい。
 測距装置100を移動させる場合、移動後に設置面が傾いていたり凹凸が存在したりすることにより、移動前後の計測において、ビーム出射部110の角度または高さのパラメータが変化してしまう場合がある。そのような場合においても、ビーム出射部110の角度および高さを設置後に計測し、それらのパラメータに基づいて計測点密度を補正して計測することができる。これにより、毎回の計測条件を均一化できる効果が得られる。また、移動のたびに前述のプレ計測を行い、プレ計測に基づく計測点密度の補正を行ってから本計測を行ってもよい。その場合でも同様に、計測点密度の平準化の効果を得ることができる。
 [データ処理によって計測点密度を平準化する方法]
 次に、データ処理によって計測点密度を平準化する方法の例を説明する。
 上記の実施形態では、ビームスキャンの角度ステップを調整することによって計測点の密度の領域ごとの差を低減するが、データ処理によって同様の効果を得ることも可能である。例えば、処理回路150は、距離が計測された複数の計測点が占める対象領域を、仮想的な複数の部分領域(図8において点線枠で表示)に分割し、部分領域間の計測点の密度差を低減するように、一部または全部の部分領域における計測点の密度を変更してもよい。計測点の密度の変更は、例えば一部の計測点を除去することによって行われ得る。例えば、処理回路150は、複数の部分領域のうち、計測点の密度が最も小さい部分領域における密度に、複数の部分領域のうちの残りの少なくとも1つの部分領域における計測点の密度を近付けることによって、複数の領域における計測点の密度差を低減してもよい。さらに、処理回路150は、複数の部分領域のうち、計測点の密度が最も小さい部分領域における密度に、残りの一部または全ての部分領域における計測点の密度をほぼ一致させることによって、複数の領域における計測点の密度差を低減してもよい。
 複数の部分領域は、例えば部分領域間の角度ステップ数または面積の差が小さくなるように、処理回路150によって設定され得る。あるいは、ユーザが任意に部分領域を設定できるようにしてもよい。その場合、入力インターフェース180を介して複数の部分領域の設定情報がユーザが使用するコンピュータから入力され得る。処理回路150は、入力インターフェース180を介して入力された情報に従って、対象領域を複数の部分領域に分割してもよい。上記の複数の方法を組み合わせて複数の部分領域を設定してもよい。また、処理回路150は、複数の部分領域の各々における計測点の密度を、規定の密度以下に制限してもよい。
 処理回路150は、複数の部分領域のそれぞれの計測点の密度を参照し、密度が最も少ない部分領域の密度に揃えるように他の部分領域の計測点のデータを除去することによって計測点の密度を平準化してもよい。例えば、ビーム出射部110からそれぞれの計測点までの平均距離が最も遠い部分領域の点密度に合わせるように、他の部分領域の点密度を小さくしてもよい。ビーム出射部110からの距離が遠い部分領域は、対象物の表面が平面的であればビームの入射角度が大きくなる。
 また、設定された複数の部分領域の全てにおける計測点の密度が、面評価に必要な規定密度以上である場合は、複数の部分領域の全てから計測点のデータを除去してもよい。面評価に必要な規定密度は、例えば計測点に対してフィッティングによって面を求める場合に必要な点の数であり得る。また、例えば粗面やパターン面を評価する場合は、その面が有する典型的な構造サイズを2点以上の計測点でカバーできるような密度が規定密度として設定され得る。典型的な構造サイズは、例えば図9Aに示すような、構造体の持つ凸部または凹部の幅、凹凸の周期、凸部の高さ、または凹部の深さであり得る。あるいは、典型的な構造サイズは、図9Bに示すような、粗面の平均幅または平均高さであり得る。
 図10Aは、構造サイズに対して計測点の密度が不足する例を示す図である。図10Bは、構造サイズに対して計測点の密度が適切である例を示す図である。図10Cは、構造サイズに対して計測点の密度が過剰である例を示す図である。これらの図において、計測点は○で示されている。図10Aに示すように、点密度が少なすぎると、3D計測によって得られる形状が実形状からずれ、構造の評価の信頼性が低くなる。図10Bに示すように、構造サイズが2から5点程度の計測点でカバーされていると、形状の真値に近い3D計測結果を得ることができる。一方、図10Cに示すように、計測点の数が必要以上に多いと、データ処理量が多くなり、処理の遅延を招き得る。また、計測にはノイズ含まれるため、計測結果は真値周辺でばらつく。この影響で、計測点の密度が異なる条件で計測した結果を評価した場合、評価結果がばらつくことになる。本実施形態のように、部分領域ごとに計測点の密度を均一に近付ける処理を導入することにより、評価結果のばらつきを抑え、評価の信頼性を向上させることができる。
 典型的な構造サイズは、対象物が例えばコンクリートの場合、コンクリートに含まれる骨材のサイズに基づいて決定することができる。あるいは、プレ計測によって典型的な構造サイズを見積もることもできる。このようにして得た典型的な構造サイズの情報に基づき、規定密度を決定することができる。例えば、処理回路150は、入力インターフェース180を介して入力された対象物の表面の凹凸のスケール(例えば上で例示した構造サイズのいずれか)に関する情報に基づいて、規定密度を決定してもよい。各部分領域の計測点の密度を規定密度以下に抑えることで、面評価に必要な最低限の計測精度を確保しながら、演算処理の負荷を軽減することができる。
 処理回路150は、計測点の密度を変更せずに対象領域における複数の計測点の距離を計測するプレ計測の結果に基づいて、本計測における複数の部分領域および規定密度を決定してもよい。処理回路150は、本計測における複数の部分領域の各々における計測点の密度を、規定密度以下に制限してもよい。このように、処理回路150は、プレ計測を行うことで対象物の大まかな全体像を捉えてから、部分領域の設定および計測点の密度差を低減する処理を行ってもよい。そのような処理を行うことで、対象物の素性が未知である場合でも適切な部分領域の設定および密度差の低減を行うことができる。
 さらに、前回の計測またはプレ計測において、一部の部分領域が必要な密度に達していない場合は、その部分領域について、さらに追加計測を行って、計測点数を追加してもよい。すなわち、処理回路150は、前回の計測またはプレ計測の結果に基づいて、本計測における複数の部分領域の少なくとも1つにおける計測点の密度を増加させてもよい。このような方法を採用することで、計測を一からやり直す場合と比べて、短時間で計測を完了することができる。
 処理回路150は、上記のような方法で複数の部分領域の測距を行った後、得られたデータから、形状を分析する対象である評価領域のデータを切り出してもよい。そして、必要に応じてデータから形状を分析して結果を出力してもよい。形状の分析は、例えばフィッティングで形状を抽出したり、表面の粗さを評価したりする方法で行われ得る。データの出力は、例えば部分領域ごとの評価結果を表示装置に表示したり、数値などのデータで出力したりする方法で行われ得る。
 上記の実施形態では、測距装置100はビームスキャンを行うことによって複数の計測点の距離データを取得する。ビームスキャンを行う代わりに、レーザーまたはLED等の拡散光を出射する光源120と、イメージセンサとを用いて複数の計測点の距離データを取得する測距装置を用いてもよい。その場合、スキャン装置130は設けられない。そのような測距装置において、光検出器140は、画像信号を検出信号として出力するイメージセンサを含む。処理回路150は、画像信号における複数の画素の各々、または画像信号における複数の画素領域の各々について、距離を算出し、算出した距離を、複数の計測点の距離として出力する。そのような構成によっても、データ処理によって計測点密度を平準化する処理を行うことで、同様の効果を得ることができる。
 このように、データ処理を行う測距装置100は、光源120と、光源120からの光で照射された対象物からの反射光を受けて検出信号を出力する光検出器140と、処理回路150とを備える。処理回路150は、検出信号に基づいて対象物の対象領域に含まれる複数の計測点の各々までの距離を算出し、複数の計測点の距離または位置の分布を示す計測データを生成する。処理回路150は、対象領域に含まれる複数の部分領域における計測点の密度差を低減するように、複数の部分領域の少なくとも1つにおける計測点の密度を変更する処理を計測データについて実行し、密度が変更された計測データを出力する。これにより、複数の部分領域における計測点の密度を均一に近付け、対象物の形状の分析または評価の精度を向上させることができる。
 [計測点密度の平準化動作の確認]
 3D計測において、LiDARセンサ(すなわち測距装置)がスキャンの角度ステップの調整またはデータ処理によって計測点密度を平準化する動作を行っていることを確認する方法について説明する。計測点密度を平準化する動作を行っていない場合は、同じ計測対象物を異なる角度または異なる距離から計測した場合、計測のために照射するビームの角度の変化に応じて計測点密度が変化する。これに対し、計測点密度を平準化する動作を行っている場合は、同じ計測対象物を異なる条件で計測したときに、計測視野内、または異なる計測間での計測点密度の分布の変化量を抑えることができる。したがって、異なる条件で計測したときの計測点密度の分布の変化量に基づいて、測距装置が計測点密度を平準化する動作を行っているか否かを判別できる。
 [計測点密度を平準化する動作のON/OFFの切り替え]
 本システムにおいて、計測点密度を平準化する動作のON/OFFをユーザが切り替えられるようにしておいてもよい。このようにユーザが上記動作のON/OFFを選択できるような仕様にすることで、計測点密度を平準化せずにデータを取得することもできるようになる。これにより、平準化を行なった場合と行わなかった場合との比較を行ったり、場面に応じて適切なモードを選択したりすることが可能になる。
 このように、ビームスキャンの角度ステップの調整機能を備えた測距装置100において、制御回路160は、対象物における領域ごとの計測点の密度差を低減するようにビームスキャンの角度ステップを決定する第1モードと、ビームスキャンの角度ステップを一定にする第2モードとを、ユーザからの操作に応じて切り替えるように構成されていてもよい。
 また、データ処理によって計測点密度を平準化する機能を備えた測距装置100において、処理回路150は、複数の部分領域における計測点の密度差を低減するように複数の部分領域の少なくとも1つにおける計測点の密度を変更する処理を計測データについて実行する第1モードと、計測点の密度を変更する処理を実行しない第2モードとを、ユーザからの操作に応じて切り替えるように構成されていてもよい。
 [FMCW-LiDARによる測距]
 次に、測距装置100の一例として、FMCW技術を利用して測距を行うLiDARセンサの構成および測距動作の具体例を説明する。
 図11は、測距装置の一例であるLiDARセンサ200の構成例を示すブロック図である。図11において、太い矢印は光の流れを表し、細い矢印は信号またはデータの流れを表す。図11には、距離の計測対象である対象物も示されている。対象物は、例えば、コンクリート面または壁等の、表面に微細な凹凸のある物体であり得る。
 図11に示すLiDARセンサ200は、光源210と、干渉光学系220と、光検出器230と、プロセッサ240と、スキャン装置250とを備える。図11の例では、プロセッサ240が、前述の処理回路150および制御回路160の機能を兼ねている。光源210は、プロセッサ240から出力された制御信号に応答して、出射する光の周波数あるいは波長を変化させることができる。干渉光学系220は、光源210からの出射光を参照光と出力光とに分離し、出力光が対象物によって反射されて生じた反射光と参照光とを干渉させて干渉光を生成する。干渉光は、光検出器230に入射する。
 光検出器230は、干渉光を受け、干渉光の強度に応じた電気信号を生成して出力する。この電気信号を「検出信号」と呼ぶ。光検出器230は、1つ以上の受光素子を備える。受光素子は、例えばフォトダイオードなどの光電変換素子を含む。光検出器230は、例えばイメージセンサのような、複数の受光素子が2次元的に配列されたセンサであってもよい。
 プロセッサ240は、光源210を制御し、光検出器230から出力された検出信号に基づく処理を行う。プロセッサ240は、光源210およびスキャン装置250を制御する制御回路と、検出信号に基づく信号処理を行う処理回路として機能する。プロセッサ240は、1つの回路として構成されていてもよいし、分離した複数の回路の集合体であってもよい。プロセッサ240は、光源210に制御信号を送出する。制御信号は、光源210に出射光の周波数を所定の範囲内で周期的に変化させる。プロセッサ240はまた、スキャン装置250に光ビームの出射方向を変更させる制御信号を送出する。プロセッサ240は、さらに、光検出器230から出力された検出信号に基づいて、各計測点までの距離を計算する。
 この例における光源210は、駆動回路211と、発光素子212とを備える。駆動回路211は、プロセッサ240から出力される制御信号を受け、制御信号に応じた駆動電流信号を生成して発光素子212に入力する。発光素子212は、例えば半導体レーザ素子などの、高いコヒーレント性を持つレーザ光を出射する素子であり得る。発光素子212は、駆動電流信号に応答して、周波数が変調されたレーザ光を出射する。
 発光素子212から出射されるレーザ光の周波数は、一定の周期で変調される。周波数の変調周期は、例えば1マイクロ秒(μs)以上10ミリ秒(ms)以下であり得る。周波数の変調振幅は、例えば100MHz以上1THz以下であり得る。レーザ光の波長は、例えば700nm以上2000nm以下の近赤外の波長域に含まれ得る。太陽光において、近赤外光の光量は可視光の光量よりも少ない。このため、レーザ光として近赤外光を使用することにより、太陽光の影響を低減することができる。用途によっては、レーザ光の波長は、400nm以上700nm以下の可視光の波長域、または紫外光の波長域に含まれていてもよい。
 プロセッサ240から駆動回路211に入力される制御信号は、所定の周期および所定の振幅で電圧が変動する信号である。制御信号の電圧は、例えば三角波状またはノコギリ波状に変調され得る。三角波またはノコギリ波のように、電圧が線形的な変化を繰り返す制御信号により、発光素子212から出射される光の周波数を線形に近い形態で掃引することができる。
 図11に示す例における干渉光学系220は、分岐器221、ミラー222、およびコリメータ223を含む。分岐器221は、光源210の発光素子212から出射されたレーザ光を参照光と出力光とに分け、対象物からの反射光と参照光とを結合させて干渉光を生成する。ミラー222は、参照光を反射して分岐器221に戻す。コリメータ223は、コリメートレンズを含み、出力光を平行に近い広がり角にして対象物に照射する。
 干渉光学系220は、図11に示す構成に限定されず、例えばファイバ光学系であってもよい。その場合、分岐器221としてファイバカップラが用いられ得る。参照光は必ずしもミラー222で反射される必要はなく、例えば光ファイバの引き回しで参照光を分岐器221に戻してもよい。
 スキャン装置250は、例えばMEMSミラーまたはガルバノミラーを含み得る。スキャン装置250は、プロセッサ240からの指令に従ってミラーの角度を変化させることにより、出力光22の出射方向を変化させることができる。これにより、ビームスキャンによって広範囲の測距を実現することができる。スキャン装置250は、上記の構成に限定されず、例えば、国際公開第2019/230720号に記載されているような、光フェーズドアレイおよびスローライト導波路を用いたビームスキャンデバイスであってもよい。
 次に、FMCW-LiDARによる測距について説明する。FMCW-LiDAR方式による測距は、周波数変調された参照光と反射光との干渉によって生じる干渉光の周波数に基づいて行われる。
 図12は、LiDARセンサ200と対象物との距離が一定の場合(例えば、両者が静止している場合)における参照光、反射光、および干渉光の周波数の時間変化の例を示している。ここでは、光源210からの出射光の周波数fが三角波状に変化し、周波数が増加する期間と周波数が減少する期間における単位時間あたりの周波数の変化率が同一である場合の例を説明する。以下の説明において、周波数が増加する期間を「アップチャープ期間」と呼び、周波数が時間の経過とともに減少する期間を「ダウンチャープ期間」と呼ぶ。図12において、点線は参照光を表し、破線は反射光を表し、太い実線は干渉光を表す。参照光に対して対象物からの反射光は、距離に応じた時間遅れを伴う。このため、反射光の周波数と、参照光の周波数との間には、周波数変調の折り返し時点の直後を除き、距離に応じた一定の差が生じる。干渉光は、参照光と反射光との周波数差に相当する周波数を有する。よって、周波数変調の折り返し時点の直後を除き、アップチャープ期間における干渉光の周波数fupとダウンチャープ期間における干渉光の周波数fdownは等しい。光検出器230は、干渉光の強度を示す検出信号を出力する。当該検出信号はビート信号と呼ばれ、ビート信号の周波数はビート周波数と呼ばれる。ビート周波数は、参照光と反射光の周波数差に等しい。この周波数差は、LiDARセンサ200から対象物までの距離に依存する。よって、ビート周波数に基づき、LiDARセンサ200から対象物までの距離を算出することができる。
 ここで、光速をc、出射光の変調周波数をfFMCW、出射光の周波数変調の幅(すなわち最高周波数と最低周波数との差)をΔf、ビート周波数をf(=fup=fdown)、LiDARセンサ200から対象物までの距離をdとする。変調周波数fFMCWは、出射光の周波数変調の周期の逆数である。距離dは、以下の式(1)に基づいて計算することができる。
   d=c×f/(Δf×fFMCW)×(1/4)  (1)
 処理回路150は、上記の計算を、各計測点について実行することにより、複数の計測点の距離データを生成することができる。処理回路150は、さらに、LiDARセンサ200のビーム出射部の位置および向きを示す情報に基づいて、複数の計測点の距離データを3次元点群データに変換することができる。
 なお、FMCW-LiDARは、距離だけでなく、対象物の速度を計測することもできる。しかし、本実施形態における対象物は静止物であるため、速度計測の処理についての説明は省略する。
 図11に示す例において、プロセッサ240は、スキャン装置250によって実行されるビームスキャンのステップ角を出射光の角度等のパラメータに応じて変更してもよい。また、プロセッサ240は、生成した3次元点群データから一部の計測点のデータを除去することによって、領域間の計測点の密度のばらつきを抑制してもよい。
 測距装置は、上記のLiDARセンサ200に限らず、ToF技術を利用して距離を計測するセンサであってもよい。ToF技術を利用した測距装置は、光が出射してから反射光が受光されるまでの時間を計測し、その時間に基づいて距離を計算する。本開示の技術は、測距装置のタイプに関わらず適用可能である。
 以上のように、本開示のある実施形態による測距装置は、光ビームを出射する光源と、前記光ビームの出射方向を変化させるビームスキャンを行うスキャン装置と、前記光ビームで照射された対象物の計測点からの反射光を受けて検出信号を出力する光検出器と、前記検出信号に基づいて前記計測点までの距離を算出する処理回路と、前記スキャン装置を制御する制御回路と、を備える。前記制御回路は、前記対象物における領域ごとの前記計測点の密度差を低減するように、前記ビームスキャンの角度ステップを決定する。これにより、領域間の計測点の密度のばらつきを抑制し、取得されたデータに基づく表面状態の評価の信頼性を向上させることができる。
 前記制御回路は、前記光ビームの出射方向に応じて前記角度ステップを変化させてもよい。例えば、前記制御回路は、前記光ビームの前記対象物への入射角が大きいほど、前記角度ステップを小さくしてもよい。これにより、対象物への光ビームの入射角の変化に起因する計測点の密度の変化を抑制することができる。
 前記制御回路は、前記光源と前記対象物との距離を示す情報を取得し、前記距離に応じて前記角度ステップを変更してもよい。例えば、前記制御回路は、前記距離が大きいほど、前記角度ステップを小さくしてもよい。これにより、光源と対象物との距離の変化に起因する計測点の密度の変化を抑制することができる。
 前記制御回路は、前記ビームスキャンによって前記対象物の複数の計測点の距離を計測するプレ計測の結果に基づいて、前記プレ計測の後に行われる本計測における前記ビームスキャンの前記角度ステップを調整してもよい。これにより、例えば対象物の表面が平面的でない場合でも、プレ計測で得られたデータに基づいて全体の計測点密度を見積もることができるため、本計測におけるスキャンの角度ステップを適切に決定することができる。
 前記制御回路は、前記プレ計測における前記計測点の密度が小さい領域ほど、前記本計測における前記ビームスキャンの前記角度ステップを小さくしてもよい。これにより、領域間の計測点の密度差を低減することができる。
 前記測距装置によって前記対象物における第1領域の測距が行われた後、前記測距装置を移動させて前記対象物における第2領域の測距が行われてもよい。その場合、前記制御回路は、前記第1領域における前記計測点の密度と、前記第2領域における前記計測点の密度との差を低減するように、前記第2領域の測距における前記ビームスキャンの前記角度ステップを調整してもよい。これにより、第1領域と第2領域との間の計測点の密度差を低減することができる。
 前記処理回路は、前記測距装置から前記対象物における複数の計測点の各々までの距離に基づいて、前記複数の計測点を含む領域における表面の粗さを示す情報を生成して出力してもよい。表面の粗さを示す情報は、例えば、1次元的に延びる領域、または2次元的に拡がる領域における算術平均高さRa、二乗平方根高さRq、スキューネスRsk、クルトシスRku、および二乗平均平方根傾斜Rdqからなる群から選択される1つ以上であり得る。表面の粗さを示す情報を生成することにより、対象物の表面の状態を評価することができる。
 前記制御回路は、前記対象物における領域ごとの前記計測点の密度差を低減するように前記ビームスキャンの前記角度ステップを決定する第1モードと、前記ビームスキャンの前記角度ステップを一定にする第2モードとを、ユーザからの操作に応じて切り替えてもよい。ユーザは、例えば、ユーザインターフェースを介して、第1モードと第2モードとの切り替えを行うことができる。これにより、領域ごとの計測点の密度差を低減する動作を行って取得されたデータと当該動作を行わずに取得されたデータとを比較したり、目的に応じて第1モードと第2モードの一方を選択したりすることができる。
 本開示の他の実施形態による測距装置は、光源と、前記光源からの光で照射された対象物からの反射光を受けて検出信号を出力する光検出器と、前記検出信号に基づいて前記対象物の対象領域に含まれる複数の計測点の各々までの距離を算出し、前記複数の計測点の距離または位置の分布を示す計測データを生成する処理回路と、を備える。前記処理回路は、前記対象領域に含まれる複数の部分領域における前記計測点の密度差を低減するように、前記複数の部分領域の少なくとも1つにおける前記計測点の密度を変更する処理を前記計測データについて実行する。これにより、領域間の計測点の密度のばらつきを抑制し、取得されたデータに基づく表面状態の評価の信頼性を向上させることができる。
 前記光源は光ビームを出射するように構成されていてもよい。前記測距装置は、前記光ビームの出射方向を変化させるビームスキャンを行うスキャン装置をさらに備えていてもよい。ビームスキャンにより、対象領域内の複数の計測点の各々までの距離の情報を高い精度で取得することができる。
 前記光源は拡散光を出射するように構成されていてもよい。記光検出器は、画像信号を前記検出信号として出力するイメージセンサを含んでいてもよい。前記処理回路は、前記画像信号における複数の画素の各々、または前記画像信号における複数の画素領域の各々について、前記距離を算出し、算出した前記距離を、前記複数の計測点の距離として出力してもよい。これにより、対象領域内の複数の計測点の各々までの距離の情報を一度に取得することができる。
 前記測距装置は、前記複数の部分領域を設定するための情報を入力するための入力インターフェースをさらに備えていてもよい。前記処理回路は、前記入力インターフェースを介して入力された前記情報に従って、前記対象領域を前記複数の部分領域に分割してもよい。これにより、例えばユーザが複数の部分領域を任意に設定することができる。
 前記処理回路は、前記複数の部分領域のうち、前記計測点の密度が最も小さい部分領域における前記密度に、前記複数の部分領域のうちの残りの少なくとも1つの部分領域における前記計測点の密度を近付けることによって、前記複数の領域における前記計測点の密度差を低減してもよい。例えば、前記処理回路は、前記複数の部分領域のうち、前記計測点の密度が最も小さい部分領域における前記密度に、前記複数の部分領域のうちの残りの全ての部分領域における前記計測点の密度を近づけたり、揃えたりしてもよい。そのような処理により、部分領域間の計測点の密度の平準化が可能になり、表面形状の評価の信頼性をさらに向上させることができる。
 前記処理回路は、前記複数の部分領域の各々における前記計測点の密度を、規定の密度以下に制限してもよい。既定の密度は、例えば、対象物の面評価に必要な最低限の密度以上に設定され得る。各部分領域の計測点の密度を規定密度以下に抑えることで、面評価に必要な最低限の計測精度を確保しながら、演算処理の負荷を軽減することができる。
 前記測距装置は、前記対象物の表面の凹凸のスケールに関する情報を入力するための入力インターフェースをさらに備えていてもよい。前記処理回路は、入力された前記情報に応じて、前記規定の密度を変更してもよい。これにより、例えばユーザが対象物に応じて既定の密度を適切に設定することが可能になる。
 前記処理回路は、前記計測点の密度を変更せずに前記対象領域における前記複数の計測点の距離を計測するプレ計測の結果に基づいて、前記プレ計測の後に行われる本計測における前記複数の部分領域を決定してもよい。これにより、プレ計測で得られたデータに基づいて複数の部分領域を適切に決定することができる。
 前記処理回路は、前記プレ計測の結果に基づいて前記規定の密度を決定し、前記本計測における前記複数の部分領域の各々における前記計測点の密度を、前記規定密度以下に制限してもよい。これにより、プレ計測で得られたデータに基づいて規定の密度を適切な値に設定することができる。
 前記処理回路は、前記プレ計測の結果に基づいて、前記本計測における前記複数の部分領域の少なくとも1つにおける前記計測点の密度を増加させてもよい。これにより、例えば本計測だけでは面評価に必要な密度に達していない部分領域についてのデータを、プレ計測で得られたデータで補うことができる。このため、少ない計測回数で、必要なデータを取得することができる。
 前記処理回路は、前記複数の部分領域における前記計測点の密度差を低減するように前記複数の部分領域の少なくとも1つにおける前記計測点の密度を変更する処理を前記計測データについて実行する第1モードと、前記密度を変更する処理を実行しない第2モードとを、ユーザからの操作に応じて切り替えてもよい。これにより、領域ごとの計測点の密度差を低減する動作を行って取得されたデータと当該動作を行わずに取得されたデータとを比較したり、目的に応じて第1モードと第2モードの一方を選択したりすることができる。
 本開示のさらに他の実施形態による方法は、光ビームを出射する光源と、前記光ビームの出射方向を変化させるビームスキャンを行うスキャン装置と、を備える測距装置の制御方法である。前記方法は、前記光ビームの出射方向、および/または、前記対象物と前記光源との距離に関する情報を取得することと、前記情報に基づいて、前記ビームスキャンの角度ステップを、前記対象物における領域ごとの計測点の密度差を低減するように決定することと、前記角度ステップに基づいて前記ビームスキャンを実行することと、を含む。
 本開示のさらに他の実施形態による方法は、光源と、前記光源からの光で照射された対象物からの反射光を受けて検出信号を出力する光検出器と、を備える測距装置におけるデータ処理方法である。前記方法は、前記検出信号に基づいて前記対象物の対象領域に含まれる複数の計測点の各々までの距離を算出することと、前記複数の計測点の距離または位置の分布を示す計測データを生成することと、前記対象領域に含まれる複数の部分領域における前記計測点の密度差を低減するように、前記複数の部分領域の少なくとも1つにおける前記計測点の密度を変更する処理を前記計測データについて実行することと、を含む。
 上述した実施形態においては、対象物の表面の状態を評価する指標として、表面の粗さを示す情報を算出した。しかしながら表面の状態を評価する指標は、粗さには限られない。例えば、対象物の表面の平坦性を評価したい場合、算出される評価指標は対象領域における表面の傾斜度合いであっても良い。
 また、評価指標は対象領域のサイズ、または表面積等であってもよい。
 本開示の技術は、例えばコンクリート、金属、木材、またはプラスチック等の材料から形成された建造物または工業製品などの構造物の3D計測を行う用途に利用され得る。
 100  測距装置
 110  ビーム出射部
 120  光源
 130  スキャン装置
 140  光検出器
 150  処理回路
 160  制御回路
 170  記憶装置
 180  入力装置
 190  表示装置
 200  LiDARセンサ
 210  光源
 211  駆動回路
 212  発光素子
 220  干渉光学系
 221  分岐器
 222  ミラー
 223  コリメータ
 230  光検出器
 240  プロセッサ
 250  スキャン装置

Claims (24)

  1.  光ビームを出射する光源と、
     前記光ビームの出射方向を変化させるビームスキャンを行うスキャン装置と、
     前記光ビームで照射された対象物の計測点からの反射光を受けて検出信号を出力する光検出器と、
     前記検出信号に基づいて前記計測点までの距離を算出する処理回路と、
     前記スキャン装置を制御する制御回路と、
    を備え、
     前記制御回路は、前記対象物における領域ごとの前記計測点の密度差を低減するように、前記ビームスキャンの角度ステップを決定する、
     測距装置。
  2.  前記制御回路は、前記光ビームの出射方向に応じて前記角度ステップを変化させる、請求項1に記載の測距装置。
  3.  前記制御回路は、前記光ビームの前記対象物への入射角が大きいほど、前記角度ステップを小さくする、請求項2に記載の測距装置。
  4.  前記制御回路は、前記光源と前記対象物との距離を示す情報を取得し、前記距離に応じて前記角度ステップを変更する、請求項1から3のいずれかに記載の測距装置。
  5.  前記制御回路は、前記距離が大きいほど、前記角度ステップを小さくする、請求項4に記載の測距装置。
  6.  前記制御回路は、前記ビームスキャンによって前記対象物の複数の計測点の距離を計測するプレ計測の結果に基づいて、前記プレ計測の後に行われる本計測における前記ビームスキャンの前記角度ステップを調整する、請求項1から3のいずれかに記載の測距装置。
  7.  前記制御回路は、前記プレ計測における前記計測点の密度が小さい領域ほど、前記本計測における前記ビームスキャンの前記角度ステップを小さくする、請求項6に記載の測距装置。
  8.  前記測距装置によって前記対象物における第1領域の測距を行った後、前記測距装置を移動させて前記対象物における第2領域の測距を行う場合、
     前記制御回路は、前記第1領域における前記計測点の密度と、前記第2領域における前記計測点の密度との差を低減するように、前記第2領域の測距における前記ビームスキャンの前記角度ステップを調整する、
     請求項1から3のいずれかに記載の測距装置。
  9.  前記処理回路は、前記測距装置から前記対象物における複数の計測点の各々までの距離に基づいて、前記複数の計測点を含む領域における表面の粗さを示す情報を生成して出力する、請求項1から3のいずれかに記載の測距装置。
  10.  前記処理回路は、前記測距装置から前記対象物における複数の計測点の各々までの距離に基づいて、前記複数の計測点を含む領域における表面の平坦性を示す情報を生成して出力する、請求項1から3のいずれかに記載の測距装置。
  11.  前記制御回路は、前記対象物における領域ごとの前記計測点の密度差を低減するように前記ビームスキャンの前記角度ステップを決定する第1モードと、前記ビームスキャンの前記角度ステップを一定にする第2モードとを、ユーザからの操作に応じて切り替える、請求項1から3のいずれかに記載の測距装置。
  12.  光源と、
     前記光源からの光で照射された対象物からの反射光を受けて検出信号を出力する光検出器と、
     前記検出信号に基づいて前記対象物の対象領域に含まれる複数の計測点の各々までの距離を算出し、前記複数の計測点の距離または位置の分布を示す計測データを生成する処理回路と、
    を備え、
     前記処理回路は、前記対象領域に含まれる複数の部分領域における前記計測点の密度差を低減するように、前記複数の部分領域の少なくとも1つにおける前記計測点の密度を変更する処理を前記計測データについて実行する、
     測距装置。
  13.  前記光源は光ビームを出射し、
     前記測距装置は、前記光ビームの出射方向を変化させるビームスキャンを行うスキャン装置をさらに備える、
     請求項12に記載の測距装置。
  14.  前記光源は拡散光を出射し、
     前記光検出器は、画像信号を前記検出信号として出力するイメージセンサを含み、
     前記処理回路は、前記画像信号における複数の画素の各々、または前記画像信号における複数の画素領域の各々について、前記距離を算出し、算出した前記距離を、前記複数の計測点の距離として出力する、
     請求項12に記載の測距装置。
  15.  前記複数の部分領域を設定するための情報を入力するための入力インターフェースをさらに備え、
     前記処理回路は、前記入力インターフェースを介して入力された前記情報に従って、前記対象領域を前記複数の部分領域に分割する、
     請求項12から14のいずれかに記載の測距装置。
  16.  前記処理回路は、前記複数の部分領域のうち、前記計測点の密度が最も小さい部分領域における前記密度に、前記複数の部分領域のうちの残りの少なくとも1つの部分領域における前記計測点の密度を近付けることによって、前記複数の領域における前記計測点の密度差を低減する、請求項12から14のいずれかに記載の測距装置。
  17.  前記処理回路は、前記複数の部分領域の各々における前記計測点の密度を、規定の密度以下に制限する、請求項12から14のいずれかに記載の測距装置。
  18.  前記対象物の表面の凹凸のスケールに関する情報を入力するための入力インターフェースをさらに備え、
     前記処理回路は、入力された前記情報に応じて、前記規定の密度を変更する、
     請求項17に記載の測距装置。
  19.  前記処理回路は、前記計測点の密度を変更せずに前記対象領域における前記複数の計測点の距離を計測するプレ計測の結果に基づいて、前記プレ計測の後に行われる本計測における前記複数の部分領域を決定する、請求項12から14のいずれかに記載の測距装置。
  20.  前記処理回路は、前記プレ計測の結果に基づいて前記規定の密度を決定し、
     前記本計測における前記複数の部分領域の各々における前記計測点の密度を、前記規定の密度以下に制限する、
     請求項19に記載の測距装置。
  21.  前記処理回路は、前記プレ計測の結果に基づいて、前記本計測における前記複数の部分領域の少なくとも1つにおける前記計測点の密度を増加させる、請求項19に記載の測距装置。
  22.  前記処理回路は、前記複数の部分領域における前記計測点の密度差を低減するように前記複数の部分領域の少なくとも1つにおける前記計測点の密度を変更する処理を前記計測データについて実行する第1モードと、前記密度を変更する処理を実行しない第2モードとを、ユーザからの操作に応じて切り替える、請求項12から14のいずれかに記載の測距装置。
  23.  光ビームを出射する光源と、前記光ビームの出射方向を変化させるビームスキャンを行うスキャン装置と、を備える測距装置の制御方法であって、
     前記光ビームの出射方向、および/または、前記対象物と前記光源との距離に関する情報を取得することと、
     前記情報に基づいて、前記ビームスキャンの角度ステップを、前記対象物における領域ごとの計測点の密度差を低減するように決定することと、
     前記角度ステップに基づいて前記ビームスキャンを実行することと、
     を含む制御方法。
  24.  光源と、前記光源からの光で照射された対象物からの反射光を受けて検出信号を出力する光検出器と、を備える測距装置におけるデータ処理方法であって、
     前記検出信号に基づいて前記対象物の対象領域に含まれる複数の計測点の各々までの距離を算出することと、
     前記複数の計測点の距離または位置の分布を示す計測データを生成することと、
     前記対象領域に含まれる複数の部分領域における前記計測点の密度差を低減するように、前記複数の部分領域の少なくとも1つにおける前記計測点の密度を変更する処理を前記計測データについて実行することと、
     を含むデータ処理方法。
PCT/JP2023/003707 2022-05-13 2023-02-06 測距装置、測距装置の制御方法、およびデータ処理方法 WO2023218705A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2022-079311 2022-05-13
JP2022079311 2022-05-13

Publications (1)

Publication Number Publication Date
WO2023218705A1 true WO2023218705A1 (ja) 2023-11-16

Family

ID=88730211

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2023/003707 WO2023218705A1 (ja) 2022-05-13 2023-02-06 測距装置、測距装置の制御方法、およびデータ処理方法

Country Status (1)

Country Link
WO (1) WO2023218705A1 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001255144A (ja) * 2000-03-09 2001-09-21 Technical Syst:Kk トンネル内形状計測装置
JP2017015416A (ja) * 2015-06-29 2017-01-19 株式会社リコー 物体検出装置、センシング装置、移動体装置及び物体検出方法
CN107300370A (zh) * 2016-04-15 2017-10-27 科沃斯机器人股份有限公司 测距扫描传感器的测量调整方法
JP2018071973A (ja) * 2016-10-24 2018-05-10 日本電信電話株式会社 路面凹凸量推定装置、方法、及びプログラム
JP2019117141A (ja) * 2017-12-27 2019-07-18 株式会社ミツトヨ 非接触座標測定装置
WO2019176101A1 (ja) * 2018-03-16 2019-09-19 日本電気株式会社 光監視装置及び方法
CN209803013U (zh) * 2019-03-11 2019-12-17 武汉夕睿光电技术有限公司 一种分布式道路检测装置和***
WO2021138709A1 (en) * 2020-01-07 2021-07-15 Baraja Pty Ltd Adaptive spatial estimation system
JP2021124332A (ja) * 2020-02-04 2021-08-30 パナソニックIpマネジメント株式会社 測距装置

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001255144A (ja) * 2000-03-09 2001-09-21 Technical Syst:Kk トンネル内形状計測装置
JP2017015416A (ja) * 2015-06-29 2017-01-19 株式会社リコー 物体検出装置、センシング装置、移動体装置及び物体検出方法
CN107300370A (zh) * 2016-04-15 2017-10-27 科沃斯机器人股份有限公司 测距扫描传感器的测量调整方法
JP2018071973A (ja) * 2016-10-24 2018-05-10 日本電信電話株式会社 路面凹凸量推定装置、方法、及びプログラム
JP2019117141A (ja) * 2017-12-27 2019-07-18 株式会社ミツトヨ 非接触座標測定装置
WO2019176101A1 (ja) * 2018-03-16 2019-09-19 日本電気株式会社 光監視装置及び方法
CN209803013U (zh) * 2019-03-11 2019-12-17 武汉夕睿光电技术有限公司 一种分布式道路检测装置和***
WO2021138709A1 (en) * 2020-01-07 2021-07-15 Baraja Pty Ltd Adaptive spatial estimation system
JP2021124332A (ja) * 2020-02-04 2021-08-30 パナソニックIpマネジメント株式会社 測距装置

Similar Documents

Publication Publication Date Title
US9279662B2 (en) Laser scanner
US9170097B2 (en) Hybrid system
US8451878B2 (en) Surface profile inspection device
JP4238891B2 (ja) 三次元形状測定システム、三次元形状測定方法
US9879984B2 (en) Optical scanning probe and apparatus for generating three-dimensional data using the same
TWI420081B (zh) 測距系統及測距方法
JP5385703B2 (ja) 検査装置、検査方法および検査プログラム
JP2007170851A (ja) 路面形状測定方法および測定システム
KR20170134944A (ko) 광학 모듈을 이용하여 특정 영역을 스캔하는 방법 및 장치
KR101099138B1 (ko) 3차원 형상 측정장치
CN110726382B (zh) 用于借助电磁射束检测物体表面的设备和方法
WO2023218705A1 (ja) 測距装置、測距装置の制御方法、およびデータ処理方法
CN109917407A (zh) 一种基于激光反射的近场探针测距方法及装置
JP4864734B2 (ja) 光変位センサー及びそれを用いた変位測定装置
US10365227B2 (en) Detection device and detection method
JP2022168956A (ja) レーザ計測装置およびその計測方法
JP7193308B2 (ja) プロファイル測定装置
US10203201B2 (en) Measurement device
KR101323183B1 (ko) 듀얼광을 이용한 3차원 형상 측정장치
JPH03186706A (ja) 3次元形状寸法計測装置
JP2005233759A (ja) 3次元計測システム
JPH10185514A (ja) コイル位置検出装置
WO2023218899A1 (ja) 計測システムおよび計測方法
JP6251049B2 (ja) 表面形状検査装置
JP2004528580A (ja) ビデオ画像を使用下光学的表面検査のためのサンプル位置付けシステム及びその方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 23803196

Country of ref document: EP

Kind code of ref document: A1