WO2021044628A1 - 変状検出システムおよび変状検出方法 - Google Patents

変状検出システムおよび変状検出方法 Download PDF

Info

Publication number
WO2021044628A1
WO2021044628A1 PCT/JP2019/035261 JP2019035261W WO2021044628A1 WO 2021044628 A1 WO2021044628 A1 WO 2021044628A1 JP 2019035261 W JP2019035261 W JP 2019035261W WO 2021044628 A1 WO2021044628 A1 WO 2021044628A1
Authority
WO
WIPO (PCT)
Prior art keywords
unit
data
point cloud
cloud data
dimensional
Prior art date
Application number
PCT/JP2019/035261
Other languages
English (en)
French (fr)
Inventor
克之 亀井
恵 入江
Original Assignee
三菱電機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 三菱電機株式会社 filed Critical 三菱電機株式会社
Priority to JP2019567758A priority Critical patent/JP6664569B1/ja
Priority to PCT/JP2019/035261 priority patent/WO2021044628A1/ja
Publication of WO2021044628A1 publication Critical patent/WO2021044628A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B21/00Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant
    • G01B21/20Measuring arrangements or details thereof, where the measuring technique is not covered by the other groups of this subclass, unspecified or not relevant for measuring contours or curvatures, e.g. determining profile
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery

Definitions

  • the present invention relates to a deformation detection system and a deformation detection method capable of detecting a step generated on the surface of a structure.
  • a traveling measuring device called MMS Mobile Mapping System
  • MMS Mobile Mapping System
  • the MMS measures the surrounding structure with a laser scanner device or the like while traveling, and generates data showing the measurement result.
  • data includes three-dimensional point cloud data which is data of a three-dimensional point cloud representing the surface of the structure by a plurality of three-dimensional points, and the three-dimensional point cloud data is used for inspection of the structure.
  • deformation such as a crack or a step generated on the surface of the structure is detected.
  • Patent Document 1 proposes a technique for detecting a step formed on the surface of an embankment based on three-dimensional point cloud data representing the surface of the embankment with a plurality of three-dimensional points.
  • the technique described in Patent Document 1 is characterized in that, among a plurality of three-dimensional points representing the surface of an embankment, three-dimensional points in which other three-dimensional points are included in a predetermined number or more in a nearby space are derived from a step. It is extracted as a point, and the position of the step is detected from the position of the extracted feature point.
  • Patent Document 1 extracts three-dimensional points as feature points derived from a step, provided that the neighboring space includes a predetermined number or more of other three-dimensional points. Therefore, if the region having a step on the surface of the structure does not satisfy the above conditions, the position of the step generated on the surface of the structure cannot be detected accurately.
  • the present invention has been made in view of the above, and obtains a deformation detection system capable of accurately detecting the position of a step generated on the surface of a structure from a three-dimensional point cloud representing the surface of the structure. With the goal.
  • the deformation detection system of the present invention includes an acquisition unit, a data conversion unit, and a step detection unit.
  • the acquisition unit acquires three-dimensional point cloud data, which is data representing the surface of the structure as a three-dimensional point cloud, and shape data indicating the shape of the structure.
  • the data conversion unit sets a reference plane corresponding to the surface of the structure based on the shape data, and sets the three-dimensional point cloud data of one point selected from a plurality of points arranged in a matrix on the reference plane. It is converted into element point cloud data including data of a plurality of element points represented by the position and the amount of deviation from the reference plane.
  • the step detection unit detects the position of the step on the surface of the structure based on the result obtained by applying a Gaussian difference filter to a plurality of element points included in the element point cloud data.
  • the figure for demonstrating the Gaussian difference processing which concerns on Embodiment 1. The figure which shows an example of the method of detecting the position of a step by the step position detection part which concerns on Embodiment 1.
  • FIG. 1 is a diagram showing a configuration example of a deformation detection system according to a first embodiment of the present invention.
  • the deformation detection system 100 according to the first embodiment is a traveling type that generates three-dimensional point cloud data Dpg, which is data of a three-dimensional point cloud representing the surface of a structure as a three-dimensional point cloud.
  • a measuring device 1 and a step detecting device 2 for detecting a step generated on the surface of the structure based on the three-dimensional point cloud data Dpg are provided.
  • the surface of the structure will be described as the inner wall surface 5a of the tunnel 5, but the surface of the structure is not limited to the inner wall surface 5a of the tunnel 5, and is the surface of a bridge, the surface of a road, or a building. It may be the surface of.
  • the traveling type measuring device 1 has a laser scanner device (not shown), and generates a three-dimensional point cloud data Dpg of the inner wall surface 5a of the tunnel 5 from the data obtained by the laser scanner device while traveling.
  • the traveling type measuring device 1 is also called MMS.
  • the 3D point group data Dpg includes measurement data of a plurality of 3D points, and the measurement data of each 3D point includes data indicating the position of the 3D point in the 3D Cartesian coordinate system. ..
  • the step detection device 2 includes a communication unit 10, a storage unit 11, and a processing unit 12.
  • the communication unit 10 is communicably connected to the traveling type measuring device 1 via the network 3.
  • the network 3 is, for example, a WAN (Wide Area Network) such as the Internet.
  • the communication unit 10 receives the three-dimensional point cloud data Dpg transmitted from the traveling type measuring device 1 via the network 3.
  • the storage unit 11 stores the shape data Df of the tunnel 5.
  • the shape data Df is, for example, data showing the cross-sectional shape of the inner wall surface 5a of the tunnel 5.
  • the cross-sectional shape of the inner wall surface 5a is the shape of a line indicating the inner wall surface 5a when it is assumed that the inner wall of the tunnel 5 is cut at a plane orthogonal to the tunnel axis direction.
  • the tunnel axial direction is the direction in which the tunnel 5 extends.
  • the processing unit 12 includes an acquisition unit 21, a data conversion unit 22, and a step detection unit 23.
  • the acquisition unit 21 acquires the three-dimensional point cloud data Dpg from the traveling type measuring device 1 via the communication unit 10, and acquires the shape data Df from the storage unit 11.
  • the data conversion unit 22 sets a reference plane corresponding to the inner wall surface 5a of the tunnel 5 based on the shape data Df acquired by the acquisition unit 21, and uses the set reference plane to acquire 3 by the acquisition unit 21.
  • the 3D point cloud data Dpg is converted into the element point cloud data De.
  • the element point cloud data De includes data of a plurality of element points represented by the position of one point selected from a plurality of points arranged in a matrix on the reference plane and the amount of deviation from the reference plane.
  • a plurality of points arranged in a matrix on the reference plane can be said to be grid points when it is assumed that a grid is formed on the reference plane.
  • each of the plurality of points arranged in a matrix on the reference plane is a grid point. May be described as.
  • the distance between two grid points adjacent in the row direction is the same as the distance between two grid points adjacent in the column direction.
  • One of the row direction and the column direction is the tunnel axis direction, and the other is the tunnel circumferential direction.
  • the tunnel circumferential direction is a direction along a line indicating the inner wall surface 5a when the inner wall surface 5a of the tunnel 5 is cut at a plane orthogonal to the tunnel axis direction.
  • the step detection unit 23 detects the position of the step generated on the inner wall surface 5a based on the result obtained by applying a Gaussian difference filter to a plurality of element points included in the element point cloud data De. For example, the step detection unit 23 specifies a position where a line connecting two adjacent element points among a plurality of element points after applying a Gaussian difference filter intersects a reference plane, and the specified position is set as an inner wall surface 5a. It is detected as the position of the step that occurs in.
  • FIG. 2 is a diagram for explaining the flow of measurement processing and data conversion processing by the deformation detection system according to the first embodiment.
  • the traveling type measuring device 1 measures the inner wall surface 5a of the tunnel 5 and generates three-dimensional point cloud data Dpg (step S1).
  • the acquisition unit 21 of the step detection device 2 acquires the three-dimensional point cloud data Dpg transmitted from the traveling type measurement device 1 (step S2).
  • the data conversion unit 22 of the step detection device 2 sets a reference surface Swr corresponding to the inner wall surface 5a of the tunnel 5 based on the shape data Df stored in the storage unit 11, and the three-dimensional point acquired by the acquisition unit 21.
  • a data conversion process for converting the group data Dpg into the element point cloud data De is performed (step S3).
  • the element point cloud data De is a plurality of elements represented by the position of one grid point Pg selected from a plurality of grid points Pg arranged in a matrix on the reference plane Swr and the amount of deviation from the reference plane Swr. It is the data including the data of the point Pe.
  • the reference surface Swr is a surface showing the inner wall surface 5a of the tunnel 5 obtained based on the shape data Df.
  • the reference surface Swr is an inner wall surface 5a of the tunnel 5 assuming that the inner wall surface 5a of the tunnel 5 has no unevenness, and is a virtual surface.
  • the element points Pe adjacent to each other in the tunnel axis direction and the element points Pe adjacent to each other in the tunnel circumferential direction are respectively. It is connected by a broken line.
  • the reference plane Swr shown in FIG. 2 is converted into a plane of the development view coordinate system which is a Cartesian coordinate system in which the position in the tunnel axial direction, the position in the tunnel circumferential direction, and the amount of deviation from the reference plane Swr are different axes. It is a reference plane after being done.
  • the reference plane Swr before conversion to the developed view coordinate system may be described as the reference plane Swr'.
  • step S3 the data conversion unit 22 calculates the position of each three-dimensional point included in the three-dimensional point cloud data Dpg with respect to the reference plane Swr'.
  • the calculated position of the three-dimensional point is represented by the position in the tunnel axial direction, the position in the tunnel circumferential direction, and the amount of deviation from the reference plane Swr'.
  • the position in the tunnel axial direction and the position in the tunnel circumferential direction are positions on the reference plane Swr'.
  • the amount of deviation from the reference plane Swr' is expressed by the distance from the reference plane Swr', and the direction orthogonal to the reference plane Swr'and the direction seen from the reference plane Swr'is expressed as the polarity. Orthogonal.
  • the data conversion unit 22 is based on the positions of the three-dimensional points with respect to the reference plane Swr'and the plurality of lattice points Pg arranged in a matrix on the reference plane Swr after conversion to the developed view coordinate system.
  • the 3D point cloud data Dpg is converted into the element point cloud data De of the development view coordinate system.
  • the data conversion unit 22 converts the three-dimensional point cloud data Dpg into the development map point cloud data Dpg1 which is the data of the development map coordinate system.
  • the data conversion unit 22 converts the position of each three-dimensional point included in the three-dimensional point cloud data Dpg in the tunnel circumferential direction into a position on one axis indicating the tunnel circumferential direction in the developed map coordinate system.
  • the 3D point cloud data Dpg is converted into the development map point cloud data Dpg1.
  • the data conversion unit 22 has a position in the tunnel axial direction and a position in the tunnel circumferential direction among a plurality of three-dimensional points included in the developed map point group data Dpg1 within a predetermined range from the position of one lattice point Pg. One or more three-dimensional points are assigned to one lattice point Pg. The data conversion unit 22 determines the position of one assigned lattice point Pg in the tunnel axial direction and the position in the tunnel circumferential direction as the position of the element point Pe in the tunnel axial direction and the position in the tunnel circumferential direction.
  • the data conversion unit 22 calculates the amount of deviation from the reference surface Swr at the element point Pe from the amount of deviation of one or more three-dimensional points assigned to one grid point Pg from the reference surface Swr. For example, the data conversion unit 22 averages the deviation amount of one or more three-dimensional points assigned to one grid point Pg from the reference plane Swr, and sets the value obtained by averaging the deviation from the reference plane Swr at the element point Pe. Can be quantity.
  • the data conversion unit 22 performs the process of allocating one or more three-dimensional points to one grid point Pg and calculating the element point Pe for each grid point Pg in this way, so that the development map point cloud data Dpg1 is used as an element. Convert to point cloud data De.
  • FIG. 3 is a diagram for explaining the flow of the step detection process by the deformation detection system according to the first embodiment.
  • the element points Pe are connected by a broken line in order to make the position of the element point Pe easy to understand. ..
  • the step detection unit 23 performs Gaussian difference processing, which is a process of applying a Gaussian difference filter to a plurality of element points Pe included in the element point cloud data De converted by the data conversion unit 22. ..
  • the Gaussian difference filter is also called DoG (Difference of Gaussian).
  • the Gaussian differential process includes a first filter process (step S4), a second filter process (step S5), and a difference calculation process (step S6).
  • the step detection unit 23 performs a process of applying a first Gaussian filter to a plurality of element points Pe included in the element point cloud data De as the first filter process of step S4. Further, the step detection unit 23 performs a process of applying a second Gaussian filter to a plurality of element points Pe included in the element point cloud data De as the second filter process of step S5.
  • the first Gaussian filter and the second Gaussian filter perform smoothing processing on the amount of deviation of the element point Pe from the reference plane Swr.
  • the first Gaussian filter and the second Gaussian filter are Gaussian filters having different characteristics from each other, and the values of at least some parameters are different from each other.
  • the step detection unit 23 calculates the difference between the output of the first Gaussian filter obtained by performing the first filter processing and the output of the second Gaussian filter obtained by performing the second filter processing in the difference calculation process of step S6. To do.
  • the difference in the amount of deviation of each of the plurality of element points Pe from the reference plane Swr is output from the Gaussian difference filter.
  • the difference in the amount of deviation from the reference surface Swr is the amount of deviation from the reference surface Swr obtained by applying the first Gaussian filter to the amount of deviation from the reference surface Swr at the element point Pe and the reference surface Swr at the element point Pe. It is a difference from the deviation amount from the reference plane Swr obtained by applying the second Gaussian filter to the deviation amount from.
  • the difference in the amount of deviation from the reference surface Swr is obtained, for example, by applying the first Gaussian filter to the element point Pe from the amount of deviation from the reference surface Swr obtained by applying the second Gaussian filter to the element point Pe. It is obtained by subtracting the amount of deviation from the reference plane Swr.
  • the position of the element point Pe after applying the Gaussian difference filter is represented by the position in the tunnel axial direction, the position in the tunnel circumferential direction, and the difference in the amount of deviation from the reference plane Swr.
  • the step detection unit 23 detects the position of the step based on the result obtained by applying the Gaussian difference filter to the plurality of element points Pe of the element point cloud data De (step S7).
  • the step detection unit 23 identifies the position where the zero intersection occurs based on the difference in the amount of deviation from the reference plane Swr for each element point Pe obtained as a result of the difference calculation process.
  • the position where the zero intersection occurs is the position where the difference in the amount of deviation from the reference plane Swr becomes zero, and is represented by the position in the tunnel axial direction and the position in the tunnel circumferential direction.
  • the step detection unit 23 handles the element point Pe in a Cartesian coordinate system in which the position in the tunnel axial direction, the position in the tunnel circumferential direction, and the difference in the amount of deviation from the reference plane Swr are different axes.
  • the line connecting two element points Pe that are adjacent to each other in the tunnel axial direction or the tunnel circumferential direction and have different polarities in the difference value of the amount of deviation from the reference plane Swr obtained by applying the Gaussian difference filter is zero. Identify the zero intersection, which is the intersection position. The zero intersection is represented by a position in the tunnel axial direction and a position in the tunnel circumferential direction.
  • the step detection unit 23 detects the position of the zero intersection as the position of the step generated on the inner wall surface 5a of the tunnel 5.
  • the traveling type measuring device 1 measures the inner wall surface 5a of the tunnel 5 with the laser scanner device while traveling in the tunnel 5, the laser from the laser scanner device of the traveling type measuring device 1 is applied to the inner wall surface 5a of the tunnel 5. It is irradiated facing directly. Therefore, the irradiation direction of the laser becomes parallel to the step generated on the inner wall surface 5a of the tunnel 5, and the difference in density of the three-dimensional points due to the step in the three-dimensional point group of the tunnel 5 obtained by the measurement of the traveling type measuring device 1 becomes large. Hard to appear.
  • the step on the inner wall surface 5a of the tunnel 5 is a step due to floating or peeling and its height is relatively low, this also means that the step on the inner wall surface 5a of the tunnel 5 is a step in the three-dimensional point cloud. The difference in density of three-dimensional points is unlikely to occur.
  • the processing unit 12 of the step detection device 2 detects the position of the step on the inner wall surface 5a of the tunnel 5 based on the result obtained by applying the Gaussian difference filter to the plurality of element points Pe. Therefore, the processing unit 12 accurately determines the position of the step generated on the inner wall surface 5a of the tunnel 5 even when the difference in density of the three-dimensional points due to the step is small in the three-dimensional point cloud representing the inner wall surface 5a of the tunnel 5. Can be detected.
  • the element points Pe are arranged at equal intervals in each of the tunnel axial direction and the tunnel circumferential direction, and one or more three-dimensional points are assigned to each element point Pe. Therefore, a plurality of element points Pe are arranged at equal intervals in each of the tunnel axial direction and the tunnel circumferential direction. As a result, the processing unit 12 can detect the step with the same accuracy over the entire inner wall surface 5a of the tunnel 5.
  • the processing unit 12 can assign a plurality of three-dimensional points to one element point Pe, the number of three-dimensional points included in the three-dimensional point cloud represented by the three-dimensional point cloud data Dpg is compared with the number of three-dimensional points.
  • the number of element points Pe included in the element point cloud represented by the element point cloud data De can be reduced. Therefore, the load on the processing unit 12 in the processing of the Gaussian difference filter can be reduced.
  • the traveling type measuring device 1 shown in FIG. 1 has an imaging unit that captures a two-dimensional image in addition to the laser scanner device, and an image of the inner wall surface 5a of the tunnel 5 from the imaging data obtained by the imaging unit while traveling.
  • Generate data Dimg is data showing the entire image of the inner wall surface 5a of the tunnel 5 obtained by connecting the captured images, which are the images captured by the imaging unit.
  • the traveling type measuring device 1 periodically measures the inner wall surface 5a of the tunnel 5 and generates three-dimensional point cloud data Dpg and image data Dimg each time the measurement is performed.
  • the traveling type measuring device 1 transmits the three-dimensional point cloud data Dpg and the image data Dimg to the step detecting device 2 via the network 3 every time the inner wall surface 5a of the tunnel 5 is measured.
  • the three-dimensional point cloud data Dpg and the image data Dimg each include information on the measurement time, which is the time measured by the traveling type measuring device 1.
  • FIG. 4 is a diagram showing a configuration example in which the step detection device shown in FIG. 1 is further refined.
  • the step detection device 2 includes an input unit 13 and a display unit 14 in addition to the configuration of the step detection device 2 shown in FIG.
  • the communication unit 10 receives the data generated by the traveling type measuring device 1 shown in FIG. 1 via the network 3. Specifically, the communication unit 10 receives the three-dimensional point cloud data Dpg and the image data Dimg from the traveling type measuring device 1 via the network 3.
  • the storage unit 11 stores the shape data Df, the three-dimensional point cloud data Dpg, the image data Dimg, and the deformation data Ddf.
  • the shape data Df is data indicating the cross-sectional shape of the tunnel 5.
  • the shape data Df may be data on the cross-sectional shape of the inner wall surface 5a obtained from the three-dimensional point cloud data Dpg instead of the data on the cross-sectional shape of the inner wall surface 5a obtained from the design drawing.
  • the processing unit 12 can generate shape data Df by, for example, estimating the cross-sectional shape of the inner wall surface 5a by applying a pillar to the three-dimensional point cloud of the inner wall surface 5a represented by the three-dimensional point cloud data Dpg. .. Further, the processing unit 12 sets a plurality of three-dimensional points within a set distance from the orthogonal plane, which is a plane orthogonal to the tunnel axis direction, among the plurality of three-dimensional points included in the three-dimensional point group data Dpg. It is also possible to generate shape data Df by projecting onto a curve and approximating a plurality of projected points with a curve.
  • the shape data Df may be data indicating the overall shape of the inner wall surface 5a of the tunnel 5.
  • the processing unit 12 can generate shape data Df by, for example, estimating the overall shape of the inner wall surface 5a by applying a pillar to the three-dimensional point cloud of the inner wall surface 5a indicated by the three-dimensional point cloud data Dpg. ..
  • the three-dimensional point cloud data Dpg and the image data Dimg are data generated by the traveling type measuring device 1 and received by the communication unit 10, and include the time information described above.
  • Deformation data Ddf includes data indicating the type, range, time, etc. of the deformation that occurred on the inner wall surface 5a.
  • Types of deformation include cracks, steps, peeling, and water leaks.
  • the range of deformation is the range of deformation on the inner wall surface 5a, for example, the range on the reference plane Swr'or the range on the reference plane Swr.
  • the time of the deformation is the time when the deformation is detected, for example, the time indicated by the time information included in the three-dimensional point cloud data Dpg in which the deformation is detected.
  • the processing unit 12 includes an acquisition unit 21, a data conversion unit 22, a step detection unit 23, a step evaluation unit 24, an attribute setting unit 25, a coordinate conversion unit 26, and a display processing unit 27.
  • the acquisition unit 21 acquires the three-dimensional point cloud data Dpg and the image data Dimg from the traveling type measuring device 1 via the network 3, and stores the acquired three-dimensional point cloud data Dpg and the image data Dimg in the storage unit 11.
  • the acquisition unit 21 can also acquire the three-dimensional point cloud data Dpg and the image data Dimg from a recording medium (not shown) in which the three-dimensional point cloud data Dpg and the image data Dimg are recorded.
  • the data conversion unit 22 sets the reference plane Swr corresponding to the inner wall surface 5a based on the shape data Df, and converts the three-dimensional point cloud data Dpg into the element point cloud data De.
  • the element point cloud data De is represented by the position of one grid point Pg selected from a plurality of grid points Pg arranged in a matrix on the reference plane Swr and the amount of deviation from the reference plane Swr.
  • the data of a plurality of element points Pe to be performed is included.
  • the data conversion unit 22 can perform the above-described processing for generating the shape data Df from the three-dimensional point cloud data Dpg.
  • FIG. 5 is a diagram for explaining a method of converting the three-dimensional point cloud data into the element point cloud data by the data conversion unit according to the first embodiment.
  • FIG. 6 is a diagram for explaining a first method of determining the amount of deviation from the reference plane at the element point by the data conversion unit according to the first embodiment.
  • FIG. 7 is a diagram for explaining a second method of determining the amount of deviation from the reference plane at the element point by the data conversion unit according to the first embodiment.
  • FIG. 8 is a diagram for explaining a third method of determining the amount of deviation from the reference plane at the element point by the data conversion unit according to the first embodiment.
  • the data conversion unit 22 specifies the overall shape of the inner wall surface 5a of the tunnel 5 shown in FIG. 5 based on the shape data Df. For example, the data conversion unit 22 specifies the overall shape of the inner wall surface 5a by making the cross-sectional shape of the inner wall surface 5a continuous in the tunnel axial direction. Further, when the shape data Df is three-dimensional data indicating the overall shape of the inner wall surface 5a, the data conversion unit 22 can specify the entire shape of the inner wall surface 5a from the three-dimensional data included in the shape data Df.
  • the data conversion unit 22 sets the overall shape of the specified inner wall surface 5a as the reference surface Swr'.
  • the data conversion unit 22 projects each three-dimensional point included in the three-dimensional point cloud data Dpg from a direction orthogonal to the reference plane Swr'to the reference plane Swr'.
  • the data conversion unit 22 calculates the position of each three-dimensional point projected on the reference plane Swr'on the reference plane Swr'and the amount of deviation of each three-dimensional point before projection from the reference plane Swr'.
  • the magnitude of the deviation amount from the reference plane Swr' represents the distance from the reference plane Swr' at the three-dimensional point, and the polarity of the deviation amount from the reference plane Swr'is the direction orthogonal to the reference plane Swr'and is the reference plane. Represents the direction seen from Swr'.
  • the data conversion unit 22 develops the three-dimensional point cloud data Dpg based on the position on the reference plane Swr'after projection and the deviation amount from the reference plane Swr' before projection at each three-dimensional point. It is converted into the development map point cloud data Dpg1 which is the system data.
  • the development view coordinate system is a Cartesian coordinate system in which the position in the tunnel axial direction, the position in the tunnel circumferential direction, and the amount of deviation from the reference plane Swr are different axes.
  • the development view point group data Dpg1 includes data of a plurality of three-dimensional points represented by a position in the tunnel axial direction, a position in the tunnel circumferential direction, and a deviation amount from the reference plane Swr.
  • the data conversion unit 22 converts the position on the reference plane Swr'after the projection of the three-dimensional point to the position on the reference plane Swr'of the three-dimensional point, and the amount of deviation from the reference plane Swr' before projection is the reference plane Swr.
  • the three-dimensional point cloud data Dpg is converted into the developed map point cloud data Dpg1 by setting the amount of deviation from.
  • the magnitude of the deviation amount from the reference plane Swr represents the distance from the reference plane Swr at the three-dimensional point
  • the polarity of the deviation amount from the reference plane Swr is the direction orthogonal to the reference plane Swr and viewed from the reference plane Swr. Indicates the direction.
  • the position in the tunnel axial direction and the position in the tunnel circumferential direction among the plurality of three-dimensional points included in the developed map point group data Dpg1 are predetermined from the position of one grid point Pg.
  • One or more 3D points within the range are assigned to one grid point Pg.
  • the data conversion unit 22 sets the position of one assigned lattice point Pg in the tunnel axial direction and the position in the tunnel circumferential direction to the position of the element point Pe in the tunnel axial direction and the position in the tunnel circumferential direction.
  • the data conversion unit 22 determines the amount of deviation of the element point Pe from the reference surface Swr from the amount of deviation of one or more three-dimensional points assigned to one lattice point Pg from the reference surface Swr. For example, as shown in FIG. 6, the data conversion unit 22 may determine the amount of deviation of the three-dimensional point closest to the grid point Pg from the reference surface Swr as the amount of deviation of the element point Pe from the reference surface Swr. it can.
  • the three-dimensional point closest to the grid point Pg is the three-dimensional point having the shortest linear distance from the grid point Pg.
  • the data conversion unit 22 sets the value obtained by averaging the amount of deviation of the three-dimensional point within the predetermined range from the reference plane Swr from the grid point Pg as the element point Pe.
  • the amount of deviation from the reference plane Swr can be determined.
  • hatching is attached to the grid points Pg within a predetermined range from the grid points Pg.
  • the average value of the deviation amounts of these seven three-dimensional points from the reference plane Swr is an element. It is determined by the amount of deviation of the point Pe from the reference plane Swr.
  • the data conversion unit 22 when a plurality of three-dimensional points within a predetermined range from the grid point Pg are arranged in a direction orthogonal to the reference plane Swr, the data conversion unit 22 is in the middle of the arrangement order.
  • the value of the three-dimensional point located at can be determined as the amount of deviation of the element point Pe from the reference plane Swr.
  • hatching is attached to the grid points Pg within a predetermined range from the grid points Pg.
  • there are seven three-dimensional points within a predetermined range from the grid point Pg and when the seven three-dimensional points are arranged in the direction orthogonal to the reference plane Swr, the arrangement order is as follows.
  • the amount of deviation of the three-dimensional point at the fourth position from the reference surface Swr is determined by the amount of deviation of the element point Pe from the reference surface Swr.
  • the data conversion unit 22 performs the process of allocating one or more three-dimensional points to one grid point Pg and calculating the element point Pe for each grid point Pg, thereby generating the development map point cloud data Dpg1. Convert to element point cloud data De.
  • the data conversion unit 22 is configured to directly convert the three-dimensional point cloud data Dpg to the element point cloud data De without, for example, converting the three-dimensional point cloud data Dpg to the developed view point cloud data Dpg1. You may.
  • the data conversion unit 22 can also arrange a plurality of grid points Pg on the reference plane Swr'. In this case, the data conversion unit 22 performs a process of assigning one or more three-dimensional points to one grid point Pg on the reference plane Swr'for each grid point Pg, and then converts the data into the data of the developed view coordinate system. By doing so, the element point cloud data De is generated.
  • the step detection unit 23 of the processing unit 12 performs Gaussian difference processing, which is a process of applying a Gaussian difference filter to the element point cloud data De converted by the data conversion unit 22.
  • FIG. 9 is a diagram for explaining the Gaussian difference processing according to the first embodiment. Note that the y-axis is omitted in the figures other than the figure showing the step function in FIG.
  • the Gaussian difference filter is a filter that outputs the difference between the outputs of two different first Gaussian filters and the second Gaussian filter using the Gaussian function shown in the following equation (1).
  • x is the coordinate of the x-axis in the xy coordinate system
  • y is the coordinate of the y-axis in the xy coordinate system
  • is the parameter.
  • the step generated on the inner wall surface 5a of the tunnel 5 is represented by the step function s (x, y) represented by the following equation (2).
  • "a" indicates the size of the step, that is, the height of the step.
  • the step function s (x, y) shown in the following equation (2) is represented as shown in FIG.
  • the position where the x-axis coordinate is zero is the edge position
  • the position where the x-axis coordinate is zero is the step position.
  • the x-coordinate indicates the position of one of the tunnel axial position and the tunnel circumferential position at the element point Pe
  • the y-coordinate indicates the other of the tunnel axial position and the tunnel circumferential position at the element point Pe. Indicates the position.
  • the x-coordinate is the position in the tunnel axis direction
  • the y-coordinate is the position in the tunnel circumferential direction.
  • the first Gaussian filter is represented by the following equation (3).
  • S ⁇ 1 (x, y) indicates the output of the first Gaussian filter at an arbitrary position in the xy coordinate system.
  • the second Gaussian filter is expressed by the following equation (4).
  • S ⁇ 2 (x, y) indicates the output of the second Gaussian filter at an arbitrary position in the xy coordinate system
  • ⁇ 2 is a parameter of the second Gaussian filter. Since the parameter values of the first Gaussian filter and the second Gaussian filter are different from each other, the characteristics of the first Gaussian filter and the characteristics of the second Gaussian filter are different from each other as shown in FIG. In the example shown in FIG. 9, ⁇ 2 > ⁇ 1 . Further, in the figure showing the characteristics of the first Gaussian filter in FIG.
  • the horizontal axis shows the coordinates of the x-axis and the vertical axis shows the output of the first Gaussian filter. Further, in the figure showing the characteristics of the second Gaussian filter in FIG. 9, the horizontal axis shows the coordinates of the x-axis and the vertical axis shows the output of the second Gaussian filter.
  • the Gaussian difference filter is expressed by the following equation (5).
  • "H (x, y)" indicates the output of the Gaussian difference filter.
  • the horizontal axis shows the coordinates of the x-axis and the vertical axis shows the output of the Gaussian difference filter.
  • the step detection unit 23 includes a step position detection unit 31, a step height detection unit 32, and a vector generation unit 33.
  • the step position detection unit 31 of the step detection unit 23 calculates the Gaussian difference filter represented by the above equation (5) on the element point cloud data De. Specifically, the step position detection unit 31 performs the calculation of the above equation (5) for each element point Pe included in the element point cloud data De. Then, the step position detection unit 31 determines the position where the zero intersection occurs as the step position based on the output of the Gaussian difference filter.
  • the slope ⁇ H (x, y) at the position where the zero intersection occurs in the curve showing the characteristics of the Gaussian difference filter shown in FIG. 9 can be obtained by the calculation of the following equation (6).
  • FIG. 10 is a diagram showing an example of a method of detecting the position of a step by the step position detecting unit according to the first embodiment.
  • the positions of the four element points Pe after the Gaussian difference filter is applied are indicated by black circles.
  • the position of the element point Pe shown in FIG. 10 is a position in a Cartesian coordinate system in which the position in the tunnel axial direction, the position in the tunnel circumferential direction, and the difference in the amount of deviation from the reference plane Swr are different axes.
  • the difference in the amount of deviation from the reference surface Swr is the amount of deviation from the reference surface Swr obtained by applying the first Gaussian filter to the element point Pe and the second Gaussian filter with respect to the element point Pe. It is a difference from the deviation amount from the reference plane Swr obtained by multiplying by.
  • H (x n , y n )”, “H (x n + 1 , y n )”, “H (x n , y n + 1 )”, and “H (x n + 1 , y n + 1 )” shown in FIG. 10 are The difference in the amount of deviation from the reference plane Swr obtained by applying a Gaussian difference filter to the four element points Pe is shown.
  • n is an integer.
  • H (x n , y n )" is an element point Pe (x n , y) whose position in the tunnel axial direction is "x n " and whose position in the tunnel circumferential direction is "y n".
  • H (x n , y n + 1 ) is relative to the element point Pe (x n , y n + 1 ) whose position in the tunnel axial direction is “x n ” and whose position in the tunnel circumferential direction is “y n + 1”. It is the difference of the amount of deviation from the reference plane Swr obtained by applying the Gaussian difference filter. “H (x n + 1 , y n + 1 )” is for the element point Pe (x n + 1 , y n + 1 ) whose position in the tunnel axis direction is “x n + 1 ” and whose position in the tunnel circumferential direction is “y n + 1”.
  • the step position detection unit 31 determines the zero intersection, which is the position where the line connecting the two element points Pe having adjacent positions in the tunnel axis direction intersects zero among the plurality of element points Pe obtained by applying the Gaussian difference filter. To do. For example, the step position detection unit 31 determines the difference in the amount of deviation from the reference plane Swr between the element points Pe (x n , y n ) and the element points Pe (x n + 1 , y n ) whose positions in the tunnel axis direction are adjacent to each other. Determine if the polarities are different.
  • the step position detection unit 31 determines whether or not the polarities of "H (x n , y n )" and "H (x n + 1 , y n)" are different. It stepped position detection unit 31, element point Pe (x n, y n) "H (x n, y n)" in the element point Pe (x n + 1, y n) in the “H (x n + 1, y n) " When it is determined that the polarities are different from each other, the element point Pe (x n , y n ) and the element point Pe (x n + 1 , y n ) are internally divided to obtain the zero intersection. For example, the position x c of the zero intersection, which is the position where the zero intersection occurs in the tunnel axis direction, can be calculated by the calculation of the following equation (9).
  • the step position detection unit 31 is a zero intersection where the lines connecting the two element points Pe that are adjacent to each other in the tunnel circumferential direction among the plurality of element points Pe obtained by applying the Gaussian difference filter intersect at zero. To judge. For example, the step position detection unit 31 determines the difference in the amount of deviation from the reference plane Swr between the element points Pe (x n , y n ) and the element points Pe (x n , y n + 1 ) whose positions in the tunnel circumferential direction are adjacent to each other. Determine if the polarities are different.
  • the step position detection unit 31 determines whether or not the polarities of "H (x n , y n )" and "H (x n , y n + 1)" are different. It stepped position detection unit 31, element point Pe (x n, y n) "H (x n, y n)" in the element point Pe (x n, y n + 1) in the “H (x n, y n + 1) " When it is determined that the polarities are different from each other, the element point Pe (x n , y n ) and the element point Pe (x n , y n + 1 ) are internally divided to obtain the zero intersection. For example, the position y c of the zero intersection, which is the position where the zero intersection occurs in the tunnel circumferential direction, can be calculated by the calculation of the following equation (10).
  • the step position detection unit 31 sets the position of the element point Pe having the smaller absolute value of the difference in the amount of deviation from the reference surface Swr among the two element points Pe having different polarities of the difference in the amount of deviation from the reference surface Swr. Can be detected as the position of. In this way, the step position detection unit 31 can also detect a position close to the zero intersection as the step position.
  • FIG. 11 is a diagram showing an example of a method of detecting the height of a step by the step height detecting unit according to the first embodiment.
  • the positions of the four element points Pe after the Gaussian difference filter is applied as in FIG. 10 are indicated by black circles.
  • the step height detection unit 32 obtains the slope ⁇ H (x, y) at the zero intersection at the output H (x, y) of the Gaussian difference filter. The step height detection unit 32 calculates the step height based on the slope ⁇ H (x, y) at the zero intersection.
  • the step height detection unit 32 sets the slope ⁇ H (x, y) at the zero intersection P (x c , y n ) and the zero intersection P (x n + 1 , y c) to the zero intersection P. It is calculated for each step vector described later obtained by connecting (x c , y n ) and the zero intersection P (x n + 1 , y c). For example, the step height detection unit 32 has an element point Pe (x n , y) as an inclination ⁇ H (x, y) at the zero intersection P (x c , y n ) and the zero intersection P (x n + 1 , y c).
  • the zero plane is the plane where the output H (x, y) of the Gaussian difference filter becomes zero.
  • the step height detection unit 32 has an element point Pe (x n , y) as an inclination ⁇ H (x, y) at the zero intersection P (x c , y n ) and the zero intersection P (x n + 1 , y c).
  • n element point Pe (x n + 1, y n)
  • element point Pe (x n + 1, y n + 1) and element point Pe (x n + 1, y n + 1) and can also be determined inclination with respect to the zero plane of the plane including the ..
  • the step height detection unit 32 is three or more adjacent element points Pe among the plurality of element points Pe after the Gaussian difference filter is applied, and is at least one element point Pe and other and remaining elements.
  • the height of the step is detected by setting the slope of the surface including the three or more element points Pe having different polarities of the values obtained by applying the Gaussian difference filter with the point Pe as the slope ⁇ H (x, y).
  • the step height detection unit 32 determines the slope of the line connecting the two element points Pe having different polarities of the output H (x, y) of the Gaussian difference filter, which is a value obtained by applying the Gaussian difference filter, with respect to the zero plane.
  • the height of the step can be detected as the slope ⁇ H (x, y).
  • the step height detection unit 32 has an element point Pe (x n , y n ) and an element point Pe as an inclination ⁇ H (x, y) at the zero intersection P (x c , y n).
  • the slope of the line connecting (x n + 1 , y n ) with respect to the zero plane can be obtained as the slope ⁇ H (x, y).
  • the step height detection unit 32 has an element point Pe (x n + 1 , y n ) and an element as an inclination ⁇ H (x, y) at the zero intersection P (x n + 1 , y c).
  • the slope of the line connecting the points Pe (x n + 1 , y n + 1 ) with respect to the zero plane can be obtained as the slope ⁇ H (x, y).
  • the step height detection unit 32 has an element point Pe (x n , y) as an inclination ⁇ H (x, y) at the zero intersection P (x c , y n + 1 ) and the zero intersection P (x n + 1 , y c).
  • the average value of the slope with respect to the plane can also be obtained as the slope ⁇ H (x, y).
  • the step height detection unit 32 detects the step height "a” by the calculation of the following equation (11).
  • the following formula (11) can be obtained based on the above formula (8).
  • FIG. 12 is a diagram showing an example of a method of generating a step vector by the vector generation unit according to the first embodiment.
  • the positions of the four element points Pe after the Gaussian difference filter is applied as in FIG. 10 are indicated by black circles.
  • the vector generation unit 33 When there are two or more zero intersections in the mesh formed by connecting four adjacent element points Pe with a straight line, the vector generation unit 33 generates a line connecting the zero intersections as a unit vector of the step vector.
  • the number of meshes formed by connecting four adjacent element points Pe with a straight line is 81.
  • the vector generation unit 33 performs a process of generating a line connecting the zero intersections as a unit vector when there are two or more zero intersections for each mesh. In the example shown in FIG. 12, the vector generation unit 33 generates a line connecting the zero intersection P (x c , y n ) and the zero intersection P (x n + 1 , y c ) as a unit vector.
  • the vector generation unit 33 connects the unit vectors of the adjacent meshes that share the zero intersection among the adjacent meshes that are adjacent to the mesh that generated the unit vector as continuous unit vectors. As a result, the vector generation unit 33 can generate a step vector corresponding to a continuous step. If there is no unit vector in any of the adjacent meshes, the vector generation unit 33 treats one unit vector as a step vector.
  • the vector generation unit 33 can also simplify the step vector by reducing the nodes of the step vector.
  • the vector generation unit 33 can reduce the number of steps of the step vector by using the Douglas-Pucker method or the like for the generated step vector.
  • the node of the step vector is formed at the position of the zero intersection when the angle formed by the two consecutive unit vectors constituting the step vector is an angle other than 0 degrees.
  • the step detection unit 23 stores the step data including the information indicating the position of the detected step, the information indicating the height of the detected step, and the information indicating the generated step vector in the storage unit Ddf.
  • the variant data Ddf is updated by adding to. Further, the step detection unit 23 can add the time information included in the three-dimensional point cloud data Dpg used for detecting the step to the step data.
  • the step evaluation unit 24 of the processing unit 12 determines a state level representing the state of the step based on the height of the step and the spread of the step detected by the step detection unit 23.
  • the step evaluation unit 24 can add information indicating the determined step level to the step data.
  • the step evaluation unit 24 calculates the spread on the reference surface Swr as the spread of the step.
  • the spread of the step vector is calculated from, for example, at least one of the length of the step vector and the size of the two-dimensional range in which the step vector exists.
  • the size of the two-dimensional range in which the step vector exists is, for example, the area of the smallest rectangle that can enclose the step vector.
  • the step evaluation unit 24 can determine the state level of the step by using an arithmetic expression or a table in which the height of the step and the spread of the step are parameters.
  • the state level indicates, for example, the degree of risk of the step or the degree of deterioration of the step.
  • the step evaluation unit 24 can determine one level from three levels including the first level, the second level, and the third level for each step vector generated by the step detection unit 23.
  • the first level is, for example, a level indicating that the step is not in a dangerous state.
  • the second level is, for example, a level indicating that the step is not a dangerous state but requires attention.
  • the third level is, for example, a level indicating that the step is in a dangerous state.
  • the step evaluation unit 24 can determine the state level of the step from two levels, and can also determine the state level of the step from four or more levels.
  • the step evaluation unit 24 can add information indicating the state level of the determined step to the step data.
  • the step data includes information indicating the position of the detected step, information indicating the height of the detected step, information indicating the generated step vector, and information indicating the state level of the step.
  • the attribute setting unit 25 adds information such as the length of the step vector and the spread of the step calculated by the step evaluation unit 24 to the step data stored in the storage unit 11 as the attribute information of the step. Further, the attribute setting unit 25 adds the step data in which the attribute information of the step input by the input unit 13 is stored in the storage unit 11.
  • the step attribute information input by the input unit 13 is information indicating the step attribute such as an identification number and a comment.
  • the attribute setting unit 25 associates the attribute information of the step with the information of the step vector included in the step data.
  • the input unit 13 is, for example, a keyboard or the like. In this way, the attribute setting unit 25 can include the attribute information of the step in the step data.
  • the coordinate conversion unit 26 uses the step vector information included in the step data of the deformation data Ddf stored in the storage unit 11 to obtain the step vector from the coordinates of the above-mentioned developed view coordinate system to the above-mentioned three-dimensional Cartesian coordinate system. Convert to the coordinates of.
  • the coordinate conversion unit 26 can add information indicating the coordinates of the step vector of the converted three-dimensional orthogonal coordinate system to the step data stored in the storage unit 11 as three-dimensional step vector data.
  • the step data includes the step vector information of the developed view coordinate system and the step vector information of the three-dimensional Cartesian coordinate system.
  • the coordinate conversion unit 26 performs coordinate conversion of the image of the tunnel 5 so as to follow the shape of the inner wall surface 5a of the tunnel 5 based on the deformation data Ddf and the image data Dimg stored in the storage unit 11, and the tunnel. It is also possible to generate a three-dimensional image of 5. Further, the coordinate conversion unit 26 converts the three-dimensional point cloud of the inner wall surface 5a of the tunnel 5 from the three-dimensional coordinate system to the developed view coordinate system based on the three-dimensional point cloud data Dpg stored in the storage unit 11. The converted three-dimensional point cloud is projected onto the developed view plane, and the two-dimensional point cloud data in which the projected plurality of points are the two-dimensional point cloud can be stored in the storage unit 11.
  • the display processing unit 27 displays a figure showing the step vector and information showing the step attribute with respect to the developed view represented by the reference plane Swr.
  • a two-dimensional image showing a modified development view, which is an added figure, can be displayed on the display unit 14.
  • the display processing unit 27 superimposes an image showing a deformation development diagram on the captured image of the inner wall surface 5a of the tunnel 5 based on the shape data Df, the deformation data Ddf, and the image data Dimg stored in the storage unit 11.
  • the two-dimensional image can be displayed on the display unit 14.
  • the display processing unit 27 displays a two-dimensional image in which the two-dimensional point cloud is superimposed on the deformation development diagram based on the shape data Df, the deformation data Ddf, and the two-dimensional point cloud data stored in the storage unit 11. It can also be displayed on the unit 14.
  • FIG. 13 is a diagram showing an example of a modified development diagram according to the first embodiment.
  • the modified development view 80 shown in FIG. 13 includes an outer frame 81 in which the outer shape of the inner wall surface 5a of the tunnel 5 is developed, step vectors 82a, 82b, 82c, 82d, and attribute information 83a, 83b, 83c, 83d.
  • the step vectors 82a, 82b, 82c, and 82d are two-dimensional figures showing the step vectors.
  • Attribute information 83a, 83b, 83c, 83d is information indicating the length of the step vector.
  • the attribute information 83a, 83b, 83c, 83d may include the identification number and the comment input from the input unit 13 in place of or in addition to the length of the step vector.
  • the display processing unit 27 adds a three-dimensional step to the three-dimensional point cloud representing the inner wall surface 5a of the tunnel 5 based on the three-dimensional point cloud data Dpg stored in the storage unit 11 and the three-dimensional step vector data.
  • a three-dimensional image in which vectors are superimposed can be displayed on the display unit 14.
  • the display processing unit 27 adds a three-dimensional image of the tunnel 5 and three to the three-dimensional point cloud representing the inner wall surface 5a of the tunnel 5 based on the three-dimensional point cloud data Dpg, the three-dimensional step vector data, and the image data Dimg. It is also possible to display the three-dimensional image on which the dimensional step vector is superimposed on the display unit 14.
  • FIG. 14 is a diagram showing an example of a three-dimensional image in which a three-dimensional step vector is superimposed on a three-dimensional point cloud representing the inner wall surface of the tunnel according to the first embodiment.
  • the three-dimensional image 90 shown in FIG. 14 includes a three-dimensional point cloud 91 representing the inner wall surface 5a of the tunnel 5 and step vectors 92a, 92b, 92c, 92d.
  • the step vectors 92a, 92b, 92c, and 92d are three-dimensional figures showing the step vectors.
  • the three-dimensional image 90 can also include the attribute information of the step vector.
  • the display processing unit 27 can display the step information detected by the step detection unit 23 on the display unit 14 in chronological order based on the time information. For example, the display processing unit 27 can display the step vector detected at each time on the display unit 14 while switching the step vector detected at each time in the order of the detection time, based on the time information included in the step data. As a result, the user of the deformation detection system 100 can grasp the state change of the step. For example, the display processing unit 27 can display the step vectors 82a, 82b, 82c, 82d detected at each time on the display unit 14 while switching in the order of the detection time. Further, the display processing unit 27 can display the step vectors 92a, 92b, 92c, 92d detected at each time on the display unit 14 while switching in the order of the detection time.
  • FIG. 15 is a flowchart showing an example of a processing procedure by the processing unit of the step detection device according to the first embodiment.
  • the process shown in FIG. 15 is repeatedly executed by the processing unit 12.
  • the processing unit 12 of the step detection device 2 determines whether or not the step detection timing has been reached (step S10). For example, the processing unit 12 determines that the step detection timing has come when the three-dimensional point cloud data Dpg is acquired from the traveling type measuring device 1 or when there is a specific operation on the input unit 13.
  • step S11 When the processing unit 12 determines that the step detection timing has come (step S10: Yes), the processing unit 12 performs the step detection process (step S11).
  • the step detection process in step S11 is the process of steps S20 to S23 shown in FIG. 16, which will be described in detail later.
  • the processing unit 12 performs coordinate conversion processing for converting the step vector of the step detected in step S11 into the step vector of the three-dimensional Cartesian coordinate system (step S12). Further, the processing unit 12 performs a step evaluation process for determining the state level of the step by using an arithmetic expression or a table in which the height of the step and the spread of the step detected in step S11 are parameters (step S13).
  • the processing unit 12 determines whether or not there is an attribute input when the processing in step S13 is completed or when it is determined that the step detection timing has not been reached (step S10: No) (step S14). In step S14, the processing unit 12 determines that there is an attribute input when the attribute information of the step is input to the input unit 13. When the processing unit 12 determines that there is an attribute input (step S14: Yes), the processing unit 12 stores the input attribute information in the storage unit 11 (step S15).
  • the processing unit 12 determines whether or not there is a display request when the processing in step S15 is completed or when it is determined that there is no attribute input (step S14: No) (step S16). In step S16, the processing unit 12 determines that there is a display request, for example, when there is a specific operation on the input unit 13. When the processing unit 12 determines that there is a display request (step S16: Yes), the processing unit 12 causes the display unit 14 to display the target of the display request (step S17). In step S17, when the display request is a display request for the modified development diagram, the processing unit 12 causes the display unit 14 to display a two-dimensional image showing the modified development diagram. Further, when the display request is a time-series display request, the processing unit 12 causes the display unit 14 to display the step information detected by the step detection unit 23 in time series based on the time information.
  • step S17 When the processing in step S17 is completed or when it is determined that there is no display request (step S16: No), the processing unit 12 ends the processing shown in FIG.
  • FIG. 16 is a flowchart showing an example of the step detection process by the processing unit of the step detection device according to the first embodiment.
  • the processing unit 12 of the step detection device 2 converts the three-dimensional point cloud data Dpg into the element point cloud data De (step S20).
  • the processing unit 12 performs Gaussian difference processing that applies the element point cloud data De to the Gaussian difference filter (step S21).
  • the processing unit 12 detects a step based on the output of the Gaussian difference filter (step S22).
  • the processing unit 12 stores the step data indicating the detected step information in the storage unit 11 (step S23), and ends the process shown in FIG.
  • FIG. 17 is a diagram showing an example of the hardware configuration of the step detection device according to the first embodiment.
  • the step detection device 2 includes a computer including a processor 101, a memory 102, a communication device 103, an input / output circuit 104, and a display device 105.
  • the processor 101, the memory 102, the communication device 103, the input / output circuit 104, and the display device 105 can send and receive data to and from each other by, for example, the bus 106.
  • the communication unit 10 is realized by the communication device 103.
  • the storage unit 11 is realized by the memory 102.
  • the input unit 13 is realized by the input / output circuit 104.
  • the display unit 14 is realized by the display device 105.
  • the processor 101 reads and executes the acquisition unit 21, the data conversion unit 22, the step detection unit 23, the step evaluation unit 24, the attribute setting unit 25, the coordinate conversion unit 26, and the display.
  • the function of the processing unit 27 is executed.
  • the processor 101 is, for example, an example of a processing circuit, and includes one or more of a CPU (Central Processing Unit), a DSP (Digital Signal Processor), and a system LSI (Large Scale Integration).
  • the memory 102 is one or more of RAM (Random Access Memory), ROM (Read Only Memory), flash memory, EPROM (Erasable Programmable Read Only Memory), and EEPROM (registered trademark) (Electrically Erasable Programmable Read Only Memory). Including.
  • the memory 102 also includes a recording medium on which a computer-readable program is recorded. Such recording media include one or more of non-volatile or volatile semiconductor memories, magnetic disks, flexible memories, optical disks, compact disks, and DVDs (Digital Versatile Discs).
  • the step detection device 2 may include integrated circuits such as an ASIC (Application Specific Integrated Circuit) and an FPGA (Field Programmable Gate Array).
  • the surface of the structure in which the step is detected by the step detection unit 23 of the step detection device 2 is the inner wall surface 5a of the tunnel 5, but the step detection unit 23 of the step detection device 2 is a tunnel. It is possible to detect a step generated in other than the inner wall surface 5a of 5.
  • the step detection unit 23 can detect a step by targeting the surface of a bridge, the surface of a road, and the surface of a building as detection targets.
  • the step detection unit 23 converts the three-dimensional point cloud data Dpg into the element point cloud data De without converting it into the developed view coordinate system. can do.
  • the step detection device 2 of the deformation detection system 100 includes an acquisition unit 21, a data conversion unit 22, and a step detection unit 23.
  • the acquisition unit 21 acquires the three-dimensional point cloud data Dpg, which is data representing the inner wall surface 5a of the tunnel 5 as a three-dimensional point cloud, and the shape data Df indicating the shape of the tunnel 5.
  • the data conversion unit 22 sets a reference plane Swr corresponding to the inner wall surface 5a of the tunnel 5 based on the shape data Df, and arranges the three-dimensional point cloud data Dpg in a matrix on the reference plane Swr.
  • the step detection unit 23 detects the position of the step on the inner wall surface 5a of the tunnel 5 based on the result obtained by applying a Gaussian difference filter to a plurality of element points Pe included in the element point cloud data De.
  • the tunnel 5 is an example of a structure, and the inner wall surface 5a of the tunnel 5 is an example of the surface of the structure.
  • the position of the step generated on the inner wall surface 5a of the tunnel 5 can be detected. it can.
  • the step detection unit 23 is formed on a line connecting two element points Pe that are adjacent to each other and have different polarities in the values obtained by applying the Gaussian difference filter among the plurality of element points Pe after the Gaussian difference filter is applied.
  • the position where the zero intersection occurs is specified, and the specified position is detected as the position of the step.
  • the position of the step generated on the inner wall surface 5a of the tunnel 5 can be accurately detected from the result obtained from the Gaussian difference filter.
  • the step detection unit 23 is a Gaussian difference between three or more adjacent element points Pe among the plurality of element points Pe after the Gaussian difference filter is applied, and at least one element point Pe and the remaining element points Pe.
  • a step height detecting unit 32 that detects the height of a step based on the inclination of a surface including three or more element points Pe having different polarities obtained by filtering is provided. As a result, the height of the step can be detected from the result obtained from the Gaussian difference filter.
  • the step detection unit 23 detects the step height based on the inclination at the zero intersection of the line connecting the two adjacent element points Pe from the result obtained by applying the Gaussian difference filter.
  • a unit 32 is provided. As a result, the height of the step can be accurately detected from the result obtained from the Gaussian difference filter.
  • the step detection unit 23 includes a vector generation unit 33 that generates a step vector, which is a vector obtained by connecting the positions of the steps. This makes it possible to generate a step vector representing a continuous step.
  • the step detection device 2 calculates the spread of the step based on the step vector generated by the vector generation unit 33, and based on the calculated spread of the step and the height of the step detected by the step height detection unit 32.
  • the step evaluation unit 24 for determining the state level representing the state of the step is provided. As a result, the state of the step can be easily grasped.
  • the step detection device 2 includes a display processing unit 27 that displays the step vector generated by the vector generation unit 33 on the display unit 14. As a result, the state of the step can be easily grasped.
  • the display processing unit 27 causes the display unit 14 to display an image in which the step vectors 82a, 82b, 82c, 82d are superimposed on at least one of the development view and the captured image of the tunnel 5. Thereby, for example, the position on the inner wall surface 5a of the step and the spread of the step can be easily grasped.
  • the step detection device 2 includes a coordinate conversion unit 26 that converts the step vectors 82a, 82b, 82c, 82d into data in a three-dimensional coordinate system.
  • the display processing unit 27 causes the display unit 14 to display the step vectors 92a, 92b, 92c, 92d converted into the data of the three-dimensional coordinate system. As a result, the state of the step can be grasped in three dimensions.
  • the display processing unit 27 displays an image in which the step vectors 92a, 92b, 92c, 92d converted into the data of the three-dimensional coordinate system are superimposed on the image of the three-dimensional point cloud representing the inner wall surface 5a of the tunnel 5. To display. Thereby, the position of the step and the spread of the step on the inner wall surface 5a of the tunnel 5 can be easily grasped from the images corresponding to the step vectors 92a, 92b, 92c, 92d.
  • the acquisition unit 21 acquires a plurality of three-dimensional point cloud data Dpg obtained by measuring the inner wall surface 5a of the tunnel 5 at different times.
  • the plurality of three-dimensional point cloud data Dpgs include time information indicating the time when the inner wall surface 5a of the tunnel 5 is measured.
  • the step detection unit 23 detects a step from each of the plurality of three-dimensional point cloud data Dpgs, and associates time information with the detected step.
  • the display processing unit 27 causes the display unit 14 to display the step information detected by the step detection unit 23 in chronological order based on the time information. As a result, the state of the step can be grasped in chronological order.
  • Embodiment 2 The deformation detection system according to the second embodiment is different from the deformation detection system 100 according to the first embodiment in that the step detection device detects the secular change of the step and calculates the distribution of the step.
  • the components having the same functions as those of the first embodiment will be designated by the same reference numerals and the description thereof will be omitted, and the differences from the deformation detection system 100 of the first embodiment will be mainly described.
  • FIG. 18 is a diagram showing a configuration example of a step detection device in the deformation detection system according to the second embodiment of the present invention.
  • the step detection device 2A of the deformation detection system according to the second embodiment is different from the step detection device 2 in that the processing unit 12A is provided instead of the processing unit 12.
  • the processing unit 12A is different from the processing unit 12 in that the comparison unit 28 and the statistical processing unit 29 are further provided.
  • the comparison unit 28 compares a plurality of step data detected by the step detection unit 23 from a plurality of three-dimensional point cloud data Dpg obtained by each measurement at different times in the traveling type measuring device 1. For example, the comparison unit 28 compares the heights of the steps detected by the step detection unit 23 from the plurality of three-dimensional point cloud data Dpg obtained by the traveling type measuring device 1 at different times, and compares the heights of the steps. Judge the secular change of the height of. Further, the comparison unit 28 compares the spread of the steps detected by the step detection unit 23 from the plurality of three-dimensional point cloud data Dpg obtained by measuring at different times, and determines the secular change of the spread of the steps. To do.
  • the display processing unit 27 can cause the display unit 14 to display information indicating the secular change in the height of the step and the secular change in the spread of the step determined by the comparison unit 28.
  • the comparison unit 28 compares, for example, the height of the step detected using the previously measured 3D point cloud data Dpg with the height of the step detected using the 3D point cloud data Dpg measured this time. Then, the step whose height has changed is determined. Further, in the comparison unit 28, for example, the spread of the step detected using the previously measured three-dimensional point cloud data Dpg and the spread of the step detected using the three-dimensional point cloud data Dpg measured this time. To determine the level difference in which the spread has changed.
  • the display processing unit 27 can highlight and display the step determined by the comparison unit 28 that the height has changed and the step determined by the comparison unit 28 that the spread has changed.
  • the difference between the height of the step detected using the previously measured 3D point cloud data Dpg and the height of the step detected using the 3D point cloud data Dpg measured this time. Can be calculated. Further, in the comparison unit 28, for example, the spread of the step detected using the previously measured three-dimensional point cloud data Dpg and the spread of the step detected using the three-dimensional point cloud data Dpg measured this time. The difference between can be calculated.
  • the display processing unit 27 can display the information indicating the difference in the height of the steps calculated by the comparison unit 28 and the information indicating the difference in the spread of the steps on the display unit 14. The display processing unit 27 highlights and displays the difference in the height of the step determined by the comparison unit 28 to change the height and the difference in the spread of the step determined by the comparison unit 28 to change the spread. It can also be displayed on the unit 14.
  • the statistical processing unit 29 performs statistical processing for calculating at least one of the number and length of the step vectors as step vector information for each region set on the inner wall surface 5a of the tunnel 5. For example, the statistical processing unit 29 sets the number of step vectors included in the tunnel span, the total length of the step vectors included in the tunnel span, and the step vector included in the tunnel span for each tunnel span which is the span of the tunnel 5. Calculate the height of the step and the spread of the step vector included in the tunnel span. The height of the step in the step vector included in the tunnel span is, for example, the average value and the maximum value of the heights of the plurality of steps used for generating the step vector when the step vector is generated from the steps of a plurality of heights. , And at least one of the minimum values.
  • the statistical processing unit 29 can calculate the distribution of the step vector for each tunnel span.
  • the distribution of the step vector means, for example, the ratio of the step vectors existing in each of the divided regions when it is assumed that the tunnel span is divided into a plurality of regions in the tunnel circumferential direction.
  • the display processing unit 27 can display the result calculated by the statistical processing unit 29 on the display unit 14.
  • FIG. 19 is a diagram showing an example of the result calculated by the statistical processing unit according to the second embodiment.
  • the statistical processing unit 29 can display a graph showing the number of step vectors of each tunnel span calculated by the statistical processing unit 29 on the display unit 14. In the graph shown in FIG. 19, the number of step vectors generated in 2017, the number of step vectors generated in 2018, and the number of step vectors generated in 2019 are shown for each tunnel span.
  • the statistical processing unit 29 displays a graph showing the total length of the step vectors of each tunnel span, a graph showing the distribution of the step vectors of each tunnel span, etc., instead of the number of step vectors of each tunnel span. It can be displayed on the unit 14.
  • FIG. 20 is a flowchart showing an example of a processing procedure by the processing unit of the step detection device according to the second embodiment. Since the processes of steps S30 to S37 of FIG. 20 are the same as the processes of steps S10 to S17 shown in FIG. 15, the description thereof will be omitted. The process shown in FIG. 20 is repeatedly executed by the processing unit 12A.
  • the processing unit 12A of the step detection device 2A determines whether or not the comparison processing timing has come (step S38). For example, the processing unit 12A determines that the comparison processing timing has come when there is a specific operation on the input unit 13. When the processing unit 12A determines that the comparison processing timing has come (step S38: Yes), a plurality of three-dimensional point cloud data Dpg detected by the step detection unit 23 from the plurality of three-dimensional point cloud data Dpg obtained by measuring at different times. A comparison process for comparing the step data is performed, and a display process for displaying the result of the comparison process on the display unit 14 is performed (step S39).
  • step S40 determines whether or not the statistical processing timing has been reached. For example, the processing unit 12A determines that the statistical processing timing has come when there is a specific operation on the input unit 13. When the processing unit 12A determines that the statistical processing timing has come (step S40: Yes), at least one of the number and length of the step vectors is used as the step vector information for each set area of the inner wall surface 5a of the tunnel 5. Perform the statistical processing to be calculated, and perform the display processing to display the result of the statistical processing on the display unit 14 (step S41). The processing unit 12A ends the processing shown in FIG. 20 when the processing in step S41 is completed or when it is determined that the statistical processing timing has not been reached (step S40: No).
  • the hardware configuration example of the step detection device 2A according to the second embodiment is the same as the hardware configuration of the step detection device 2 shown in FIG.
  • the processor 101 can execute the functions of the comparison unit 28 and the statistical processing unit 29 by reading and executing the program stored in the memory 102.
  • the step detection device 2A of the deformation detection system 100A includes the statistical processing unit 29.
  • the statistical processing unit 29 calculates at least one of the number and length of the step vectors 82a, 82b, 82c, 82d as the step vector information for each tunnel span of the inner wall surface 5a of the tunnel 5.
  • the tunnel span is an example of a predetermined area.
  • the display processing unit 27 graphs the step vector information calculated by the statistical processing unit 29 and displays it on the display unit 14. As a result, the state of the step can be grasped for each tunnel span.
  • the step detection device 2A includes a comparison unit 28 that compares the data of the plurality of steps detected by the step detection unit 23 from the plurality of three-dimensional point cloud data Dpg. Thereby, for example, it is possible to grasp the secular change of the step.
  • Embodiment 3 The deformation detection system according to the third embodiment is different from the deformation detection system 100 according to the first embodiment in that a deformation server, a data server, and the like are used.
  • a deformation server a data server, and the like are used.
  • the same components as those of the deformation detection system 100 according to the first embodiment are designated by the same reference numerals and the description thereof will be omitted, and the configurations different from the deformation detection system 100 according to the first embodiment will be mainly described. It shall be.
  • FIG. 21 is a diagram showing a first configuration example of the deformation detection system according to the third embodiment of the present invention.
  • the deformation detection system 100B shown in FIG. 21 includes a traveling type measuring device 1, a step detection device 2B, and a deformation server 4.
  • the transformation server 4 includes a communication unit 40, a storage unit 41, and a processing unit 42.
  • the processing unit 42 acquires the three-dimensional point cloud data Dpg and the image data Dimg from the traveling type measuring device 1 via the network 3 and the communication unit 40, and stores the acquired three-dimensional point cloud data Dpg and the image data Dimg in the storage unit 41. To memorize.
  • the storage unit 41 stores the shape data Df and the deformation data Ddf in addition to the three-dimensional point cloud data Dpg and the image data Dimg acquired by the acquisition unit 21B.
  • the step detection device 2B includes a processing unit 12B having an acquisition unit 21B instead of the processing unit 12 having the acquisition unit 21.
  • the acquisition unit 21B and the acquisition unit 21 are in that the three-dimensional point cloud data Dpg, the image data Dimg, the shape data Df, and the deformation data Ddf are acquired from the deformation server 4 via the network 3 and the communication unit 10. different.
  • the acquisition unit 21B transmits the level difference data generated by the level difference detection unit 23 and the level difference evaluation unit 24 from the communication unit 10 to the transformation server 4 via the network 3.
  • the deformation server 4 adds the step data acquired from the step detection device 2B to the deformation data Ddf stored in the storage unit 41, and updates the deformation data Ddf.
  • the three-dimensional point cloud data Dpg and the like having a large amount of data are stored in the deformation server 4.
  • the storage capacity of the storage unit 11 of the step detection device 2B can be reduced as compared with the storage capacity of the storage unit 11 of the step detection device 2 according to the first embodiment.
  • FIG. 22 is a diagram showing a second configuration example of the deformation detection system according to the third embodiment.
  • the deformation detection system 100C shown in FIG. 22 includes a traveling type measuring device 1, a step detection device 2C, and a deformation server 4C.
  • the transformation server 4C includes a communication unit 40, a storage unit 41, and a processing unit 42C.
  • the processing unit 42C includes a data conversion unit 51, and in addition to the functions of the processing unit 42 described above, the processing unit 42C has a function of converting the three-dimensional point cloud data Dpg into the element point cloud data De by the data conversion unit 51.
  • the function of the data conversion unit 51 is the same as the function of the data conversion unit 22 shown in FIG.
  • the step detection device 2C includes a processing unit 12C having an acquisition unit 21C instead of the processing unit 12B having the acquisition unit 21B.
  • the acquisition unit 21C is different from the acquisition unit 21B in that the element point cloud data De is acquired from the transformation server 4C via the network 3 and the communication unit 10 instead of the three-dimensional point cloud data Dpg and the shape data Df. ..
  • the step detection device 2C transmits the generated step data to the transformation server 4C in the same manner as the step detection device 2B.
  • the deformation detection system 100C shown in FIG. 22 the three-dimensional point cloud data Dpg having a large amount of data is stored in the deformation server 4C, and the three-dimensional point cloud data Dpg is transformed into the element point cloud data De. Converted by server 4C. As a result, the storage capacity of the storage unit 11 of the step detection device 2C can be reduced. Further, since the element point cloud data De has a smaller data capacity than the three-dimensional point cloud data Dpg, the deformation detection system 100C has a step detection device 2C and a deformation server 4C as compared with the deformation detection system 100B. The amount of communication between the two can be reduced.
  • FIG. 23 is a diagram showing a third configuration example of the deformation detection system according to the third embodiment.
  • the deformation detection system 100D shown in FIG. 23 includes a traveling type measuring device 1, a deformation server 4D, and a terminal device 6.
  • the deformation server 4D executes functions other than the display function and the input reception function among the functions of the step detection device 2.
  • the transformation server 4D has a processing unit 42D including a data conversion unit 51, a step detection unit 52, a step evaluation unit 53, an attribute setting unit 54, and a coordinate conversion unit 55.
  • the data conversion unit 51 has the same function as the data conversion unit 22, and uses the three-dimensional point cloud data Dpg as an element point based on the shape data Df and the three-dimensional point cloud data Dpg stored in the storage unit 41. Convert to group data De. Similar to the step detection unit 23, the step detection unit 52 detects the step from the element point cloud data De and generates step data including information on the detected step. The step detection unit 52 adds the generated step data to the deformation data Ddf.
  • the step evaluation unit 53 determines the state level of the step and adds information indicating the determined step level to the step data. Based on the request from the terminal device 6, the attribute setting unit 54 adds information indicating the step attribute to the step data, similarly to the attribute setting unit 25. Similar to the coordinate conversion unit 26, the coordinate conversion unit 55 converts the two-dimensional coordinate data stored in the storage unit 41 into three-dimensional coordinate data, and converts the three-dimensional coordinate data stored in the storage unit 41 into two. Convert to dimensional coordinate data. The coordinate conversion unit 55 stores the converted data in the storage unit 41.
  • the terminal device 6 includes a communication unit 60, a processing unit 61, an input unit 62, and a display unit 63.
  • the processing unit 61 includes a request processing unit 70, a display processing unit 71, and an output processing unit 72.
  • the request processing unit 70 requests the data corresponding to the specific operation to the transformation server 4D via the communication unit 60.
  • the request processing unit 70 acquires data according to a request from the transformation server 4D via the communication unit 60.
  • the display processing unit 71 causes the display unit 63 to display the data acquired by the request processing unit 70.
  • the data displayed by the display processing unit 71 is the same as the data displayed by the display processing unit 27.
  • the terminal device 6 can display the same data as the step detection device 2 on the display unit 63.
  • the output processing unit 72 transmits the attribute information of the step input by the input unit 62 from the communication unit 60 to the transformation server 4D. As a result, the attribute information of the step is added to the step data by the transformation server 4D.
  • the processing load of the terminal device 6 can be reduced.
  • FIG. 24 is a diagram showing a fourth configuration example of the deformation detection system according to the third embodiment.
  • the deformation detection system 100E shown in FIG. 24 includes a traveling type measuring device 1, a deformation server 4E, a terminal device 6, and a data server 7.
  • the deformation detection system 100E differs from the deformation detection system 100D in that the shape data Df, the three-dimensional point cloud data Dpg, the image data Dimg, and the deformation data Ddf are stored in the data server 7 instead of the deformation server 4E. ..
  • the deformation server 4E transmits / receives shape data Df, three-dimensional point cloud data Dpg, image data Dimg, and deformation data Ddf to / from the data server 7 via the network 3.
  • the deformation detection system 100E is used as a server for processing by the deformation server 4E
  • the data server 7 is used as a data server for storing data used in the deformation server 4E or the terminal device 6.
  • the deformation detection systems 100B, 100C, 100D, and 100E according to the third embodiment some or all of the plurality of functions of the step detection device 2 according to the first embodiment are distributed to the plurality of devices. I'm letting you. As a result, the degree of freedom in system design can be increased.
  • the functions of the comparison unit 28 and the statistical processing unit 29 included in the step detection device 2A according to the second embodiment can be provided in the transformation servers 4, 4C, 4D, and 4E.
  • the hardware configuration examples of the step detection devices 2B and 2C and the terminal device 6 according to the third embodiment are the same as the hardware configuration of the step detection device 2 shown in FIG.
  • the processor 101 can execute each function of the step detection devices 2B and 2C and the terminal device 6 by reading and executing the program stored in the memory 102.
  • the display device 105 is excluded from the hardware configuration of the step detection device 2 shown in FIG. It is a configuration.
  • the processor 101 can execute each function of the transformation server 4, 4C, 4D, 4E and the data server 7 by reading and executing the program stored in the memory 102.
  • the configuration shown in the above-described embodiment shows an example of the content of the present invention, can be combined with another known technique, and is one of the configurations without departing from the gist of the present invention. It is also possible to omit or change the part.

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Image Analysis (AREA)

Abstract

変状検出システム(100)は、取得部(21)と、データ変換部(22)と、段差検出部(23)と、を備える。取得部(21)は、構造物の表面を3次元点群で表すデータである3次元点群データと構造物の形状を示す形状データとを取得する。データ変換部(22)は、形状データに基づいて構造物の表面に対応する基準面を設定し、3次元点群データを、基準面に行列状に配列される複数の点から選択される1つの点の位置と基準面からのずれ量とで各々表される複数の要素点のデータを含む要素点群データへ変換する。段差検出部(23)は、要素点群データに含まれる複数の要素点に対してガウシアン差分フィルタをかけて得られる結果に基づいて、構造物の表面における段差の位置を検出する。

Description

変状検出システムおよび変状検出方法
 本発明は、構造物の表面に生じる段差を検出することができる変状検出システムおよび変状検出方法に関する。
 トンネル、橋梁、または道路などの構造物の点検を効率的に行うため、MMS(Mobile Mapping System)と呼ばれる走行型計測装置が用いられている。MMSは、走行しながら周囲の構造物をレーザスキャナ装置などで計測し、計測した結果を示すデータを生成する。かかるデータには、構造物の表面を複数の3次元点で表す3次元点群のデータである3次元点群データが含まれており、3次元点群データは構造物の点検に用いられる。構造物の点検では、例えば、構造物の表面に生じるひびまたは段差などの変状が検出される。
 例えば、特許文献1には、堤防の表面を複数の3次元点で表す3次元点群データに基づいて、堤防の表面に形成された段差を検出する技術が提案されている。特許文献1に記載の技術は、堤防の表面を表す複数の3次元点のうち、近傍空間に他の3次元点が予め定められた数以上包含される3次元点を、段差に由来する特徴点として抽出し、抽出した特徴点の位置から段差の位置を検出する。
特開2015-004588号公報
 しかしながら、特許文献1に記載の技術は、近傍空間に他の3次元点が予め定められた数以上包含されることを条件として3次元点を、段差に由来する特徴点として抽出する。そのため、構造物の表面において段差がある領域が上記条件を満たさない場合、構造物の表面に生じる段差の位置を精度よく検出することができない。
 本発明は、上記に鑑みてなされたものであって、構造物の表面を表す3次元点群から構造物の表面に生じる段差の位置を精度よく検出することができる変状検出システムを得ることを目的とする。
 上述した課題を解決し、目的を達成するために、本発明の変状検出システムは、取得部と、データ変換部と、段差検出部と、を備える。取得部は、構造物の表面を3次元点群で表すデータである3次元点群データと構造物の形状を示す形状データとを取得する。データ変換部は、形状データに基づいて構造物の表面に対応する基準面を設定し、3次元点群データを、基準面に行列状に配列される複数の点から選択される1つの点の位置と基準面からのずれ量とで各々表される複数の要素点のデータを含む要素点群データへ変換する。段差検出部は、要素点群データに含まれる複数の要素点に対してガウシアン差分フィルタをかけて得られる結果に基づいて、構造物の表面における段差の位置を検出する。
 本発明によれば、構造物の表面を表す3次元点群から構造物の表面に生じる段差の位置を精度よく検出することができる、という効果を奏する。
本発明の実施の形態1にかかる変状検出システムの構成例を示す図 実施の形態1にかかる変状検出システムによる計測処理およびデータ変換処理の流れを説明するための図 実施の形態1にかかる変状検出システムによる段差検出処理の流れを説明するための図 図1に示す段差検出装置をさらに詳細化した構成例を示す図 実施の形態1にかかるデータ変換部による3次元点群データの要素点群データへの変換方法を説明するための図 実施の形態1にかかるデータ変換部による要素点における基準面からのずれ量の第1の決定方法を説明するための図 実施の形態1にかかるデータ変換部による要素点における基準面からのずれ量の第2の決定方法を説明するための図 実施の形態1にかかるデータ変換部による要素点における基準面からのずれ量の第3の決定方法を説明するための図 実施の形態1にかかるガウシアン差分処理を説明するための図 実施の形態1にかかる段差位置検出部による段差の位置を検出する方法の一例を示す図 実施の形態1にかかる段差高検出部による段差の高さを検出する方法の一例を示す図 実施の形態1にかかるベクトル生成部による段差ベクトルを生成する方法の一例を示す図 実施の形態1にかかる変状展開図の一例を示す図 実施の形態1にかかるトンネルの内壁面を表す3次元点群に3次元の段差ベクトルを重畳した3次元画像の一例を示す図 実施の形態1にかかる段差検出装置の処理部による処理手順の一例を示すフローチャート 実施の形態1にかかる段差検出装置の処理部による段差検出処理の一例を示すフローチャート 実施の形態1にかかる段差検出装置のハードウェア構成の一例を示す図 本発明の実施の形態2にかかる変状検出システムにおける段差検出装置の構成例を示す図 実施の形態2にかかる統計処理部によって算出された結果の一例を示す図 実施の形態2にかかる段差検出装置の処理部による処理手順の一例を示すフローチャート 本発明の実施の形態3にかかる変状検出システムの第1の構成例を示す図 実施の形態3にかかる変状検出システムの第2の構成例を示す図 実施の形態3にかかる変状検出システムの第3の構成例を示す図 実施の形態3にかかる変状検出システムの第4の構成例を示す図
 以下に、本発明の実施の形態にかかる変状検出システムおよび変状検出方法を図面に基づいて詳細に説明する。なお、この実施の形態によりこの発明が限定されるものではない。
実施の形態1.
 図1は、本発明の実施の形態1にかかる変状検出システムの構成例を示す図である。図1に示すように、実施の形態1にかかる変状検出システム100は、構造物の表面を3次元点群で表す3次元点群のデータである3次元点群データDpgを生成する走行型計測装置1と、3次元点群データDpgに基づいて、構造物の表面に生じる段差を検出する段差検出装置2とを備える。以下においては、上記構造物の表面がトンネル5の内壁面5aであるものとして説明するが、構造物の表面はトンネル5の内壁面5aに限定されず、橋梁の表面、道路の表面、または建物の表面などであってもよい。
 走行型計測装置1は、不図示のレーザスキャナ装置を有しており、走行しながらレーザスキャナ装置によって得られるデータからトンネル5の内壁面5aの3次元点群データDpgを生成する。走行型計測装置1は、MMSとも呼ばれる。3次元点群データDpgには、複数の3次元点の計測データが含まれており、各3次元点の計測データには、3次元直交座標系における3次元点の位置を示すデータが含まれる。
 段差検出装置2は、通信部10と、記憶部11と、処理部12とを備える。通信部10は、ネットワーク3を介して走行型計測装置1と通信可能に接続される。ネットワーク3は、例えば、インターネットなどのWAN(Wide Area Network)である。通信部10は、走行型計測装置1からネットワーク3を介して送信される3次元点群データDpgを受信する。
 記憶部11は、トンネル5の形状データDfを記憶している。形状データDfは、例えば、トンネル5の内壁面5aの断面形状を示すデータである。内壁面5aの断面形状は、トンネル軸方向に直交する面でトンネル5の内壁を切断したと仮定した場合における内壁面5aを示す線の形状である。トンネル軸方向は、トンネル5が延伸する方向である。
 処理部12は、取得部21と、データ変換部22と、段差検出部23とを備える。取得部21は、通信部10を介して走行型計測装置1から3次元点群データDpgを取得し、記憶部11から形状データDfを取得する。データ変換部22は、取得部21によって取得された形状データDfに基づいてトンネル5の内壁面5aに対応する基準面を設定し、設定した基準面を用いて、取得部21によって取得された3次元点群データDpgを要素点群データDeへ変換する。要素点群データDeは、基準面に行列状に配列される複数の点から選択される1つの点の位置と基準面からのずれ量とで各々表される複数の要素点のデータを含む。
 基準面に行列状に配列される複数の点は、基準面に格子を形成したと仮定した場合の格子点と言え、以下、基準面に行列状に配列される複数の点の各々を格子点と記載する場合がある。行方向に隣接する2つの格子点の間隔と、列方向に隣接する2つの格子点の間隔とは同じである。また、行方向および列方向の一方は、トンネル軸方向であり、他方はトンネル周方向である。なお、トンネル周方向は、トンネル軸方向に直交する面でトンネル5の内壁面5aを切断した場合の内壁面5aを示す線に沿った方向である。
 段差検出部23は、要素点群データDeに含まれる複数の要素点に対してガウシアン差分フィルタをかけて得られる結果に基づいて、内壁面5aに生じている段差の位置を検出する。例えば、段差検出部23は、ガウシアン差分フィルタをかけた後の複数の要素点のうち隣接する2つの要素点同士を結ぶ線が基準面に交差する位置を特定し、特定した位置を内壁面5aに生じている段差の位置として検出する。
 図2は、実施の形態1にかかる変状検出システムによる計測処理およびデータ変換処理の流れを説明するための図である。図2に示すように、走行型計測装置1は、トンネル5の内壁面5aを計測し、3次元点群データDpgを生成する(ステップS1)。段差検出装置2の取得部21は、走行型計測装置1から送信される3次元点群データDpgを取得する(ステップS2)。
 段差検出装置2のデータ変換部22は、記憶部11に記憶された形状データDfに基づいてトンネル5の内壁面5aに対応する基準面Swrを設定し、取得部21で取得された3次元点群データDpgを要素点群データDeへ変換するデータ変換処理を行う(ステップS3)。要素点群データDeは、基準面Swrに行列状に配列される複数の格子点Pgから選択される1つの格子点Pgの位置と基準面Swrからのずれ量とで各々表される複数の要素点Peのデータを含むデータである。基準面Swrは、形状データDfに基づいて得られるトンネル5の内壁面5aを示す面である。基準面Swrは、トンネル5の内壁面5aに凹凸がないと仮定した場合のトンネル5の内壁面5aであり、仮想的な面である。
 図2において、要素点群データDeを表す図では、要素点Peの位置を分かりやすくするために、トンネル軸方向で隣接する要素点Pe間とトンネル周方向で隣接する要素点Pe間とが各々破線で接続されている。また、図2に示す基準面Swrは、トンネル軸方向における位置とトンネル周方向における位置と基準面Swrからのずれ量とを各々異なる軸とする直交座標系である展開図座標系の平面へ変換された後の基準面である。以下においては、説明の便宜上、展開図座標系へ変換前の基準面Swrを基準面Swr’と記載する場合がある。
 ステップS3において、データ変換部22は、3次元点群データDpgに含まれる各3次元点の基準面Swr’に対する位置を算出する。算出される3次元点の位置は、トンネル軸方向の位置とトンネル周方向の位置と基準面Swr’からのずれ量とで表される。トンネル軸方向の位置およびトンネル周方向の位置は、基準面Swr’上の位置である。また、基準面Swr’からのずれ量は、基準面Swr’からの距離で大きさが表され、基準面Swr’と直交する方向であって基準面Swr’から見た方向が極性として表される。
 次に、データ変換部22は、基準面Swr’に対する各3次元点の位置と、展開図座標系へ変換後の基準面Swrに行列状に配列される複数の格子点Pgとに基づいて、3次元点群データDpgを展開図座標系の要素点群データDeへ変換する。
 例えば、データ変換部22は、3次元点群データDpgを展開図座標系のデータである展開図点群データDpg1へ変換する。データ変換部22は、3次元点群データDpgに含まれる各3次元点のトンネル周方向の位置を、展開図座標系においてトンネル周方向を示す一つの軸上の位置へ変換することによって、3次元点群データDpgを展開図点群データDpg1へ変換する。
 データ変換部22は、展開図点群データDpg1に含まれる複数の3次元点のうちトンネル軸方向における位置とトンネル周方向における位置とが1つの格子点Pgの位置から予め定められた範囲内にある1つ以上の3次元点を1つの格子点Pgに割り当てる。データ変換部22は、割り当てた1つの格子点Pgのトンネル軸方向における位置とトンネル周方向における位置とを、要素点Peのトンネル軸方向における位置とトンネル周方向における位置に決定する。
 また、データ変換部22は、1つの格子点Pgに割り当てられた1つ以上の3次元点の基準面Swrからのずれ量から、要素点Peにおける基準面Swrからのずれ量を算出する。例えば、データ変換部22は、1つの格子点Pgに割り当てられた1つ以上の3次元点の基準面Swrからのずれ量を平均化して得られる値を要素点Peにおける基準面Swrからのずれ量にすることができる。
 データ変換部22は、このように1つ以上の3次元点を1つの格子点Pgに割り当てて要素点Peを算出する処理を格子点Pg毎に行うことで、展開図点群データDpg1を要素点群データDeへ変換する。
 図3は、実施の形態1にかかる変状検出システムによる段差検出処理の流れを説明するための図である。図3において、要素点群データDeを表す図では、図2に示す要素点群データDeと同様に、要素点Peの位置を分かりやすくするために、要素点Pe間が破線で接続されている。
 図3に示すように、段差検出部23は、データ変換部22によって変換された要素点群データDeに含まれる複数の要素点Peに対してガウシアン差分フィルタをかける処理であるガウシアン差分処理を行う。ガウシアン差分フィルタは、DoG(Difference of Gaussian)とも呼ばれる。ガウシアン差分処理には、第1フィルタ処理(ステップS4)と、第2フィルタ処理(ステップS5)と、差分演算処理(ステップS6)とが含まれる。
 段差検出部23は、ステップS4の第1フィルタ処理として、要素点群データDeに含まれる複数の要素点Peに対して第1ガウシアンフィルタをかける処理を行う。また、段差検出部23は、ステップS5の第2フィルタ処理として、要素点群データDeに含まれる複数の要素点Peに対して第2ガウシアンフィルタをかける処理を行う。第1ガウシアンフィルタおよび第2ガウシアンフィルタによって基準面Swrからの要素点Peのずれ量に対する平滑化処理が行われる。
 第1ガウシアンフィルタと第2ガウシアンフィルタとは、互いに特性が異なるガウシアンフィルタであり、少なくとも一部のパラメータの値が互いに異なる。段差検出部23は、ステップS6の差分演算処理において、第1フィルタ処理を行って得られる第1ガウシアンフィルタの出力と第2フィルタ処理を行って得られる第2ガウシアンフィルタの出力との差分を算出する。
 複数の要素点Peに対してガウシアン差分フィルタをかけることで、複数の要素点Peの各々の基準面Swrからのずれ量の差分がガウシアン差分フィルタから出力される。基準面Swrからのずれ量の差分は、要素点Peにおける基準面Swrからのずれ量に対して第1ガウシアンフィルタをかけて得られる基準面Swrからのずれ量と、要素点Peにおける基準面Swrからのずれ量に対して第2ガウシアンフィルタをかけて得られる基準面Swrからのずれ量との差分である。
 基準面Swrからのずれ量の差分は、例えば、要素点Peに対して第2ガウシアンフィルタをかけて得られる基準面Swrからのずれ量から要素点Peに対して第1ガウシアンフィルタをかけて得られる基準面Swrからのずれ量を減算して得られる。ガウシアン差分フィルタをかけた後の要素点Peの位置は、トンネル軸方向の位置と、トンネル周方向の位置と、基準面Swrからのずれ量の差分とで表される。
 次に、段差検出部23は、要素点群データDeの複数の要素点Peに対してガウシアン差分フィルタをかけて得られる結果に基づいて、段差の位置を検出する(ステップS7)。ステップS7において、段差検出部23は、差分演算処理の結果として得られる要素点Pe毎の基準面Swrからのずれ量の差分に基づいて、零交差が生じる位置を特定する。零交差が生じる位置は、基準面Swrからのずれ量の差分が零になる位置であり、トンネル軸方向の位置とトンネル周方向の位置とで表される。
 具体的には、段差検出部23は、トンネル軸方向の位置とトンネル周方向の位置と基準面Swrからのずれ量の差分とを各々異なる軸とする直交座標系で要素点Peを扱う。段差検出部23は、トンネル軸方向またはトンネル周方向で隣接し且つガウシアン差分フィルタをかけて得られる基準面Swrからのずれ量の差分値の極性が異なる2つの要素点Pe同士を結ぶ線が零交差する位置である零交差点を特定する。零交差点は、トンネル軸方向の位置とトンネル周方向の位置とで表される。段差検出部23は、零交差点の位置をトンネル5の内壁面5aに生じている段差の位置として検出する。
 走行型計測装置1がトンネル5内を走行しながらトンネル5の内壁面5aをレーザスキャナ装置で計測する場合、トンネル5の内壁面5aに対して走行型計測装置1のレーザスキャナ装置からのレーザが正対して照射される。そのため、トンネル5の内壁面5aに生じる段差に対してレーザの照射方向が平行になり、走行型計測装置1の計測によって得られるトンネル5の3次元点群において段差による3次元点の疎密差が現われにくい。また、トンネル5の内壁面5aにおける段差は、浮きまたは剥離に伴う段差でありその高さは相対的に低いことから、このことからも、トンネル5の内壁面5aを表す3次元点群に段差による3次元点の疎密差が生じにくい。
 段差検出装置2の処理部12は、複数の要素点Peに対してガウシアン差分フィルタをかけて得られる結果に基づいて、トンネル5の内壁面5aにおける段差の位置を検出する。そのため、処理部12は、トンネル5の内壁面5aを表す3次元点群において段差による3次元点の疎密差が少ない場合であっても、トンネル5の内壁面5aに生じる段差の位置を精度よく検出することができる。
 また、トンネル軸方向およびトンネル周方向の各々で要素点Peは等間隔に配置され、各要素点Peに対して1以上の3次元点が割り当てられる。そのため、複数の要素点Peがトンネル軸方向およびトンネル周方向の各々で等間隔に配置される。これにより、処理部12は、トンネル5の内壁面5aの全体に亘って段差を同じ精度で検出することができる。
 また、処理部12は、複数の3次元点を一つの要素点Peに割り当てることができるため、3次元点群データDpgで表される3次元点群に含まれる3次元点の数に比べ、要素点群データDeで表される要素点群に含まれる要素点Peの数を減らすことができる。そのため、ガウシアン差分フィルタの処理における処理部12の負荷を軽減することができる。
 以下、実施の形態1にかかる変状検出システム100についてさらに詳細に説明する。図1に示す走行型計測装置1は、レーザスキャナ装置に加え、2次元画像を撮像する撮像部を有しており、走行しながら撮像部によって得られる撮像データからトンネル5の内壁面5aの画像データDimgを生成する。画像データDimgは、撮像部によって撮像された画像である撮像画像を繋ぎ合せて得られるトンネル5の内壁面5aの全体画像を示すデータである。
 走行型計測装置1は、トンネル5の内壁面5aを定期的に計測し、計測を行う毎に3次元点群データDpgと画像データDimgを生成する。走行型計測装置1は、トンネル5の内壁面5aを計測する毎に、3次元点群データDpgと画像データDimgを段差検出装置2へネットワーク3を介して送信する。なお、3次元点群データDpgと画像データDimgとには各々走行型計測装置1によって計測された時刻である計測時刻の情報が含まれる。
 次に、段差検出装置2の構成についてさらに具体的に説明する。図4は、図1に示す段差検出装置をさらに詳細化した構成例を示す図である。図4に示すように、段差検出装置2は、図1に示す段差検出装置2の構成に加え、入力部13と、表示部14とを備える。
 通信部10は、図1に示す走行型計測装置1によって生成されたデータをネットワーク3経由で受信する。具体的には、通信部10は、走行型計測装置1からネットワーク3経由で3次元点群データDpgと画像データDimgを受信する。
 記憶部11は、形状データDfと、3次元点群データDpgと、画像データDimgと、変状データDdfとを記憶する。形状データDfは、トンネル5の断面形状を示すデータである。形状データDfは、設計図から得られる内壁面5aの断面形状のデータに代えて、3次元点群データDpgから得られる内壁面5aの断面形状のデータであってもよい。
 処理部12は、例えば、3次元点群データDpgで示される内壁面5aの3次元点群に柱体を当てはめて内壁面5aの断面形状を推定することによって形状データDfを生成することができる。また、処理部12は、3次元点群データDpgに含まれる複数の3次元点のうちトンネル軸方向に直交する面である直交面から設定された距離内にある複数の3次元点を直交面に投影し、投影した複数の点を曲線近似することによって形状データDfを生成することもできる。
 また、形状データDfは、トンネル5の内壁面5aの全体形状を示すデータであってもよい。処理部12は、例えば、3次元点群データDpgで示される内壁面5aの3次元点群に柱体を当てはめて内壁面5aの全体形状を推定することによって形状データDfを生成することができる。
 3次元点群データDpgおよび画像データDimgは、上述したように、走行型計測装置1によって生成され通信部10で受信されるデータであり、上述した時刻情報を含む。
 変状データDdfは、内壁面5aに生じた変状の種別、範囲、および時刻などを示すデータを含む。変状の種別には、亀裂、段差、剥離、および漏水などがある。変状の範囲は、内壁面5aにおける変状の範囲であり、例えば、基準面Swr’における範囲または基準面Swrにおける範囲である。変状の時刻は、変状が検出された時刻であり、例えば、変状が検出された3次元点群データDpgに含まれる時刻情報で示される時刻である。
 処理部12は、取得部21と、データ変換部22と、段差検出部23と、段差評価部24と、属性設定部25と、座標変換部26と、表示処理部27とを備える。取得部21は、走行型計測装置1からネットワーク3を介して3次元点群データDpgおよび画像データDimgを取得し、取得した3次元点群データDpgおよび画像データDimgを記憶部11に記憶させる。なお、取得部21は、3次元点群データDpgおよび画像データDimgが記録された不図示の記録媒体から3次元点群データDpgおよび画像データDimgを取得することもできる。
 データ変換部22は、形状データDfに基づいて内壁面5aに対応する基準面Swrを設定し、3次元点群データDpgを要素点群データDeへ変換する。要素点群データDeは、上述したように、基準面Swrに行列状に配列される複数の格子点Pgから選択される1つの格子点Pgの位置と基準面Swrからのずれ量とで各々表される複数の要素点Peのデータを含む。なお、データ変換部22は、3次元点群データDpgから形状データDfを生成する上述した処理を行うことができる。
 図5は、実施の形態1にかかるデータ変換部による3次元点群データの要素点群データへの変換方法を説明するための図である。図6は、実施の形態1にかかるデータ変換部による要素点における基準面からのずれ量の第1の決定方法を説明するための図である。図7は、実施の形態1にかかるデータ変換部による要素点における基準面からのずれ量の第2の決定方法を説明するための図である。図8は、実施の形態1にかかるデータ変換部による要素点における基準面からのずれ量の第3の決定方法を説明するための図である。
 データ変換部22は、形状データDfに基づいて、図5に示すトンネル5の内壁面5aの全体形状を特定する。例えば、データ変換部22は、内壁面5aの断面形状をトンネル軸方向に連続させることで内壁面5aの全体形状を特定する。また、データ変換部22は、形状データDfが内壁面5aの全体形状を示す3次元データである場合、形状データDfに含まれる3次元データから内壁面5aの全体形状を特定することができる。
 そして、データ変換部22は、特定した内壁面5aの全体形状を基準面Swr’に設定する。データ変換部22は、3次元点群データDpgに含まれる各3次元点を基準面Swr’に直交する方向から基準面Swr’へ投影する。データ変換部22は、基準面Swr’に投影された各3次元点の基準面Swr’上の位置と、投影前の各3次元点の基準面Swr’からのずれ量とを算出する。基準面Swr’からのずれ量の大きさは3次元点における基準面Swr’からの距離を表し、基準面Swr’からのずれ量の極性は基準面Swr’と直交する方向であって基準面Swr’から見た方向を表す。
 次に、データ変換部22は、各3次元点における投影後の基準面Swr’上の位置と投影前の基準面Swr’からのずれ量に基づいて、3次元点群データDpgを展開図座標系のデータである展開図点群データDpg1へ変換する。展開図座標系は、トンネル軸方向における位置とトンネル周方向における位置と基準面Swrからのずれ量とを各々異なる軸とする直交座標系である。展開図点群データDpg1は、トンネル軸方向における位置と、トンネル周方向における位置と、基準面Swrからのずれ量とで各々表される複数の3次元点のデータを含む。
 データ変換部22は、3次元点の投影後の基準面Swr’上の位置を3次元点の基準面Swr上の位置へ変換し、投影前の基準面Swr’からのずれ量を基準面Swrからのずれ量とすることで、3次元点群データDpgを展開図点群データDpg1へ変換する。基準面Swrからのずれ量の大きさは3次元点における基準面Swrからの距離を表し、基準面Swrからのずれ量の極性は基準面Swrと直交する方向であって基準面Swrから見た方向を表す。
 次に、データ変換部22は、展開図点群データDpg1に含まれる複数の3次元点のうちトンネル軸方向における位置とトンネル周方向における位置とが1つの格子点Pgの位置から予め定められた範囲内にある1つ以上の3次元点を1つの格子点Pgに割り当てる。データ変換部22は、割り当てた1つの格子点Pgのトンネル軸方向における位置とトンネル周方向における位置とを、要素点Peのトンネル軸方向における位置とトンネル周方向における位置に設定する。
 また、データ変換部22は、1つの格子点Pgに割り当てられた1つ以上の3次元点の基準面Swrからのずれ量から、要素点Peの基準面Swrからのずれ量を決定する。例えば、図6に示すように、データ変換部22は、格子点Pgに最も近い3次元点の基準面Swrからのずれ量を、要素点Peの基準面Swrからのずれ量に決定することができる。格子点Pgに最も近い3次元点は、格子点Pgとの直線距離が最も短い3次元点である。
 また、図7に示すように、データ変換部22は、格子点Pgから予め定められた範囲内にある3次元点の基準面Swrからのずれ量を平均して得られる値を、要素点Peの基準面Swrからのずれ量に決定することができる。図7に示す例では、格子点Pgから予め定められた範囲内にある格子点Pgにハッチングが付されている。図7に示すように、格子点Pgから予め定められた範囲内には7つの3次元点が存在するため、これらの7つの3次元点の基準面Swrからのずれ量の平均値が、要素点Peの基準面Swrからのずれ量に決定される。
 また、図8に示すように、データ変換部22は、格子点Pgから予め定められた範囲内にある複数の3次元点を基準面Swrに直交する方向に並べた場合に、並び順の真ん中に位置する3次元点の値を、要素点Peの基準面Swrからのずれ量に決定することができる。図8に示す例では、格子点Pgから予め定められた範囲内にある格子点Pgにハッチングが付されている。図8に示すように、格子点Pgから予め定められた範囲内には7つの3次元点が存在し、7つの3次元点を基準面Swrに直交する方向に並べた場合に、並び順の4番目の位置になる3次元点の基準面Swrからのずれ量が、要素点Peの基準面Swrからのずれ量に決定される。
 データ変換部22は、このように1つ以上の3次元点を1つの格子点Pgに割り当てて要素点Peを算出する処理を、格子点Pg毎に行うことで、展開図点群データDpg1を要素点群データDeへ変換する。なお、データ変換部22は、例えば、3次元点群データDpgから展開図点群データDpg1への変換を行わずに、3次元点群データDpgから要素点群データDeへ直接変換する構成であってもよい。
 データ変換部22は、基準面Swr’上に複数の格子点Pgを配置することもできる。この場合、データ変換部22は、基準面Swr’上に1つ以上の3次元点を1つの格子点Pgに割り当てる処理を格子点Pg毎に行った後、展開図座標系のデータへ変換することで、要素点群データDeを生成する。
 図4に戻って、処理部12の説明を続ける。処理部12の段差検出部23は、データ変換部22によって変換された要素点群データDeに対してガウシアン差分フィルタをかける処理であるガウシアン差分処理を行う。図9は、実施の形態1にかかるガウシアン差分処理を説明するための図である。なお、図9においてステップ関数を示す図以外の図は、y軸を省略している。
 ガウシアン差分フィルタは、下記式(1)に示すガウス関数を用いた2つの異なる第1ガウシアンフィルタおよび第2ガウシアンフィルタの各々の出力間の差分を出力するフィルタである。下記式(1)において、「x」は、xy座標系におけるx軸の座標であり、「y」は、xy座標系におけるy軸の座標であり、「σ」は、パラメータである。
Figure JPOXMLDOC01-appb-M000001
 ここで、トンネル5の内壁面5aに生じる段差が下記式(2)に示すステップ関数s(x,y)で表されるとする。下記式(2)において、「a」は、ステップの大きさ、すなわち、段差の高さを示す。下記式(2)に示すステップ関数s(x,y)は、図9のように表される。また、下記式(2)において、x軸の座標が零である位置をエッジの位置としており、x軸の座標が零である位置が段差の位置である。x座標は、要素点Peにおけるトンネル軸方向の位置およびトンネル周方向の位置のうち一方の位置を示し、y座標は、要素点Peにおけるトンネル軸方向の位置およびトンネル周方向の位置のうち他方の位置を示す。以下においては、x座標がトンネル軸方向の位置であり、y座標がトンネル周方向の位置であるものとして説明する。
Figure JPOXMLDOC01-appb-M000002
 第1ガウシアンフィルタは、下記式(3)のように表される。下記式(3)において、「Sσ1(x,y)」は、xy座標系における任意の位置における第1ガウシアンフィルタの出力を示す。
Figure JPOXMLDOC01-appb-M000003
 上記式(3)において、「*」はコンボリューションであり、「σ」は第1ガウシアンフィルタのパラメータであり、「u」は、注目点になる要素点Pe以外の要素点Peにおけるトンネル軸方向の位置である。また、上記式(3)において、「v」は、注目点になる要素点Pe以外の要素点Peにおけるトンネル周方向の位置であり、「a」は、上記式(2)に示すステップ関数s(x,y)のステップの大きさである。
 第2ガウシアンフィルタは、下記式(4)のように表される。下記式(4)において「Sσ2(x,y)」は、xy座標系における任意の位置における第2ガウシアンフィルタの出力を示し、「σ」は第2ガウシアンフィルタのパラメータである。第1ガウシアンフィルタと第2ガウシアンフィルタとはパラメータの値が互いに異なるため、図9に示すように、第1ガウシアンフィルタの特性と第2ガウシアンフィルタの特性とは互いに異なる。図9に示す例では、σ>σである。また、図9において第1ガウシアンフィルタの特性を示す図は、横軸がx軸の座標を示し、縦軸が第1ガウシアンフィルタの出力を示す。また、図9において第2ガウシアンフィルタの特性を示す図は、横軸がx軸の座標を示し、縦軸が第2ガウシアンフィルタの出力を示す。
Figure JPOXMLDOC01-appb-M000004
 そして、ガウシアン差分フィルタは、下記式(5)のように表される。下記式(5)において、「H(x,y)」は、ガウシアン差分フィルタの出力を示す。下記式(5)および図9に示すように、ガウシアン差分フィルタの特性は、ステップ関数s(x,y)の演算結果が「a」に変化する位置、すなわちx=0である場合に、零交差する。段差位置は、上述したようにx=0の位置であるため、段差検出部23は、零交差が生じる位置を段差の位置として検出する。図9においてガウシアン差分フィルタの特性を示す図は、横軸がx軸の座標を示し、縦軸がガウシアン差分フィルタの出力を示す。
Figure JPOXMLDOC01-appb-M000005
 図4に示すように、段差検出部23は、段差位置検出部31と、段差高検出部32と、ベクトル生成部33とを備える。段差検出部23の段差位置検出部31は、要素点群データDeに対して上記式(5)で示されるガウシアン差分フィルタの演算を行う。具体的には、段差位置検出部31は、要素点群データDeに含まれる各要素点Peに対して、上記式(5)の演算を行う。そして、段差位置検出部31は、ガウシアン差分フィルタの出力に基づいて、零交差が生じる位置を段差の位置として決定する。
 また、図9に示されるガウシアン差分フィルタの特性を示す曲線において零交差が生じる位置での傾き∇H(x,y)は、下記式(6)の演算によって求めることができる。下記式(6)において、零交差が生じる位置をx=0とした場合、下記式(7)のように表される。
Figure JPOXMLDOC01-appb-M000006
Figure JPOXMLDOC01-appb-M000007
 そして、∇H(0,y)の絶対値は、下記式(8)のように表すことができる。下記式(8)へ∇H(0,y)の絶対値、「σ」の値、および「σ」の値を代入することによって、段差の高さである「a」を算出することができる。
Figure JPOXMLDOC01-appb-M000008
 図10は、実施の形態1にかかる段差位置検出部による段差の位置を検出する方法の一例を示す図である。図10では、ガウシアン差分フィルタをかけた後の4つの要素点Peの位置が黒丸で示されている。図10に示す要素点Peの位置は、トンネル軸方向の位置とトンネル周方向の位置と基準面Swrからのずれ量の差分とを各々異なる軸とする直交座標系の位置である。基準面Swrからのずれ量の差分は、上述したように、要素点Peに対して第1ガウシアンフィルタをかけて得られる基準面Swrからのずれ量と、要素点Peに対して第2ガウシアンフィルタをかけて得られる基準面Swrからのずれ量との差分である。
 図10に示す「H(x,y)」、「H(xn+1,y)」、「H(x,yn+1)」、および「H(xn+1,yn+1)」は、4つの要素点Peに対してガウシアン差分フィルタをかけて得られる基準面Swrからのずれ量の差分を示す。nは整数である。具体的には、「H(x,y)」は、トンネル軸方向の位置が「x」であり且つトンネル周方向の位置が「y」である要素点Pe(x,y)に対してガウシアン差分フィルタをかけて得られる基準面Swrからのずれ量の差分である。「H(xn+1,y)」は、トンネル軸方向の位置が「xn+1」であり且つトンネル周方向の位置が「y」である要素点Pe(xn+1,y)に対してガウシアン差分フィルタをかけて得られる基準面Swrからのずれ量の差分である。
 「H(x,yn+1)」は、トンネル軸方向の位置が「x」であり且つトンネル周方向の位置が「yn+1」である要素点Pe(x,yn+1)に対してガウシアン差分フィルタをかけて得られる基準面Swrからのずれ量の差分である。「H(xn+1,yn+1)」は、トンネル軸方向の位置が「xn+1」であり且つトンネル周方向の位置が「yn+1」である要素点Pe(xn+1,yn+1)に対してガウシアン差分フィルタをかけて得られる基準面Swrからのずれ量の差分である。「x」と「xn+1」とは、トンネル軸方向の位置が隣接する2つ要素点Peの位置を示し、「y」と「yn+1」とは、トンネル周方向の位置が隣接する2つ要素点Peの位置を示す。
 段差位置検出部31は、ガウシアン差分フィルタをかけて得られる複数の要素点Peのうちトンネル軸方向の位置が隣接する2つの要素点Pe同士を結ぶ線が零交差する位置である零交差点を判定する。例えば、段差位置検出部31は、トンネル軸方向の位置が隣接する要素点Pe(x,y)と要素点Pe(xn+1,y)とで基準面Swrからのずれ量の差分の極性が異なるか否かを判定する。すなわち、段差位置検出部31は、「H(x,y)」と「H(xn+1,y)」とで極性が異なるか否かを判定する。段差位置検出部31は、要素点Pe(x,y)における「H(x,y)」と要素点Pe(xn+1,y)における「H(xn+1,y)」とで極性が異なると判定した場合、要素点Pe(x,y)と要素点Pe(xn+1,y)を内分して零交差点を求める。例えば、下記式(9)の演算によって、トンネル軸方向において零交差が生じる位置である零交差点の位置xを算出することができる。
Figure JPOXMLDOC01-appb-M000009
 また、段差位置検出部31は、ガウシアン差分フィルタをかけて得られる複数の要素点Peのうちトンネル周方向の位置が隣接する2つの要素点Pe同士を結ぶ線が零交差する位置である零交差点を判定する。例えば、段差位置検出部31は、トンネル周方向の位置が隣接する要素点Pe(x,y)と要素点Pe(x,yn+1)とで基準面Swrからのずれ量の差分の極性が異なるか否かを判定する。すなわち、段差位置検出部31は、「H(x,y)」と「H(x,yn+1)」とで極性が異なるか否かを判定する。段差位置検出部31は、要素点Pe(x,y)における「H(x,y)」と要素点Pe(x,yn+1)における「H(x,yn+1)」とで極性が異なると判定した場合、要素点Pe(x,y)と要素点Pe(x,yn+1)を内分して零交差点を求める。例えば、下記式(10)の演算によって、トンネル周方向において零交差が生じる位置である零交差点の位置yを算出することができる。
Figure JPOXMLDOC01-appb-M000010
 なお、段差位置検出部31は、基準面Swrからのずれ量の差分の極性が異なる2つの要素点Peのうち基準面Swrからのずれ量の差分の絶対値が小さい要素点Peの位置を段差の位置として検出することができる。このように、段差位置検出部31は、零交差点に近い位置を段差の位置として検出することもできる。
 次に、図4に示す段差高検出部32について説明する。段差高検出部32は、内壁面5aに生じる段差の高さを検出する。図11は、実施の形態1にかかる段差高検出部による段差の高さを検出する方法の一例を示す図である。なお、図11では、図10と同様にガウシアン差分フィルタをかけた後の4つの要素点Peの位置が黒丸で示されている。
 段差高検出部32は、ガウシアン差分フィルタの出力H(x,y)における零交差点での傾き∇H(x,y)を求める。段差高検出部32は、零交差点での傾き∇H(x,y)に基づいて、段差の高さを算出する。
 図11に示す例では、段差高検出部32は、零交差点P(x,y)および零交差点P(xn+1,y)での傾き∇H(x,y)を、零交差点P(x,y)と零交差点P(xn+1,y)とを結んで得られる後述の段差ベクトル毎に算出する。例えば、段差高検出部32は、零交差点P(x,y)および零交差点P(xn+1,y)での傾き∇H(x,y)として、要素点Pe(x,y)、要素点Pe(xn+1,y)、および要素点Pe(xn+1,yn+1)とを含む面の零平面に対する傾きを求める。零平面は、ガウシアン差分フィルタの出力H(x,y)が零になる面である。
 また、段差高検出部32は、零交差点P(x,y)および零交差点P(xn+1,y)での傾き∇H(x,y)として、要素点Pe(x,y)、要素点Pe(xn+1,y)、要素点Pe(xn+1,yn+1)、および要素点Pe(xn+1,yn+1)とを含む面の零平面に対する傾きを求めることもできる。
 このように、段差高検出部32は、ガウシアン差分フィルタをかけた後の複数の要素点Peのうち隣接する3以上の要素点Peであって少なくとも1つの要素点Peと他の且つ残りの要素点Peとでガウシアン差分フィルタをかけて得られる値の極性が異なる3以上の要素点Peを含む面の傾きを傾き∇H(x,y)として、段差の高さを検出する。
 また、段差高検出部32は、ガウシアン差分フィルタをかけて得られる値であるガウシアン差分フィルタの出力H(x,y)の極性が異なる2つの要素点Pe同士を結ぶ線の零平面に対する傾きを傾き∇H(x,y)として段差の高さを検出することができる。図11に示す例では、段差高検出部32は、零交差点P(x,y)での傾き∇H(x,y)として、要素点Pe(x,y)と要素点Pe(xn+1,y)とを結ぶ線の零平面に対する傾きを傾き∇H(x,y)として求めることができる。
 また、図11に示す例では、段差高検出部32は、零交差点P(xn+1,y)での傾き∇H(x,y)として、要素点Pe(xn+1,y)と要素点Pe(xn+1,yn+1)とを結ぶ線の零平面に対する傾きを傾き∇H(x,y)として求めることができる。また、段差高検出部32は、零交差点P(x,yn+1)および零交差点P(xn+1,y)での傾き∇H(x,y)として、要素点Pe(x,y)と要素点Pe(xn+1,y)とを結ぶ線の零平面に対する傾きと要素点Pe(xn+1,y)と要素点Pe(xn+1,yn+1)とを結ぶ線の零平面に対する傾きとの平均値を傾き∇H(x,y)として求めることもできる。
 そして、段差高検出部32は、下記式(11)の演算によって、段差の高さ「a」を検出する。下記式(11)は、上記式(8)に基づいて求めることができる。
Figure JPOXMLDOC01-appb-M000011
 次に、ベクトル生成部33について説明する。ベクトル生成部33は、内壁面5aに生じる段差の高さを検出する。図12は、実施の形態1にかかるベクトル生成部による段差ベクトルを生成する方法の一例を示す図である。なお、図12では、図10と同様にガウシアン差分フィルタをかけた後の4つの要素点Peの位置が黒丸で示されている。
 ベクトル生成部33は、隣接する4つの要素点Peを直線で結んで構成されるメッシュ内で、2以上の零交差点がある場合、零交差点を結ぶ線を段差ベクトルの単位ベクトルとして生成する。要素点Peがトンネル軸方向とトンネル周方向とに各々10ずつ配列されている場合、隣接する4つの要素点Peを直線で結んで構成されるメッシュの数は、81個である。ベクトル生成部33は、各メッシュに対して、2以上の零交差点がある場合に零交差点を結ぶ線を単位ベクトルとして生成する処理を行う。図12に示す例では、ベクトル生成部33は、零交差点P(x,y)と零交差点P(xn+1,y)とを結ぶ線を単位ベクトルとして生成する。
 ベクトル生成部33は、単位ベクトルを生成したメッシュに隣接するメッシュである隣接メッシュのうち零交差点を共有する隣接メッシュの単位ベクトルを、連続する単位ベクトルとして接続する。これにより、ベクトル生成部33は、連続する段差に対応する段差ベクトルを生成することができる。なお、ベクトル生成部33は、いずれの隣接メッシュにも単位ベクトルがない場合、一つの単位ベクトルを段差ベクトルとして扱う。
 ベクトル生成部33は、段差ベクトルの節を減らすことで段差ベクトルを簡略化することもできる。例えば、ベクトル生成部33は、生成した段差ベクトルをDouglas-Peucker法などを用いて、段差ベクトルの節を減らすことができる。なお、段差ベクトルの節は、段差ベクトルを構成する連続する2つの単位ベクトルが為す角が0度以外の角度である場合に零交差点の位置に形成される。
 段差検出部23は、検出した段差の位置を示す情報、検出した段差の高さを示す情報、および生成した段差ベクトルを示す情報を含む段差データを、記憶部11に記憶される変状データDdfに加えることによって、変状データDdfを更新する。また、段差検出部23は、段差の検出に用いられた3次元点群データDpgに含まれる時刻情報を段差データに追加することができる。
 図4に戻って、処理部12の説明を続ける。処理部12の段差評価部24は、段差検出部23によって検出された段差の高さおよび段差の広がりに基づいて、段差の状態をレベルで表す状態レベルを判定する。段差評価部24は、判定した段差レベルを示す情報を段差データに追加することができる。
 段差評価部24は、基準面Swr上での広がりを段差の広がりとして算出する。段差ベクトルの広がりは、例えば、段差ベクトルの長さ、および段差ベクトルが存在する2次元範囲の大きさの少なくとも一方から算出される。段差ベクトルが存在する2次元範囲の大きさは、例えば、段差ベクトルを囲むことができる最も小さい矩形の面積である。
 段差評価部24は、段差の高さと段差の広がりとをパラメータとする演算式またはテーブルを用いて、段差の状態レベルを判定することができる。状態レベルは、例えば、段差の危険度または段差の劣化度を示す。段差評価部24は、例えば、段差検出部23によって生成された段差ベクトル毎に、第1レベル、第2レベル、および第3レベルからなる3段階のレベルから1つのレベルを判定することができる。第1レベルは、例えば、段差が危険な状態でないことを示すレベルである。第2レベルは、例えば、段差が危険な状態でないが注意を要する状態であることを示すレベルである。第3レベルは、例えば、段差が危険な状態であることを示すレベルである。
 段差評価部24は、2段階のレベルから段差の状態レベルを判定することもでき、4段階以上のレベルから段差の状態レベルを判定することもできる。段差評価部24は、判定した段差の状態レベルを示す情報を段差データに追加することができる。この場合、段差データには、検出した段差の位置を示す情報、検出した段差の高さを示す情報、および生成した段差ベクトルを示す情報に加え、段差の状態レベルを示す情報が含まれる。
 属性設定部25は、段差評価部24によって算出された段差ベクトルの長さおよび段差の広がりなどの情報を段差の属性情報として記憶部11に記憶されている段差データに追加する。また、属性設定部25は、入力部13によって入力される段差の属性情報を記憶部11に記憶されている段差データを追加する。入力部13によって入力される段差の属性情報は、例えば、識別番号およびコメントなどの段差属性を示す情報である。属性設定部25は、段差データに含まれる段差ベクトルの情報に段差の属性情報を関連付ける。入力部13は、例えば、キーボードなどである。このように、属性設定部25によって段差データに段差の属性情報を含めることができる。
 座標変換部26は、記憶部11に記憶された変状データDdfの段差データに含まれる段差ベクトルの情報に基づいて、段差ベクトルを上述した展開図座標系の座標から上述した3次元直交座標系の座標へ変換する。座標変換部26は、変換した3次元直交座標系の段差ベクトルの座標を示す情報を3次元段差ベクトルデータとして記憶部11に記憶された段差データに追加することができる。これにより、段差データには、展開図座標系の段差ベクトルの情報と3次元直交座標系の段差ベクトルの情報とが含まれる。
 また、座標変換部26は、記憶部11に記憶された変状データDdfと画像データDimgに基づいて、トンネル5の画像をトンネル5の内壁面5aの形状に沿うように座標変換して、トンネル5の3次元画像を生成することもできる。また、座標変換部26は、記憶部11に記憶された3次元点群データDpgに基づいて、トンネル5の内壁面5aの3次元点群を3次元座標系から展開図座標系へ変換し、変換した3次元点群を展開図平面へ投影し、投影した複数の点を2次元点群とする2次元点群データを記憶部11に記憶させることができる。
 表示処理部27は、記憶部11に記憶された形状データDfおよび変状データDdfに基づき、基準面Swrで表される展開図に対して、段差ベクトルを示す図形と段差属性を示す情報とを付加した図である変状展開図を示す2次元画像を表示部14に表示させることができる。表示処理部27は、記憶部11に記憶された形状データDf、変状データDdf、および画像データDimgに基づいて、トンネル5の内壁面5aの撮像画像に変状展開図を示す画像を重畳した2次元画像を表示部14に表示させることができる。また、表示処理部27は、記憶部11に記憶した形状データDf、変状データDdf、および2次元点群データに基づいて、変状展開図に2次元点群を重畳した2次元画像を表示部14に表示させることもできる。
 図13は、実施の形態1にかかる変状展開図の一例を示す図である。図13に示す変状展開図80は、トンネル5の内壁面5aの外形を展開した外形枠81と、段差ベクトル82a,82b,82c,82dと、属性情報83a,83b,83c,83dを含む。段差ベクトル82a,82b,82c,82dは、段差ベクトルを示す2次元の図形である。
 属性情報83a,83b,83c,83dは、段差ベクトルの長さを示す情報である。属性情報83a,83b,83c,83dは、段差ベクトルの長さに代えてまたは加えて、入力部13から入力された識別番号およびコメントを含んでいてもよい。
 また、表示処理部27は、記憶部11に記憶された3次元点群データDpgと3次元段差ベクトルデータとに基づいて、トンネル5の内壁面5aを表す3次元点群に、3次元の段差ベクトルを重畳した3次元画像を表示部14に表示させることができる。また、表示処理部27は、3次元点群データDpgと3次元段差ベクトルデータと画像データDimgに基づいて、トンネル5の内壁面5aを表す3次元点群に、トンネル5の3次元画像と3次元の段差ベクトルとを重畳した3次元画像を表示部14に表示させることもできる。
 図14は、実施の形態1にかかるトンネルの内壁面を表す3次元点群に3次元の段差ベクトルを重畳した3次元画像の一例を示す図である。図14に示す3次元画像90は、トンネル5の内壁面5aを表す3次元点群91と、段差ベクトル92a,92b,92c,92dとを含む。段差ベクトル92a,92b,92c,92dは、段差ベクトルを示す3次元の図形である。なお、3次元画像90は、段差ベクトルの属性情報を含むこともできる。
 また、表示処理部27は、段差検出部23によって検出された段差の情報を時刻情報に基づいて時系列に表示部14に表示させることができる。例えば、表示処理部27は、段差データに含まれる時刻情報に基づいて、各時刻で検出された段差ベクトルを検出時刻の順に切り替えながら、表示部14に表示させることができる。これにより、変状検出システム100の利用者は、段差の状態変化を把握することができる。例えば、表示処理部27は、各時刻で検出された段差ベクトル82a,82b,82c,82dを検出時刻の順に切り替えながら表示部14に表示させることができる。また、表示処理部27は、各時刻で検出された段差ベクトル92a,92b,92c,92dを検出時刻の順に切り替えながら表示部14に表示させることができる。
 図15は、実施の形態1にかかる段差検出装置の処理部による処理手順の一例を示すフローチャートである。図15に示す処理は、処理部12によって繰り返し実行される。図15に示すように、段差検出装置2の処理部12は、段差検出タイミングになったか否かを判定する(ステップS10)。例えば、処理部12は、走行型計測装置1から3次元点群データDpgを取得した場合、または入力部13への特定操作があった場合に、段差検出タイミングになったと判定する。
 処理部12は、段差検出タイミングになったと判定した場合(ステップS10:Yes)、段差検出処理を行う(ステップS11)。ステップS11の段差検出処理は、図16に示すステップS20からS23の処理であり、後で詳述する。次に、処理部12は、ステップS11で検出した段差の段差ベクトルを3次元直交座標系の段差ベクトルへ変換する座標変換処理を行う(ステップS12)。また、処理部12は、ステップS11で検出した段差の高さと段差の広がりとをパラメータとする演算式またはテーブルを用いて、段差の状態レベルを判定する段差評価処理を行う(ステップS13)。
 処理部12は、ステップS13の処理が終了した場合、または段差検出タイミングになっていないと判定した場合(ステップS10:No)、属性入力があるか否かを判定する(ステップS14)。ステップS14において、処理部12は、入力部13へ段差の属性情報が入力された場合に属性入力があると判定する。処理部12は、属性入力があると判定した場合(ステップS14:Yes)、入力された属性情報を記憶部11に記憶させる(ステップS15)。
 処理部12は、ステップS15の処理が終了した場合、または属性入力がないと判定した場合(ステップS14:No)、表示要求があるか否かを判定する(ステップS16)。ステップS16において、処理部12は、例えば、入力部13への特定操作があった場合に、表示要求があると判定する。処理部12は、表示要求があると判定した場合(ステップS16:Yes)、表示要求の対象を表示部14に表示させる(ステップS17)。ステップS17において、処理部12は、表示要求が変状展開図の表示要求である場合、変状展開図を示す2次元画像を表示部14に表示させる。また、処理部12は、表示要求が時系列の表示要求である場合、段差検出部23によって検出された段差の情報を時刻情報に基づいて時系列に表示部14に表示させる。
 処理部12は、ステップS17の処理が終了した場合、または表示要求がないと判定した場合(ステップS16:No)、図15に示す処理を終了する。
 図16は、実施の形態1にかかる段差検出装置の処理部による段差検出処理の一例を示すフローチャートである。図16に示すように、段差検出装置2の処理部12は、3次元点群データDpgを要素点群データDeへ変換する(ステップS20)。次に、処理部12は、要素点群データDeをガウシアン差分フィルタにかけるガウシアン差分処理を行う(ステップS21)。処理部12は、ガウシアン差分フィルタの出力に基づいて、段差を検出する(ステップS22)。そして、処理部12は、検出した段差の情報を示す段差データを記憶部11に記憶して(ステップS23)、図16に示す処理を終了する。
 図17は、実施の形態1にかかる段差検出装置のハードウェア構成の一例を示す図である。図17に示すように、段差検出装置2は、プロセッサ101と、メモリ102と、通信装置103と、入出力回路104と、表示装置105とを備えるコンピュータを含む。
 プロセッサ101、メモリ102、通信装置103、入出力回路104、および表示装置105は、例えば、バス106によって互いにデータの送受信が可能である。通信部10は、通信装置103で実現される。記憶部11は、メモリ102によって実現される。入力部13は、入出力回路104によって実現される。表示部14は、表示装置105によって実現される。プロセッサ101は、メモリ102に記憶されたプログラムを読み出して実行することによって、取得部21、データ変換部22、段差検出部23、段差評価部24、属性設定部25、座標変換部26、および表示処理部27の機能を実行する。プロセッサ101は、例えば、処理回路の一例であり、CPU(Central Processing Unit)、DSP(Digital Signal Processer)、およびシステムLSI(Large Scale Integration)のうち一つ以上を含む。
 メモリ102は、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ、EPROM(Erasable Programmable Read Only Memory)、およびEEPROM(登録商標)(Electrically Erasable Programmable Read Only Memory)のうち一つ以上を含む。また、メモリ102は、コンピュータが読み取り可能なプログラムが記録された記録媒体を含む。かかる記録媒体は、不揮発性または揮発性の半導体メモリ、磁気ディスク、フレキシブルメモリ、光ディスク、コンパクトディスク、およびDVD(Digital Versatile Disc)のうち一つ以上を含む。なお、段差検出装置2は、ASIC(Application Specific Integrated Circuit)およびFPGA(Field Programmable Gate Array)などの集積回路を含んでいてもよい。
 なお、上述した例では、段差検出装置2の段差検出部23によって段差が検出される構造物の表面は、トンネル5の内壁面5aであるが、段差検出装置2の段差検出部23は、トンネル5の内壁面5a以外に生じる段差を検出することができる。例えば、段差検出部23は、橋梁の表面、道路の表面、およびビルの表面を検出対象として、段差を検出することができる。また、段差検出部23は、3次元点群で表される構造物の表面が平面である場合、展開図座標系へ変換することなく、3次元点群データDpgを要素点群データDeへ変換することができる。
 以上のように、実施の形態1にかかる変状検出システム100の段差検出装置2は、取得部21と、データ変換部22と、段差検出部23とを備える。取得部21はトンネル5の内壁面5aを3次元点群で表すデータである3次元点群データDpgとトンネル5の形状を示す形状データDfとを取得する。データ変換部22は、形状データDfに基づいてトンネル5の内壁面5aに対応する基準面Swrを設定し、3次元点群データDpgを、基準面Swrに行列状に配列される複数の点Pgから選択される1つの点Pgの位置と基準面Swrからのずれ量とで各々表される複数の要素点Peのデータを含む要素点群データDeへ変換する。段差検出部23は、要素点群データDeに含まれる複数の要素点Peに対してガウシアン差分フィルタをかけて得られる結果に基づいて、トンネル5の内壁面5aにおける段差の位置を検出する。トンネル5は、構造物の一例であり、トンネル5の内壁面5aは、構造物の表面の一例である。これにより、例えば、トンネル5の内壁面5aを表す3次元点群において段差による3次元点の疎密差が少ない場合であっても、トンネル5の内壁面5aに生じる段差の位置を検出することができる。
 また、段差検出部23は、ガウシアン差分フィルタをかけた後の複数の要素点Peのうち互いに隣接し且つガウシアン差分フィルタをかけて得られる値の極性が異なる2つの要素点Pe同士を結ぶ線に零交差が生じる位置を特定し、特定した位置を段差の位置として検出する。これにより、ガウシアン差分フィルタから得られる結果から、トンネル5の内壁面5aに生じる段差の位置を精度よく検出することができる。
 また、段差検出部23は、ガウシアン差分フィルタをかけた後の複数の要素点Peのうち隣接する3以上の要素点Peであって少なくとも1つの要素点Peと残りの要素点Peとでガウシアン差分フィルタをかけて得られる値の極性が異なる3以上の要素点Peを含む面の傾きに基づいて、段差の高さを検出する段差高検出部32を備える。これにより、ガウシアン差分フィルタから得られる結果から、段差の高さを検出することができる。
 また、段差検出部23は、ガウシアン差分フィルタをかけて得られる結果から隣接する2つの要素点Pe同士を結ぶ線の零交差点の位置での傾きに基づいて段差の高さを検出する段差高検出部32を備える。これにより、ガウシアン差分フィルタから得られる結果から、段差の高さを精度よく検出することができる。
 また、段差検出部23は、段差の位置を結んで得られるベクトルである段差ベクトルを生成するベクトル生成部33を備える。これにより、連続する段差を表す段差ベクトルを生成することができる。
 また、段差検出装置2は、ベクトル生成部33で生成された段差ベクトルに基づいて段差の広がりを算出し、算出した段差の広がりと段差高検出部32によって検出された段差の高さとに基づいて、段差の状態をレベルで表す状態レベルを判定する段差評価部24を備える。これにより、段差の状態を容易に把握することができる。
 また、段差検出装置2は、ベクトル生成部33によって生成された段差ベクトルを表示部14に表示させる表示処理部27を備える。これにより、段差の状態を容易に把握することができる。
 また、表示処理部27は、トンネル5の展開図および撮像画像のうち少なくとも一つに段差ベクトル82a,82b,82c,82dを重畳した画像を表示部14に表示させる。これにより、例えば、段差の内壁面5a上の位置および段差の広がりなどを容易に把握することができる。
 また、段差検出装置2は、段差ベクトル82a,82b,82c,82dを3次元座標系のデータへ変換する座標変換部26を備える。表示処理部27は、3次元座標系のデータに変換された段差ベクトル92a,92b,92c,92dを表示部14に表示させる。これにより、段差の状態を3次元で把握することができる。
 また、表示処理部27は、トンネル5の内壁面5aを表す3次元点群の画像に3次元座標系のデータに変換された段差ベクトル92a,92b,92c,92dを重畳した画像を表示部14に表示させる。これにより、段差ベクトル92a,92b,92c,92dに対応する画像によりトンネル5の内壁面5aにおける段差の位置および段差の広がりなどを容易に把握することができる。
 また、取得部21は、異なる時刻で各々トンネル5の内壁面5aを計測して得られた複数の3次元点群データDpgを取得する。複数の3次元点群データDpgは、トンネル5の内壁面5aを計測した時刻を示す時刻情報を含む。段差検出部23は、複数の3次元点群データDpgの各々から段差を検出し、検出した段差に時刻情報を関連付ける。表示処理部27は、段差検出部23によって検出された段差の情報を時刻情報に基づいて時系列に表示部14に表示させる。これにより、段差の状態を時系列に把握することができる。
実施の形態2.
 実施の形態2にかかる変状検出システムは、段差検出装置が段差の経年変化を検出すると共に段差の分布などを算出する点で、実施の形態1にかかる変状検出システム100と異なる。以下においては、実施の形態1と同様の機能を有する構成要素については同一符号を付して説明を省略し、実施の形態1の変状検出システム100と異なる点を中心に説明する。
 図18は、本発明の実施の形態2にかかる変状検出システムにおける段差検出装置の構成例を示す図である。図18に示すように、実施の形態2にかかる変状検出システムの段差検出装置2Aは、処理部12に代えて、処理部12Aを備える点で、段差検出装置2と異なる。処理部12Aは、比較部28と、統計処理部29とをさらに備える点で、処理部12と異なる。
 比較部28は、走行型計測装置1において異なる時刻で各々計測されて得られる複数の3次元点群データDpgから各々段差検出部23によって検出される複数の段差データ同士を比較する。例えば、比較部28は、走行型計測装置1において異なる時刻で各々計測されて得られる複数の3次元点群データDpgから各々段差検出部23によって検出される段差の高さ同士を比較し、段差の高さの経年変化を判定する。また、比較部28は、異なる時刻で各々計測されて得られる複数の3次元点群データDpgから各々段差検出部23によって検出される段差の広がり同士を比較し、段差の広がりの経年変化を判定する。表示処理部27は、比較部28によって判定された段差の高さの経年変化と段差の広がりの経年変化とを示す情報を表示部14に表示させることができる。
 比較部28は、例えば、前回計測された3次元点群データDpgを用いて検出される段差の高さと、今回計測された3次元点群データDpgを用いて検出される段差の高さとを比較し、高さが変化した段差を判定する。また、比較部28は、例えば、前回計測された3次元点群データDpgを用いて検出される段差の広がりと、今回計測された3次元点群データDpgを用いて検出される段差の広がりとを比較し、広がりが変化した段差を判定する。表示処理部27は、比較部28によって高さが変化したと判定された段差および比較部28によって広がりが変化したと判定された段差とを強調表示して表示部14に表示させることができる。
 比較部28は、例えば、前回計測された3次元点群データDpgを用いて検出される段差の高さと、今回計測された3次元点群データDpgを用いて検出される段差の高さとの差分を算出することができる。また、比較部28は、例えば、前回計測された3次元点群データDpgを用いて検出される段差の広がりと、今回計測された3次元点群データDpgを用いて検出される段差の広がりとの差分を算出することができる。表示処理部27は、比較部28によって算出された段差の高さの差分を示す情報および段差の広がりの差分を示す情報を表示部14に表示させることができる。表示処理部27は、比較部28によって高さが変化したと判定された段差の高さの差分および比較部28によって広がりが変化したと判定された段差の広がりの差分とを強調表示して表示部14に表示させることもできる。
 統計処理部29は、トンネル5の内壁面5aにおいて設定された領域毎に、段差ベクトルの数および長さの少なくとも1つを段差ベクトル情報として算出する統計処理を行う。例えば、統計処理部29は、トンネル5のスパンであるトンネルスパン毎に、トンネルスパンに含まれる段差ベクトルの数、トンネルスパンに含まれる段差ベクトルのトータルの長さ、トンネルスパンに含まれる段差ベクトルにおける段差の高さ、およびトンネルスパンに含まれる段差ベクトルの広がりなどを算出する。トンネルスパンに含まれる段差ベクトルにおける段差の高さは、例えば、複数の高さの段差から段差ベクトルが生成される場合、段差ベクトルの生成に用いられる複数の段差の高さの平均値、最大値、および最小値の少なくとも一つを含む。
 また、統計処理部29は、トンネルスパン毎に、段差ベクトルの分布を算出することができる。段差ベクトルの分布とは、例えば、トンネルスパンがトンネル周方向に複数の領域に区分されたと仮定した場合において区分された各領域に存在する段差ベクトルの割合を意味する。
 表示処理部27は、統計処理部29によって算出された結果を表示部14に表示させることができる。図19は、実施の形態2にかかる統計処理部によって算出された結果の一例を示す図である。図19に示すように、統計処理部29は、統計処理部29によって算出された各トンネルスパンの段差ベクトルの数を示すグラフを表示部14に表示させることができる。図19に示すグラフでは、2017年で発生した段差ベクトルの数、2018年で発生した段差ベクトルの数、および2019年で発生した段差ベクトルの数が、トンネルスパン毎に示されている。
 また、統計処理部29は、各トンネルスパンの段差ベクトルの数に代えて、各トンネルスパンの段差ベクトルのトータルの長さを示すグラフ、または各トンネルスパンの段差ベクトルの分布を示すグラフなどを表示部14に表示させることができる。
 図20は、実施の形態2にかかる段差検出装置の処理部による処理手順の一例を示すフローチャートである。図20のステップS30からS37の処理は、図15に示すステップS10からS17の処理と同じであるため、説明を省略する。図20に示す処理は、処理部12Aによって繰り返し実行される。
 図20に示すように、段差検出装置2Aの処理部12Aは、比較処理タイミングになったか否かを判定する(ステップS38)。例えば、処理部12Aは、入力部13への特定操作があった場合に、比較処理タイミングになったと判定する。処理部12Aは、比較処理タイミングになったと判定した場合(ステップS38:Yes)、異なる時刻で各々計測されて得られる複数の3次元点群データDpgから各々段差検出部23によって検出される複数の段差データ同士を比較する比較処理を行い、比較処理の結果を表示部14に表示させる表示処理を行う(ステップS39)。
 処理部12Aは、ステップS39の処理が終了した場合、または比較処理タイミングになっていないと判定した場合(ステップS38:No)、統計処理タイミングになったか否かを判定する(ステップS40)。例えば、処理部12Aは、入力部13への特定操作があった場合に、統計処理タイミングになったと判定する。処理部12Aは、統計処理タイミングになったと判定した場合(ステップS40:Yes)、段差ベクトルの数および長さの少なくとも1つをトンネル5の内壁面5aの設定された領域毎に段差ベクトル情報として算出する統計処理を行い、統計処理の結果を表示部14に表示させる表示処理を行う(ステップS41)。処理部12Aは、ステップS41の処理が終了した場合、または統計処理タイミングになっていないと判定した場合(ステップS40:No)、図20に示す処理を終了する。
 実施の形態2にかかる段差検出装置2Aのハードウェア構成例は、図17に示す段差検出装置2のハードウェア構成と同じである。プロセッサ101は、メモリ102に記憶されたプログラムを読み出して実行することによって、比較部28および統計処理部29の機能を実行することができる。
 以上のように、実施の形態2にかかる変状検出システム100Aの段差検出装置2Aは、統計処理部29を備える。統計処理部29は、段差ベクトル82a,82b,82c,82dの数および長さの少なくとも1つをトンネル5の内壁面5aのトンネルスパン毎に段差ベクトル情報として算出する。トンネルスパンは、予め定められた領域の一例である。表示処理部27は、統計処理部29で算出された段差ベクトル情報をグラフ化して表示部14に表示させる。これにより、段差の状態をトンネルスパン毎に把握することができる。
 また、段差検出装置2Aは、複数の3次元点群データDpgから各々段差検出部23によって検出される複数の段差のデータ同士を比較する比較部28を備える。これにより、例えば、段差の経年変化を把握することができる。
実施の形態3.
 実施の形態3にかかる変状検出システムは、変状サーバおよびデータサーバなどが用いられる点で、実施の形態1にかかる変状検出システム100と異なる。以下においては、実施の形態1にかかる変状検出システム100と同様の構成については同一符号を付して説明を省略し、実施の形態1にかかる変状検出システム100と異なる構成について主に説明するものとする。
 図21は、本発明の実施の形態3にかかる変状検出システムの第1の構成例を示す図である。図21に示す変状検出システム100Bは、走行型計測装置1と、段差検出装置2Bと、変状サーバ4とを備える。変状サーバ4は、通信部40と、記憶部41と、処理部42とを備える。処理部42は、走行型計測装置1からネットワーク3および通信部40を介して3次元点群データDpgおよび画像データDimgを取得し、取得した3次元点群データDpgおよび画像データDimgを記憶部41に記憶させる。記憶部41は、取得部21Bによって取得される3次元点群データDpgおよび画像データDimgの他、形状データDfと変状データDdfとを記憶する。
 段差検出装置2Bは、取得部21を有する処理部12に代えて、取得部21Bを有する処理部12Bを備える。取得部21Bは、変状サーバ4から、3次元点群データDpg、画像データDimg、形状データDf、および変状データDdfをネットワーク3および通信部10を介して取得する点で、取得部21と異なる。また、取得部21Bは、段差検出部23および段差評価部24によって生成された段差データを通信部10からネットワーク3を介して変状サーバ4へ送信する。変状サーバ4は、段差検出装置2Bから取得した段差データを記憶部41に記憶された変状データDdfへ追加して、変状データDdfを更新する。
 このように、図21に示す変状検出システム100Bでは、データ量が多い3次元点群データDpgなどが変状サーバ4に記憶される。これにより、実施の形態1にかかる段差検出装置2の記憶部11の記憶容量に比べ、段差検出装置2Bの記憶部11の記憶容量を低減することができる。
 図22は、実施の形態3にかかる変状検出システムの第2の構成例を示す図である。図22に示す変状検出システム100Cは、走行型計測装置1と、段差検出装置2Cと、変状サーバ4Cとを備える。変状サーバ4Cは、通信部40と、記憶部41と、処理部42Cとを備える。処理部42Cは、データ変換部51を備えており、上述した処理部42の機能に加え、データ変換部51によって3次元点群データDpgを要素点群データDeへ変換する機能を有する。データ変換部51の機能は、図4に示すデータ変換部22の機能と同じである。
 段差検出装置2Cは、取得部21Bを有する処理部12Bに代えて、取得部21Cを有する処理部12Cを備える。取得部21Cは、変状サーバ4Cから、3次元点群データDpgおよび形状データDfに代えて、要素点群データDeをネットワーク3および通信部10を介して取得する点で、取得部21Bと異なる。段差検出装置2Cは、段差検出装置2Bと同様に、生成した段差データを変状サーバ4Cへ送信する。
 このように、図22に示す変状検出システム100Cでは、データ量が多い3次元点群データDpgなどが変状サーバ4Cに記憶され、3次元点群データDpgが要素点群データDeへ変状サーバ4Cによって変換される。これにより、段差検出装置2Cの記憶部11の記憶容量を低減することができる。また、要素点群データDeは、3次元点群データDpgよりもデータ容量が小さいことから、変状検出システム100Cは、変状検出システム100Bに比べて、段差検出装置2Cと変状サーバ4Cとの間で通信量を削減することができる。
 図23は、実施の形態3にかかる変状検出システムの第3の構成例を示す図である。図23に示す変状検出システム100Dは、走行型計測装置1と、変状サーバ4Dと、端末装置6とを備える。変状サーバ4Dは、段差検出装置2の機能のうち表示機能および入力受付機能を除く機能が実行される。変状サーバ4Dは、データ変換部51と、段差検出部52と、段差評価部53と、属性設定部54と、座標変換部55とを備える処理部42Dを有する。
 データ変換部51は、データ変換部22と同様の機能を有しており、記憶部41に記憶された形状データDfおよび3次元点群データDpgに基づいて、3次元点群データDpgを要素点群データDeへ変換する。段差検出部52は、段差検出部23と同様に、要素点群データDeから段差を検出し、検出した段差に関する情報を含む段差データを生成する。段差検出部52は、生成した段差データを変状データDdfへ追加する。
 段差評価部53は、段差評価部24と同様に、段差の状態レベルを判定し、判定した段差レベルを示す情報を段差データに追加する。属性設定部54は、端末装置6からの要求に基づいて、属性設定部25と同様に、段差データに段差属性を示す情報を追加する。座標変換部55は、座標変換部26と同様に、記憶部41に記憶された2次元座標のデータを3次元座標のデータへ変換し、記憶部41に記憶された3次元座標のデータを2次元座標のデータへ変換する。座標変換部55は、変換したデータを記憶部41へ記憶させる。
 端末装置6は、通信部60と、処理部61と、入力部62と、表示部63とを備える。処理部61は、要求処理部70と、表示処理部71と、出力処理部72とを備える。要求処理部70は、入力部62への特定操作があった場合、特定操作に対応するデータの要求を変状サーバ4Dへ通信部60を介して行う。要求処理部70は、通信部60を介して変状サーバ4Dから要求に応じたデータを取得する。
 表示処理部71は、要求処理部70によって取得されたデータを表示部63に表示させる。表示処理部71によって表示されるデータは、表示処理部27によって表示されるデータと同じである。これにより、端末装置6は、段差検出装置2と同様のデータを表示部63に表示させることができる。また、出力処理部72は、入力部62によって入力された段差の属性情報を変状サーバ4Dへ通信部60から送信する。これにより、変状サーバ4Dによって段差の属性情報が段差データに追加される。
 このように、変状検出システム100Dでは、変状サーバ4Dによって主な処理が行われることから、端末装置6の処理負荷を軽減することができる。
 図24は、実施の形態3にかかる変状検出システムの第4の構成例を示す図である。図24に示す変状検出システム100Eは、走行型計測装置1と、変状サーバ4Eと、端末装置6と、データサーバ7を備える。変状検出システム100Eでは、形状データDf、3次元点群データDpg、画像データDimg、および変状データDdfが変状サーバ4Eではなくデータサーバ7に記憶される点で変状検出システム100Dと異なる。
 変状サーバ4Eは、ネットワーク3を介してデータサーバ7との間で、形状データDf、3次元点群データDpg、画像データDimg、および変状データDdfの送受信を行う。このように、変状検出システム100Eは、変状サーバ4Eが処理を行うサーバとして用いられ、データサーバ7が変状サーバ4Eまたは端末装置6で用いられるデータを記憶するデータサーバとして用いられる。
 以上のように、実施の形態3にかかる変状検出システム100B,100C,100D,100Eでは、実施の形態1にかかる段差検出装置2が有する複数の機能の一部または全部を複数の装置に分散させている。これにより、システム設計の自由度を高めることができる。また、同様に、実施の形態2にかかる段差検出装置2Aが有する比較部28および統計処理部29の各々の機能を変状サーバ4,4C,4D,4Eに設けることもできる。
 実施の形態3にかかる段差検出装置2B,2Cおよび端末装置6の各々のハードウェア構成例は、図17に示す段差検出装置2のハードウェア構成と同じである。プロセッサ101は、メモリ102に記憶されたプログラムを読み出して実行することによって、段差検出装置2B,2Cおよび端末装置6の各々の各機能を実行することができる。
 また、実施の形態3にかかる変状サーバ4,4C,4D,4Eおよびデータサーバ7の各々のハードウェア構成例は、図17に示す段差検出装置2のハードウェア構成のうち表示装置105を除いた構成である。プロセッサ101は、メモリ102に記憶されたプログラムを読み出して実行することによって、変状サーバ4,4C,4D,4Eおよびデータサーバ7の各々の各機能を実行することができる。
 以上の実施の形態に示した構成は、本発明の内容の一例を示すものであり、別の公知の技術と組み合わせることも可能であるし、本発明の要旨を逸脱しない範囲で、構成の一部を省略、変更することも可能である。
 1 走行型計測装置、2,2A,2B,2C 段差検出装置、3 ネットワーク、4,4C,4D,4E 変状サーバ、5 トンネル、5a 内壁面、6 端末装置、7 データサーバ、10,40,60 通信部、11,41 記憶部、12,12A,12B,12C,42,42C,42D,61 処理部、13,62 入力部、14,63 表示部、21,21B,21C 取得部、22,51 データ変換部、23,52 段差検出部、24,53 段差評価部、25,54 属性設定部、26,55 座標変換部、27,71 表示処理部、28 比較部、29 統計処理部、31 段差位置検出部、32 段差高検出部、33 ベクトル生成部、70 要求処理部、72 出力処理部、80 変状展開図、81 外形枠、82a,82b,82c,82d,92a,92b,92c,92d 段差ベクトル、83a,83b,83c,83d 属性情報、90 3次元画像、91 3次元点群、100,100A,100B,100C,100D,100E 変状検出システム。

Claims (14)

  1.  構造物の表面を3次元点群で表すデータである3次元点群データと前記構造物の形状を示す形状データとを取得する取得部と、
     前記形状データに基づいて前記構造物の表面に対応する基準面を設定し、前記3次元点群データを、前記基準面に行列状に配列される複数の点から選択される1つの点の位置と前記基準面からのずれ量とで各々表される複数の要素点のデータを含む要素点群データへ変換するデータ変換部と、
     前記要素点群データに含まれる前記複数の要素点に対してガウシアン差分フィルタをかけて得られる結果に基づいて、前記構造物の表面における段差の位置を検出する段差検出部と、を備える
     ことを特徴とする変状検出システム。
  2.  前記段差検出部は、
     前記ガウシアン差分フィルタをかけた後の前記複数の要素点のうち互いに隣接し且つ前記ガウシアン差分フィルタをかけて得られる値の極性が異なる2つの要素点同士を結ぶ線に零交差が生じる位置を特定し、特定した位置を前記段差の位置として検出する
     ことを特徴とする請求項1に記載の変状検出システム。
  3.  前記段差検出部は、
     前記ガウシアン差分フィルタをかけた後の前記複数の要素点のうち隣接する3以上の要素点であって少なくとも1つの要素点と残りの要素点とで前記ガウシアン差分フィルタをかけて得られる値の極性が異なる3以上の要素点を含む面の傾きに基づいて、前記段差の高さを検出する段差高検出部を備える
     ことを特徴とする請求項1または2に記載の変状検出システム。
  4.  前記段差検出部は、
     前記2つの要素点同士を結ぶ線の傾きに基づいて前記段差の高さを検出する段差高検出部を備える
     ことを特徴とする請求項2に記載の変状検出システム。
  5.  前記段差検出部は、
     前記段差の位置を結んで得られるベクトルである段差ベクトルを生成するベクトル生成部を備える
     ことを特徴とする請求項1から4のいずれか一つに記載の変状検出システム。
  6.  前記ベクトル生成部によって生成された前記段差ベクトルを表示部に表示させる表示処理部を備える
     ことを特徴とする請求項5に記載の変状検出システム。
  7.  前記表示処理部は、
     前記構造物の展開図および撮像画像のうち少なくとも一つに前記段差ベクトルを重畳した画像を前記表示部に表示させる
     ことを特徴とする請求項6に記載の変状検出システム。
  8.  前記段差ベクトルを3次元座標系のデータへ変換する座標変換部を備え、
     前記表示処理部は、
     前記3次元座標系のデータに変換された前記段差ベクトルを前記表示部に表示させる
     ことを特徴とする請求項6または7に記載の変状検出システム。
  9.  前記表示処理部は、
     前記構造物の表面を表す3次元点群の画像に前記3次元座標系のデータに変換された前記段差ベクトルを重畳した画像を前記表示部に表示させる
     ことを特徴とする請求項8に記載の変状検出システム。
  10.  前記段差ベクトルの数および長さの少なくとも1つを前記構造物の表面の予め定められた領域毎に段差ベクトル情報として算出する統計処理部を備え、
     前記表示処理部は、
     前記統計処理部で算出された前記段差ベクトル情報をグラフ化して前記表示部に表示させる
     ことを特徴とする請求項9に記載の変状検出システム。
  11.  前記取得部は、
     異なる時刻で各々前記構造物の表面を計測して得られた複数の3次元点群データを取得し、
     前記複数の3次元点群データは、
     前記構造物の表面を計測した時刻を示す時刻情報を含み、
     前記段差検出部は、
     前記複数の3次元点群データの各々から前記段差を検出し、検出した前記段差に前記時刻情報を関連付け、
     前記表示処理部は、
     前記段差検出部によって検出された前記段差の情報を前記時刻情報に基づいて時系列に前記表示部に表示させる
     ことを特徴とする請求項6から10のいずれか一つに記載の変状検出システム。
  12.  前記複数の3次元点群データから各々前記段差検出部によって検出される複数の前記段差のデータ同士を比較する比較部を備える
     ことを特徴とする請求項11に記載の変状検出システム。
  13.  前記段差検出部によって検出された前記段差の状態に基づいて、前記段差の状態をレベルで表す状態レベルを判定する段差評価部を備える
     ことを特徴とする請求項1から12のいずれか一つに記載の変状検出システム。
  14.  コンピュータが実行する変状検出方法であって、
     構造物の表面を3次元点群で表すデータである3次元点群データと前記構造物の形状を示す形状データとを取得する取得ステップと、
     前記形状データに基づいて前記構造物の表面に対応する基準面を設定し、前記3次元点群データを、前記基準面に行列状に配列される複数の点から選択される1つの点の位置と前記基準面からのずれ量とで各々表される複数の要素点のデータを含む要素点群データへ変換するデータ変換ステップと、
     前記要素点群データに含まれる前記複数の要素点に対してガウシアン差分フィルタをかけて得られる結果に基づいて、前記構造物の表面における段差の位置を検出する段差検出ステップと、を含む
     ことを特徴とする変状検出方法。
PCT/JP2019/035261 2019-09-06 2019-09-06 変状検出システムおよび変状検出方法 WO2021044628A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2019567758A JP6664569B1 (ja) 2019-09-06 2019-09-06 変状検出システムおよび変状検出方法
PCT/JP2019/035261 WO2021044628A1 (ja) 2019-09-06 2019-09-06 変状検出システムおよび変状検出方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/035261 WO2021044628A1 (ja) 2019-09-06 2019-09-06 変状検出システムおよび変状検出方法

Publications (1)

Publication Number Publication Date
WO2021044628A1 true WO2021044628A1 (ja) 2021-03-11

Family

ID=70000328

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/035261 WO2021044628A1 (ja) 2019-09-06 2019-09-06 変状検出システムおよび変状検出方法

Country Status (2)

Country Link
JP (1) JP6664569B1 (ja)
WO (1) WO2021044628A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023058098A1 (ja) * 2021-10-04 2023-04-13 日本電気株式会社 表示装置、表示方法及び非一時的なコンピュータ可読媒体

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113673011A (zh) * 2021-06-04 2021-11-19 浙江华东测绘与工程安全技术有限公司 基于点云数据智能识别运营期隧道侵界的方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08219734A (ja) * 1995-02-14 1996-08-30 Toshiba Corp 表面形状測定装置
JP2012037490A (ja) * 2010-08-11 2012-02-23 Pasuko:Kk データ解析装置、データ解析方法、及びプログラム
JP2012098939A (ja) * 2010-11-02 2012-05-24 Toyota Motor Corp 段差情報取得システム及び段差情報取得方法
JP2018115937A (ja) * 2017-01-17 2018-07-26 リコーエレメックス株式会社 検査システム

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08219734A (ja) * 1995-02-14 1996-08-30 Toshiba Corp 表面形状測定装置
JP2012037490A (ja) * 2010-08-11 2012-02-23 Pasuko:Kk データ解析装置、データ解析方法、及びプログラム
JP2012098939A (ja) * 2010-11-02 2012-05-24 Toyota Motor Corp 段差情報取得システム及び段差情報取得方法
JP2018115937A (ja) * 2017-01-17 2018-07-26 リコーエレメックス株式会社 検査システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023058098A1 (ja) * 2021-10-04 2023-04-13 日本電気株式会社 表示装置、表示方法及び非一時的なコンピュータ可読媒体

Also Published As

Publication number Publication date
JP6664569B1 (ja) 2020-03-13
JPWO2021044628A1 (ja) 2021-09-27

Similar Documents

Publication Publication Date Title
JP4917351B2 (ja) 3次元形状測定装置におけるキャリブレーション方法
ES2973165T3 (es) Método y dispositivo para rellenar regiones de datos de modelo de elevación de terreno
JP3910582B2 (ja) 三次元構造物形状の自動生成装置、自動生成方法、そのプログラム、及びそのプログラムを記録した記録媒体
JP6359868B2 (ja) 3次元データ表示装置、3次元データ表示方法、及び3次元データ表示プログラム
Gao et al. An approach to combine progressively captured point clouds for BIM update
JP6565037B2 (ja) 変位測定装置、変位測定方法およびそのプログラム
JP6413595B2 (ja) 画像処理装置、システム、画像処理方法およびプログラム
JP2012517652A (ja) シーン補間及び登録性能評価のための2d電子光学的画像及び3d点群データの融合
WO2021044628A1 (ja) 変状検出システムおよび変状検出方法
US20160284108A1 (en) Data quality measurement method based on a scatter plot
CN105306922A (zh) 一种深度相机参考图的获取方法和装置
CN112308969B (zh) 三维地图生成方法及装置
CN111080682A (zh) 点云数据的配准方法及装置
CN116152218A (zh) 施工质量智能检测方法及装置
JP5987114B2 (ja) 高解像度画像生成装置、高解像度画像生成方法及び高解像度画像生成プログラム
CN112348781A (zh) 一种基准面高度检测方法、装置、设备及存储介质
KR101814023B1 (ko) 유한차분격자 자료 자동 보정 장치 및 방법
JP6991700B2 (ja) 情報処理装置、情報処理方法、プログラム
KR101808958B1 (ko) 구조물 형상 정보 구축 방법 및 구조물 변형 검출 방법
JP5496033B2 (ja) 欠陥寸法測定装置、欠陥寸法測定方法、及びプログラム
JP2019164109A (ja) 計測装置、計測システム、計測方法およびプログラム
CN114897959A (zh) 基于光场多视角约束的相位展开方法及相关组件
CN113421292A (zh) 一种三维建模细节增强方法及装置
KR20160010721A (ko) 정점과 구조물이 위치하는 지점 간의 수평거리를 산출하는 장치 및 방법
JP2016192600A (ja) 情報処理装置および投影装置

Legal Events

Date Code Title Description
ENP Entry into the national phase

Ref document number: 2019567758

Country of ref document: JP

Kind code of ref document: A

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19944604

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19944604

Country of ref document: EP

Kind code of ref document: A1