JP2022184473A - Measuring device, measurement system, control method, and program - Google Patents

Measuring device, measurement system, control method, and program Download PDF

Info

Publication number
JP2022184473A
JP2022184473A JP2021092349A JP2021092349A JP2022184473A JP 2022184473 A JP2022184473 A JP 2022184473A JP 2021092349 A JP2021092349 A JP 2021092349A JP 2021092349 A JP2021092349 A JP 2021092349A JP 2022184473 A JP2022184473 A JP 2022184473A
Authority
JP
Japan
Prior art keywords
measuring device
point cloud
cloud data
sensor
master
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021092349A
Other languages
Japanese (ja)
Other versions
JP7414290B2 (en
Inventor
彰 石森
Akira Ishimori
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Platforms Ltd
Original Assignee
NEC Platforms Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Platforms Ltd filed Critical NEC Platforms Ltd
Priority to JP2021092349A priority Critical patent/JP7414290B2/en
Publication of JP2022184473A publication Critical patent/JP2022184473A/en
Application granted granted Critical
Publication of JP7414290B2 publication Critical patent/JP7414290B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Generation (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

To specify a positional relationship of respective measuring devices even without using position information acquisition services when acquiring point group data by the multiple measuring devices.SOLUTION: A measuring device 1 includes: a sensor 2 for acquiring point group data for expressing coordinates in a three-dimensional coordinate system with the measuring device 1 as a reference for multiple places on a surface of an object existing in space; a position locating part 3 for locating a position of another device having a sensor for acquiring point group data for expressing coordinates in a three-dimensional coordinate system with the another device as a reference for multiple places on the surface of the object existing in space on the basis of point group data acquired by the sensor 2 that the measuring device 1 has; and a composition processing part 4 for compositing point group data acquired by the sensor 2 of the measuring device 1 and point group data acquired by the sensor of the another device on the basis of the located position of the another device.SELECTED DRAWING: Figure 1

Description

本発明は測定装置、測定システム、制御方法、及びプログラムに関する。 The present invention relates to a measuring device, a measuring system, a control method, and a program.

近年、LiDAR(Light Detection and Ranging)に関する技術の開発及び研究が盛んに行われている。例えば、特許文献1はLiDARによってターゲットオブジェクトを検出し、かつ、自律的にトラッキングする技術について開示している。 In recent years, research and development of technology related to LiDAR (Light Detection and Ranging) has been actively carried out. For example, Patent Literature 1 discloses a technology for detecting a target object by LiDAR and autonomously tracking it.

特開2018-197747号公報JP 2018-197747 A

ところで、複数のLiDAR装置で取得した点群データを合成する際、各LiDAR装置間の相対位置情報に基づいて点群データの座標変換が行われる。このため、各LiDAR装置の相対距離は事前に計測しておく必要がある。室内等のようにGPS(Global Positioning System)などの位置情報取得サービスが使用できない環境では、各LiDAR装置の位置関係の特定が手作業による測定によって行われる場合がある。この場合、位置関係の精度及び位置関係を得るまでに要する時間が作業者に依存してしまう。 By the way, when synthesizing point cloud data acquired by a plurality of LiDAR devices, coordinate transformation of the point cloud data is performed based on relative position information between the LiDAR devices. Therefore, it is necessary to measure the relative distance of each LiDAR device in advance. In an environment where a location information acquisition service such as GPS (Global Positioning System) cannot be used, such as indoors, the positional relationship of each LiDAR device may be specified by manual measurement. In this case, the accuracy of the positional relationship and the time required to obtain the positional relationship depend on the operator.

そこで、本明細書に開示される実施形態が達成しようとする目的の1つは、複数の測定装置により点群データを取得する場合において、位置情報取得サービスを用いなくても各測定装置の位置関係を特定することができる測定装置、測定システム、制御方法、及びプログラムを提供することにある。 Therefore, one of the objects to be achieved by the embodiments disclosed in this specification is to obtain the position of each measuring device without using a position information acquisition service when acquiring point cloud data with a plurality of measuring devices. An object of the present invention is to provide a measuring device, a measuring system, a control method, and a program that can specify the relationship.

第1の態様にかかる測定装置は、
空間に存在する物体の表面の複数箇所についての前記測定装置を基準とした3次元座標系における座標を表わす点群データを取得するセンサと、
空間に存在する物体の表面の複数箇所についての他装置を基準とした3次元座標系における座標を表わす点群データを取得するセンサを備えた前記他装置の位置を、前記測定装置が備える前記センサが取得した点群データに基づいて特定する位置特定部と、
特定された前記他装置の位置に基づいて、前記測定装置の前記センサが取得した点群データと、前記他装置の前記センサが取得した点群データとを合成する合成処理部と
を有する。
A measuring device according to a first aspect includes:
a sensor that acquires point cloud data representing coordinates in a three-dimensional coordinate system with respect to the measuring device for a plurality of locations on the surface of an object existing in space;
The sensor provided in the measuring device is provided with a sensor that acquires point cloud data representing coordinates in a three-dimensional coordinate system with respect to the other device for a plurality of locations on the surface of an object existing in space. A position specifying unit that specifies based on the point cloud data acquired by
a synthesis processing unit that synthesizes the point cloud data acquired by the sensor of the measuring device and the point cloud data acquired by the sensor of the other device based on the specified position of the other device.

第2の態様にかかる測定システムは、
一つのマスター測定装置と、
一つ以上のスレーブ測定装置と
を備え、
前記スレーブ測定装置は、
空間に存在する物体の表面の複数箇所についての前記スレーブ測定装置を基準とした3次元座標系における座標を表わす点群データを取得するセンサを
有し、
前記マスター測定装置は、
空間に存在する物体の表面の複数箇所についての前記マスター測定装置を基準とした3次元座標系における座標を表わす点群データを取得するセンサと、
前記スレーブ測定装置の位置を、前記マスター測定装置が備える前記センサが取得した点群データに基づいて特定する位置特定部と、
特定された前記スレーブ測定装置の位置に基づいて、前記マスター測定装置の前記センサが取得した点群データと、前記スレーブ測定装置の前記センサが取得した点群データとを合成する合成処理部と
を有する。
A measurement system according to a second aspect includes:
one master measuring device;
one or more slave measuring devices;
The slave measuring device
a sensor that acquires point cloud data representing coordinates in a three-dimensional coordinate system with respect to the slave measuring device for a plurality of locations on the surface of an object existing in space;
The master measuring device
a sensor that acquires point cloud data representing coordinates in a three-dimensional coordinate system with respect to the master measuring device for a plurality of locations on the surface of an object existing in space;
a position specifying unit that specifies the position of the slave measuring device based on the point cloud data acquired by the sensor included in the master measuring device;
a synthesizing unit that synthesizes the point cloud data acquired by the sensor of the master measuring device and the point cloud data acquired by the sensor of the slave measuring device based on the identified position of the slave measuring device; have.

第3の態様にかかる測定装置の制御方法では、
空間に存在する物体の表面の複数箇所についての前記測定装置を基準とした3次元座標系における座標を表わす点群データを前記測定装置が備えるセンサにより取得し、
空間に存在する物体の表面の複数箇所についての他装置を基準とした3次元座標系における座標を表わす点群データを取得するセンサを備えた前記他装置の位置を、前記測定装置が備える前記センサが取得した点群データに基づいて特定し、
特定された前記他装置の位置に基づいて、前記測定装置の前記センサが取得した点群データと、前記他装置の前記センサが取得した点群データとを合成する。
In the control method of the measuring device according to the third aspect,
Acquiring point cloud data representing coordinates in a three-dimensional coordinate system with respect to the measuring device for a plurality of locations on the surface of an object existing in space by a sensor provided in the measuring device;
The sensor provided in the measuring device is provided with a sensor that acquires point cloud data representing coordinates in a three-dimensional coordinate system with respect to the other device for a plurality of locations on the surface of an object existing in space. identified based on the point cloud data acquired by
The point cloud data acquired by the sensor of the measuring device and the point cloud data acquired by the sensor of the other device are combined based on the specified position of the other device.

第4の態様にかかるプログラムは、
測定装置のコンピュータが用いるプログラムであって、
空間に存在する物体の表面の複数箇所についての前記測定装置を基準とした3次元座標系における座標を表わす点群データを前記測定装置が備えるセンサにより取得するステップと、
空間に存在する物体の表面の複数箇所についての他装置を基準とした3次元座標系における座標を表わす点群データを取得するセンサを備えた前記他装置の位置を、前記測定装置が備える前記センサが取得した点群データに基づいて特定する位置特定ステップと、
特定された前記他装置の位置に基づいて、前記測定装置の前記センサが取得した点群データと、前記他装置の前記センサが取得した点群データとを合成する合成処理ステップと
を前記コンピュータに実行させる。
A program according to a fourth aspect,
A program used by the computer of the measuring device,
a step of acquiring point cloud data representing coordinates in a three-dimensional coordinate system with respect to the measuring device for a plurality of locations on the surface of an object existing in space, using a sensor provided in the measuring device;
The sensor provided in the measuring device is provided with a sensor that acquires point cloud data representing coordinates in a three-dimensional coordinate system with respect to the other device for a plurality of locations on the surface of an object existing in space. a localization step of identifying based on the point cloud data acquired by
a synthesizing step of synthesizing the point cloud data acquired by the sensor of the measuring device and the point cloud data acquired by the sensor of the other device, based on the specified position of the other device; let it run.

上述の態様によれば、複数の測定装置により点群データを取得する場合において、位置情報取得サービスを用いなくても各測定装置の位置関係を特定することができる測定装置、測定システム、制御方法、及びプログラムを提供することができる。 According to the above aspect, when acquiring point cloud data using a plurality of measuring devices, the measuring device, the measuring system, and the control method can specify the positional relationship of each measuring device without using a location information acquisition service. , and programs can be provided.

実施の形態の概要にかかる測定装置の構成の一例を示すブロック図である。1 is a block diagram showing an example of a configuration of a measuring device according to an outline of an embodiment; FIG. 実施の形態1にかかる測定システムの構成の一例を示すブロック図である。1 is a block diagram showing an example configuration of a measurement system according to a first embodiment; FIG. マスター測定装置及びスレーブ測定装置の正面の外観を示す模式図である。It is a schematic diagram which shows the external appearance of the front of a master measuring device and a slave measuring device. マーカの設置位置について説明する模式図である。It is a schematic diagram explaining the installation position of a marker. 実施の形態1にかかるマスター測定装置の制御装置の機能的な構成の一例を示すブロック図である。2 is a block diagram showing an example of a functional configuration of a control device of the master measuring device according to Embodiment 1; FIG. 実施の形態1にかかるスレーブ測定装置の制御装置の機能的な構成の一例を示すブロック図である。3 is a block diagram showing an example of a functional configuration of a control device of the slave measuring device according to Embodiment 1; FIG. マスター測定装置の制御装置及びスレーブ測定装置の制御装置のハードウェア構成の一例を示すブロック図である。3 is a block diagram showing an example of a hardware configuration of a control device of a master measuring device and a control device of a slave measuring device; FIG. 実施の形態1にかかる測定システムの動作の一例を示すシーケンスチャートである。4 is a sequence chart showing an example of the operation of the measurement system according to the first embodiment; マスター測定装置のLiDAR装置による測定を模式的に示した図である。FIG. 4 is a diagram schematically showing measurement by the LiDAR device of the master measurement device; 実施の形態2にかかるスレーブ測定装置の制御装置の構成の一例を示すブロック図である。FIG. 11 is a block diagram showing an example of the configuration of a control device of the slave measuring device according to the second embodiment; FIG. 測定装置の配置例を示す模式図である。It is a schematic diagram which shows the example of arrangement|positioning of a measuring apparatus. 実施の形態2にかかる測定システムの動作の一例を示すシーケンスチャートである。FIG. 10 is a sequence chart showing an example of the operation of the measurement system according to the second embodiment; FIG.

<実施の形態の概要>
実施の形態の詳細な説明に先立って、実施の形態の概要を説明する。図1は、実施の形態の概要にかかる測定装置1の構成の一例を示すブロック図である。測定装置1は、点群データを取得する他の測定装置(他装置)とともに用いられる。すなわち、測定装置1は、同一空間における点群データを取得する複数の測定装置のうちの一つである。なお、測定装置1及び他装置は、空間内に存在する物体を異なる方向からスキャンするために、分散して配置される。図1に示すように、測定装置1は、センサ2と、位置特定部3と、合成処理部4とを有する。
<Overview of Embodiment>
Prior to detailed description of the embodiments, an outline of the embodiments will be described. FIG. 1 is a block diagram showing an example of the configuration of a measuring device 1 according to the outline of the embodiment. The measuring device 1 is used together with another measuring device (another device) that acquires point cloud data. That is, the measuring device 1 is one of a plurality of measuring devices that acquire point cloud data in the same space. Note that the measuring device 1 and other devices are distributed in order to scan an object existing in space from different directions. As shown in FIG. 1 , the measuring device 1 has a sensor 2 , a position specifying section 3 and a synthesizing section 4 .

センサ2は、空間に存在する物体の表面の複数箇所についての座標を表す点群データを取得するセンサである。なお、センサ2が取得する点群データにより表される座標は、測定装置1を基準とした3次元座標系における座標である。 The sensor 2 is a sensor that acquires point cloud data representing coordinates of a plurality of points on the surface of an object existing in space. The coordinates represented by the point cloud data acquired by the sensor 2 are coordinates in a three-dimensional coordinate system with the measuring device 1 as a reference.

位置特定部3は、空間に存在する物体の表面の複数箇所についての他装置を基準とした3次元座標系における座標を表わす点群データを取得するセンサを備えた当該他装置の位置を、測定装置1が備えるセンサ2が取得した点群データに基づいて特定する。なお、測定装置1のセンサ2及び他装置のセンサは、具体的には例えばLiDAR装置である。位置特定部3は、具体的には、測定装置1の測定原点(測定装置1が用いる座標系の原点)からの他装置の測定原点(他装置が用いる座標系の原点)の相対位置を特定する。 The position specifying unit 3 measures the position of the other device equipped with a sensor that acquires point cloud data representing coordinates in a three-dimensional coordinate system with respect to the other device at multiple locations on the surface of an object existing in space. It specifies based on the point cloud data which the sensor 2 with which the apparatus 1 has acquired. Note that the sensor 2 of the measuring device 1 and the sensors of other devices are specifically LiDAR devices, for example. Specifically, the position specifying unit 3 specifies the relative position of the measurement origin of the other device (the origin of the coordinate system used by the other device) from the measurement origin of the measurement device 1 (the origin of the coordinate system used by the measurement device 1). do.

合成処理部4は、位置特定部3により特定された他装置の位置に基づいて、測定装置1のセンサ2が取得した点群データと、他装置のセンサが取得した点群データとを合成する。具体的には、合成処理部4は、他装置の位置に基づいて定まる座標変換処理を行うことにより、測定装置1及び他装置の点群データを合成する。これにより、空間内に存在する物体を様々な方向からスキャンした点群データの集合が得られる。 The synthesizing unit 4 synthesizes the point cloud data acquired by the sensor 2 of the measuring device 1 and the point cloud data acquired by the sensor of the other device based on the position of the other device specified by the position specifying unit 3. . Specifically, the synthesizing unit 4 synthesizes the point cloud data of the measuring device 1 and the other device by performing coordinate conversion processing determined based on the positions of the other devices. As a result, a set of point cloud data obtained by scanning an object existing in space from various directions is obtained.

測定装置1によれば、測定のために元々備えているセンサ2の出力を用いて、測定装置間の位置関係の特定が行われる。このため、測定装置1によれば、複数の測定装置により点群データを取得する場合において、位置情報取得サービスを用いなくても各測定装置の位置関係を特定することができる。 According to the measuring device 1, the positional relationship between the measuring devices is specified using the output of the sensor 2 originally provided for measurement. Therefore, according to the measuring device 1, when acquiring point cloud data using a plurality of measuring devices, it is possible to specify the positional relationship between the measuring devices without using a position information acquisition service.

<実施の形態1>
図2は、実施の形態1にかかる測定システム10の構成の一例を示すブロック図である。図2に示した測定システム10は、一例として、マスター測定装置100と、スレーブ測定装置200_1、200_2及び200_3とを有する。なお、図2に示した例では、測定システム10は、3台のスレーブ測定装置を備えているが、スレーブ測定装置の台数は1以上であればよい。マスター測定装置100、スレーブ測定装置200_1、200_2及び200_3は、無線により通信可能に接続されている。図2に示すように、マスター測定装置100、スレーブ測定装置200_1、200_2及び200_3は、空間内に存在する物体を異なる方向からスキャンするために、分散して配置される。なお、測定装置間の距離は、後述する1対のマーカ153A、153Bの離間距離に比べて十分に大きい。以下の説明では、スレーブ測定装置200_1、200_2及び200_3について、特に区別して言及しない場合には、スレーブ測定装置200と称すこととする。マスター測定装置100は、実施の形態の概要の説明で言及した測定装置1に対応している。また、スレーブ測定装置200は、実施の形態の概要の説明で言及した他装置に対応している。
<Embodiment 1>
FIG. 2 is a block diagram showing an example configuration of the measurement system 10 according to the first embodiment. The measurement system 10 shown in FIG. 2 has, as an example, a master measurement device 100 and slave measurement devices 200_1, 200_2 and 200_3. In the example shown in FIG. 2, the measurement system 10 includes three slave measuring devices, but the number of slave measuring devices may be one or more. The master measuring device 100 and the slave measuring devices 200_1, 200_2, and 200_3 are communicably connected wirelessly. As shown in FIG. 2, the master measuring device 100, slave measuring devices 200_1, 200_2 and 200_3 are distributed to scan an object existing in space from different directions. Note that the distance between the measuring devices is sufficiently larger than the distance between a pair of markers 153A and 153B, which will be described later. In the following description, the slave measuring devices 200_1, 200_2, and 200_3 will be referred to as the slave measuring device 200 unless otherwise specified. The master measuring device 100 corresponds to the measuring device 1 mentioned in the description of the outline of the embodiment. Also, the slave measuring device 200 corresponds to the other device mentioned in the explanation of the outline of the embodiment.

図3は、マスター測定装置100及びスレーブ測定装置200の正面の外観を示す模式図である。図2及び図3に示すように、マスター測定装置100及びスレーブ測定装置200は、台座150の上にLiDAR装置151と、ジャイロセンサ152を備える。LiDAR装置151は、3次元空間に存在する物体までの距離を測定するセンサであり、実施の形態の概要の説明で言及したセンサに相当する。LiDAR装置151は、ビームを射出し、物体により反射したビームがLiDAR装置151に届くまでの時間により物体までの距離を測定する。ビームは、様々な方向に射出される。ビームの角度(水平角度及び垂直角度)と、測定された距離とによって、測定された点の座標が定まることとなる。すなわち、LiDAR装置151によって、空間に存在する物体の表面の複数箇所についての測定装置(より詳細にはLiDAR装置151の測定原点)を基準とした3次元座標系における座標、つまり点群データが得られる。ジャイロセンサ152は、ジャイロセンサ152が搭載された測定装置についてロール角、ピッチ角、及びヨー角を検出する。 FIG. 3 is a schematic diagram showing the front appearance of the master measuring device 100 and the slave measuring device 200. As shown in FIG. As shown in FIGS. 2 and 3, the master measuring device 100 and the slave measuring device 200 are provided with a LiDAR device 151 and a gyro sensor 152 on a pedestal 150. FIG. The LiDAR device 151 is a sensor that measures the distance to an object existing in a three-dimensional space, and corresponds to the sensor mentioned in the description of the outline of the embodiment. The LiDAR device 151 emits a beam and measures the distance to the object based on the time it takes for the beam reflected by the object to reach the LiDAR device 151 . The beam is emitted in various directions. The angle of the beam (horizontal and vertical) and the measured distance will define the coordinates of the measured point. That is, the LiDAR device 151 obtains coordinates in a three-dimensional coordinate system with reference to a measuring device (more specifically, the measurement origin of the LiDAR device 151) for multiple points on the surface of an object existing in space, that is, point cloud data. be done. The gyro sensor 152 detects the roll angle, pitch angle, and yaw angle of the measuring device on which the gyro sensor 152 is mounted.

また、マスター測定装置100及びスレーブ測定装置200には、所定の形状の2つのマーカ153A及びマーカ153Bが取り付けられている。図3に示した構成例では、マーカ153Aは、台座150上に立てられたポール154Aの上部に設けられている。同様に、マーカ153Bは、台座150上に立てられたポール154Bの上部に設けられている。マーカ153A及びマーカ153Bは、それぞれ異なる所定の位置に設けられている。本実施の形態では、図4に示すように、マーカ153Aとマーカ153Bとを結ぶ線分の中点にLiDAR装置151の測定原点Oが来るように、マーカ153A及びマーカ153Bが設けられている。このようにすることで、マーカ153A及びマーカ153Bの位置から、測定原点の位置を容易に算出することが可能となる。ただし、マーカ153A及びマーカ153Bのこのような設置位置は例に過ぎず、他の位置に設けられてもよい。すなわち、測定原点とマーカ153Aとマーカ153Bの相対的な位置関係が特定可能であればよく、マーカ153A及びマーカ153Bの設置位置は図4に示したような位置に限られない。なお、マスター測定装置100及び各スレーブ測定装置200において、マーカ153Aの設置位置は同じである。同様に、マスター測定装置100及び各スレーブ測定装置200において、マーカ153Bの設置位置は同じである。 Two markers 153A and 153B having predetermined shapes are attached to the master measuring device 100 and the slave measuring device 200, respectively. In the configuration example shown in FIG. 3, the marker 153A is provided on the top of the pole 154A erected on the pedestal 150. As shown in FIG. Similarly, marker 153B is provided on top of pole 154B erected on pedestal 150 . The markers 153A and 153B are provided at different predetermined positions. In the present embodiment, as shown in FIG. 4, the markers 153A and 153B are provided so that the measurement origin O of the LiDAR device 151 is located at the midpoint of the line connecting the markers 153A and 153B. By doing so, the position of the measurement origin can be easily calculated from the positions of the markers 153A and 153B. However, such installation positions of the markers 153A and 153B are merely examples, and they may be provided at other positions. That is, it is sufficient if the relative positional relationship between the measurement origin and the markers 153A and 153B can be identified, and the installation positions of the markers 153A and 153B are not limited to the positions shown in FIG. In the master measuring device 100 and each slave measuring device 200, the installation positions of the markers 153A are the same. Similarly, in the master measuring device 100 and each slave measuring device 200, the installation positions of the markers 153B are the same.

マーカ153Aは、第1の形状を有する物体であり、マーカ153Bは、第2の形状を有する物体である。本実施の形態では、点群データにより示される形状からマーカ153A及びマーカ153Bの位置が特定されるため、マーカ153A及びマーカ153Bの形状は特徴的な形状であることが好ましい。なお、図に示した例では、マーカ153Aの形状は球であり、マーカ153Bの形状は四角柱である。なお、図に示したように、マーカ153Aとマーカ153Bを形状により区別が可能になるように、マーカ153Aの形状とマーカ153Bの形状は異なることが好ましい。 Marker 153A is an object having a first shape and marker 153B is an object having a second shape. In the present embodiment, since the positions of the markers 153A and 153B are specified from the shape indicated by the point cloud data, the shapes of the markers 153A and 153B are preferably characteristic shapes. In the illustrated example, the shape of the marker 153A is a sphere, and the shape of the marker 153B is a quadrangular prism. As shown in the figure, it is preferable that the shape of the marker 153A and the shape of the marker 153B are different so that the markers 153A and 153B can be distinguished by their shapes.

マスター測定装置100は、さらに、制御装置110を備える。同様に、スレーブ測定装置200は、更に、制御装置210を備える。まず、マスター測定装置100の制御装置110について説明する。図5は、マスター測定装置100の制御装置110の機能的な構成の一例を示すブロック図である。図5に示すように、制御装置110は、通信部111、LiDAR制御部112、他装置データ抽出部113、他装置識別部114、座標変換決定部115、及び合成処理部118を有する。 Master measuring device 100 further comprises a control device 110 . Likewise, the slave measuring device 200 further comprises a controller 210 . First, the control device 110 of the master measuring device 100 will be described. FIG. 5 is a block diagram showing an example of the functional configuration of the control device 110 of the master measuring device 100. As shown in FIG. As shown in FIG. 5 , the control device 110 has a communication unit 111 , a LiDAR control unit 112 , another device data extraction unit 113 , another device identification unit 114 , a coordinate transformation determination unit 115 and a synthesis processing unit 118 .

通信部111は、他の測定装置から情報を受信する処理、及び、他の測定装置へ情報を送信する処理を行う。通信部111は、他の測定装置から情報を受信する場合、送信元の測定装置の識別情報とともに情報を受信する。また、通信部111は、他の測定装置へ情報を送信する場合、送信元の測定装置の識別情報(つまりマスター測定装置100の識別情報)とともに、情報を送信する。 The communication unit 111 performs processing for receiving information from other measuring devices and processing for transmitting information to other measuring devices. When receiving information from another measuring device, the communication unit 111 receives the information together with the identification information of the measuring device that is the transmission source. Further, when transmitting information to another measuring device, the communication unit 111 transmits the information together with the identification information of the measuring device that is the transmission source (that is, the identification information of the master measuring device 100).

特に、本実施の形態では、通信部111は、スレーブ測定装置200から、当該スレーブ測定装置200が検出した全ての測定装置についてのマーカ距離情報を受信する。ここで、マーカ距離情報は、マーカ153A又はマーカ153Bの距離に対応する距離を表す情報であればよく、次のような情報であってもよい。すなわち、マーカ距離情報は、マーカ153A又はマーカ153Bの距離を示す情報であってもよいし、マーカ153Aの距離及びマーカ153Bの距離から算出される距離(例えばマーカ153A及びマーカ153Bの中点の距離)であってもよい。また、通信部111は、スレーブ測定装置200から、当該スレーブ測定装置200に設けられたジャイロセンサ152の出力データ(ジャイロデータ)、当該スレーブ測定装置200のLiDAR装置151によって取得した点群データなどを受信する。なお、通信部111は、ジャイロデータ取得部と称されてもよい。 In particular, in this embodiment, the communication unit 111 receives from the slave measuring device 200 the marker distance information about all the measuring devices detected by the slave measuring device 200 . Here, the marker distance information may be any information representing the distance corresponding to the distance of the marker 153A or the marker 153B, and may be the following information. That is, the marker distance information may be information indicating the distance of the marker 153A or the marker 153B, or a distance calculated from the distance of the marker 153A and the distance of the marker 153B (for example, the distance between the midpoints of the markers 153A and 153B). ). In addition, the communication unit 111 transmits output data (gyro data) of the gyro sensor 152 provided in the slave measuring device 200, point cloud data acquired by the LiDAR device 151 of the slave measuring device 200, and the like, from the slave measuring device 200. receive. Note that the communication unit 111 may also be called a gyro data acquisition unit.

LiDAR制御部112は、マスター測定装置100に搭載されたLiDAR装置151の測定の実行を制御し、測定によって得られた点群データをLiDAR装置151から取得する。 The LiDAR control unit 112 controls execution of measurement by the LiDAR device 151 mounted on the master measurement device 100 and acquires point cloud data obtained by measurement from the LiDAR device 151 .

他装置データ抽出部113は、LiDAR制御部112が取得した点群データの中から、他の測定装置(すなわち、スレーブ測定装置200)のマーカ153A、153Bについての点群データを抽出する。他装置データ抽出部113は、マスター測定装置100のLiDAR装置151が取得した点群データにより表される物体の形状とマーカ153A、153Bの所定の形状とを比較する。これにより、他装置データ抽出部113は、他の測定装置(すなわち、スレーブ測定装置200)のマーカ153A、153Bについての点群データを抽出する。なお、1つの測定装置に設けられたマーカ153Aとマーカ153Bの離間距離は、測定装置間の距離よりも十分に小さい。このため、マーカ153Aとマーカ153Bの距離が所定の距離(1つの測定装置の大きさに相当する長さ)以下であれば、これらが同一の測定装置に設けられたマーカであることが判定可能である。 The other device data extracting unit 113 extracts point cloud data about the markers 153A and 153B of the other measuring device (that is, the slave measuring device 200) from the point cloud data acquired by the LiDAR control unit 112. FIG. The other device data extraction unit 113 compares the shape of the object represented by the point cloud data acquired by the LiDAR device 151 of the master measurement device 100 and the predetermined shapes of the markers 153A and 153B. Thereby, the other device data extracting unit 113 extracts point cloud data about the markers 153A and 153B of the other measuring device (that is, the slave measuring device 200). Note that the distance between the markers 153A and 153B provided in one measuring device is sufficiently smaller than the distance between the measuring devices. Therefore, if the distance between the marker 153A and the marker 153B is less than or equal to a predetermined distance (a length corresponding to the size of one measuring device), it can be determined that these markers are provided in the same measuring device. is.

他装置識別部114は、他装置データ抽出部113が抽出した点群データがいずれの測定装置についての点群データであるかを識別する。具体的には、他装置識別部114は、複数の測定装置についての点群データが他装置データ抽出部113によって抽出された場合に、次のように識別処理を行う。他装置識別部114は、抽出された点群データから得られるマーカ距離情報と、スレーブ測定装置200のLiDAR装置151が取得した点群データから得られるマーカ距離情報とを比較する。これにより、他装置識別部114は、抽出された点群データとスレーブ測定装置200とを対応付ける。 The other device identification unit 114 identifies for which measuring device the point cloud data extracted by the other device data extraction unit 113 is the point cloud data. Specifically, when point cloud data for a plurality of measuring devices are extracted by the other device data extraction unit 113, the other device identification unit 114 performs identification processing as follows. The other device identifying unit 114 compares the marker distance information obtained from the extracted point cloud data with the marker distance information obtained from the point cloud data acquired by the LiDAR device 151 of the slave measuring device 200 . Thereby, the other device identifying unit 114 associates the extracted point cloud data with the slave measuring device 200 .

これについて具体的に説明する。マスター測定装置100の他装置データ抽出部113は、例えば、3つの測定装置についての点群データを抽出する。これらの点群データは、スレーブ測定装置200_1についての点群データと、スレーブ測定装置200_2についての点群データと、スレーブ測定装置200_3についての点群データであるが、どの点群データがどの測定装置に対応しているかが不明である。そこで、他装置識別部114はマーカ距離情報を使って、どの点群データがどのスレーブ測定装置200に対応しているかを特定する。ここで、説明のため、3つの測定装置についての点群データから得られる3つのマーカ距離情報が示す距離をそれぞれD_1、D_2、D_3とする。また、スレーブ測定装置200_1のLiDAR装置151が取得した点群データから得られるマーカ距離情報が示す距離をそれぞれDS1_1、DS1_2、DS1_3とする。D_1、D_2、D_3は、それぞれ、マスター測定装置100からスレーブ測定装置200_1への距離、マスター測定装置100からスレーブ測定装置200_2への距離、マスター測定装置100からスレーブ測定装置200_3への距離のいずれかである。同様に、DS1_1、DS1_2、DS1_3は、それぞれ、スレーブ測定装置200_1からマスター測定装置100への距離、スレーブ測定装置200_1からスレーブ測定装置200_2への距離、スレーブ測定装置200_1からスレーブ測定装置200_3への距離のいずれかである。なお、スレーブ測定装置200_1のLiDAR装置151が取得した点群データから得られるマーカ距離情報は、予めスレーブ測定装置200_1からスレーブ測定装置200_1の識別情報とともにマスター測定装置100に送信されている。同様に、スレーブ測定装置200_2のLiDAR装置151が取得した点群データから得られるマーカ距離情報、及び、スレーブ測定装置200_3のLiDAR装置151が取得した点群データから得られるマーカ距離情報も、予めスレーブ測定装置200_2及び200_3から送信元の装置の識別情報とともにマスター測定装置100に送信されている。 This will be explained in detail. The other device data extracting unit 113 of the master measuring device 100 extracts point cloud data for three measuring devices, for example. These point cloud data are the point cloud data for the slave measuring device 200_1, the point cloud data for the slave measuring device 200_2, and the point cloud data for the slave measuring device 200_3. It is unknown whether it corresponds to Therefore, the other device identifying unit 114 uses the marker distance information to identify which point cloud data corresponds to which slave measuring device 200 . Here, for the sake of explanation, let D M — 1, D M — 2, and D M — 3 be the distances indicated by the three pieces of marker distance information obtained from the point cloud data of the three measuring devices, respectively. Also, the distances indicated by the marker distance information obtained from the point cloud data acquired by the LiDAR device 151 of the slave measuring device 200_1 are assumed to be D S1 _1, D S1 _2, and D S1 _3, respectively. DM_1 , DM_2 , and DM_3 are respectively the distance from the master measuring device 100 to the slave measuring device 200_1, the distance from the master measuring device 100 to the slave measuring device 200_2, and the master measuring device 100 to the slave measuring device 200_3. is either the distance to Similarly, D S1 _1, D S1 _2, and D S1 _3 are respectively the distance from the slave measuring device 200_1 to the master measuring device 100, the distance from the slave measuring device 200_1 to the slave measuring device 200_2, and the distance from the slave measuring device 200_1 to the slave measuring device 200_1. It is either the distance to the measuring device 200_3. The marker distance information obtained from the point cloud data acquired by the LiDAR device 151 of the slave measuring device 200_1 is transmitted in advance from the slave measuring device 200_1 to the master measuring device 100 together with the identification information of the slave measuring device 200_1. Similarly, the marker distance information obtained from the point cloud data acquired by the LiDAR device 151 of the slave measuring device 200_2 and the marker distance information obtained from the point cloud data acquired by the LiDAR device 151 of the slave measuring device 200_3 are also obtained from the slave measuring device 200_3 in advance. It is transmitted from the measuring devices 200_2 and 200_3 to the master measuring device 100 together with the identification information of the source devices.

他装置識別部114は、マスター測定装置100の測定によって得られた距離(D_1、D_2、D_3)と、スレーブ測定装置200_1の測定によって得られた距離(DS1_1、DS1_2、DS1_3)とを比較し、等しい距離の関係にあるペアを特定する。なお、等しい距離とは、完全に等しい距離でなくてもよい。すなわち、他装置識別部114は、互いの差が所定値以下である関係を有するペアを特定する。例えば、D_2とDS1_3が等しいとする。このことは、D_2が、マスター測定装置100からスレーブ測定装置200_1への距離であり、DS1_3が、スレーブ測定装置200_1からマスター測定装置100への距離であることを意味する。したがって、この場合、他装置識別部114は、示す距離がD_2であるマーカ距離情報に対応する点群データが、スレーブ測定装置200_1についての点群データであると特定する。他装置識別部114は、示す距離がD_1であるマーカ距離情報に対応する点群データ、及び、示す距離がD_3であるマーカ距離情報に対応する点群データについても、同様に、スレーブ測定装置200_2又はスレーブ測定装置200_3と対応付ける。 The other device identification unit 114 identifies the distances (D M _1, D M _2, D M _3) obtained by the measurement of the master measurement device 100 and the distances (D S1 _1, D S1 _2, D S1 _3) to identify pairs having an equal distance relationship. Note that the equal distance does not have to be a completely equal distance. That is, the other device identification unit 114 identifies pairs having a relationship in which the mutual difference is equal to or less than a predetermined value. For example, let D M _2 and D S1 _3 be equal. This means that D M _2 is the distance from the master measuring device 100 to the slave measuring device 200_1 and D S1 _3 is the distance from the slave measuring device 200_1 to the master measuring device 100 . Therefore, in this case, the other device identification unit 114 identifies the point cloud data corresponding to the marker distance information indicating the distance D M _2 as the point cloud data for the slave measuring device 200_1. Similarly, the other device identification unit 114 also points the point cloud data corresponding to the marker distance information indicating the distance D M _1 and the point cloud data corresponding to the marker distance information indicating the distance D M _3. It is associated with the slave measuring device 200_2 or the slave measuring device 200_3.

このように、本実施の形態では、他装置識別部114によって、マスター測定装置100は、複数のスレーブ測定装置200が存在する場合であっても、それらの点群データを識別することができる。なお、測定システム10が備えるスレーブ測定装置200が1台である場合には、マスター測定装置100は、他装置識別部114を備えていなくてもよい。 Thus, according to the present embodiment, even when there are a plurality of slave measuring devices 200, the master measuring device 100 can identify their point cloud data by the other device identifying section 114. FIG. Note that if the measurement system 10 includes only one slave measuring device 200 , the master measuring device 100 may not include the other device identifying section 114 .

座標変換決定部115は、マスター測定装置100とスレーブ測定装置200により得られた点群データとを合成する際に行われる座標変換を決定する。具体的には、座標変換決定部115は、スレーブ測定装置200により得られた点群データに対して行われる座標変換を決定する。座標変換は、マスター測定装置100の測定原点(座標系)を基準としたスレーブ測定装置200の位置と、スレーブ測定装置200の姿勢とに基づいて定まる。ここで、測定装置の姿勢とは、測定装置の水平方向の向き及び測定装置の水平面に対する傾きを言う。したがって、座標変換決定部115は、スレーブ測定装置200の位置と、スレーブ測定装置200の姿勢とを特定することにより、座標変換を決定する。このため、座標変換決定部115は、スレーブ測定装置200の位置と、スレーブ測定装置200の姿勢を特定する。このため、座標変換決定部115は、スレーブ測定装置200の位置を特定する位置特定部116と、スレーブ測定装置200の姿勢を特定する姿勢特定部117とを有する。 The coordinate transformation determination unit 115 determines coordinate transformation to be performed when combining the point cloud data obtained by the master measuring device 100 and the slave measuring device 200 . Specifically, the coordinate transformation determination unit 115 determines coordinate transformation to be performed on the point cloud data obtained by the slave measuring device 200 . The coordinate transformation is determined based on the position of the slave measuring device 200 with respect to the measurement origin (coordinate system) of the master measuring device 100 and the orientation of the slave measuring device 200 . Here, the orientation of the measuring device refers to the orientation of the measuring device in the horizontal direction and the inclination of the measuring device with respect to the horizontal plane. Therefore, coordinate transformation determining section 115 determines the coordinate transformation by specifying the position of slave measuring device 200 and the attitude of slave measuring device 200 . Therefore, the coordinate transformation determining unit 115 identifies the position of the slave measuring device 200 and the orientation of the slave measuring device 200 . Therefore, the coordinate transformation determining section 115 has a position identifying section 116 that identifies the position of the slave measuring device 200 and an orientation identifying section 117 that identifies the orientation of the slave measuring device 200 .

なお、マスター測定装置100が水平に配置されるとは限らない場合には、座標変換決定部115は、マスター測定装置100のジャイロセンサ152により検出されるマスター測定装置100の姿勢も用いて、座標変換を決定する。また、マスター測定装置100に対する相対的なスレーブ測定装置200の水平方向の向きが既知である場合(例えばスレーブ測定装置200の向きが予め定められている場合など)には、スレーブ測定装置200の水平方向の向きを特定する処理が省略可能である。スレーブ測定装置200の向きが予め定められている場合とは、例えば、スレーブ測定装置200がマスター測定装置100と完全に向き合うように配置されることが定められている場合などをいう。同様に、スレーブ測定装置200の水平面に対する傾きが既知である場合(例えば、スレーブ測定装置200の水平面に対する傾きが予め定められている場合など)には、スレーブ測定装置200の水平面に対する傾きを特定する処理が省略可能である。スレーブ測定装置200の水平面に対する傾きが予め定められている場合とは、例えば、スレーブ測定装置200が水平に配置されることが定められている場合などをいう。つまり、姿勢特定部117の処理は省略されうる。 Note that if the master measuring device 100 is not always placed horizontally, the coordinate transformation determination unit 115 also uses the attitude of the master measuring device 100 detected by the gyro sensor 152 of the master measuring device 100 to determine the coordinates. Determine conversion. Further, when the horizontal orientation of the slave measuring device 200 relative to the master measuring device 100 is known (for example, when the orientation of the slave measuring device 200 is predetermined), the horizontal direction of the slave measuring device 200 The process of specifying the orientation of the direction can be omitted. The case where the orientation of the slave measuring device 200 is predetermined means, for example, the case where it is determined that the slave measuring device 200 is arranged so as to face the master measuring device 100 completely. Similarly, when the tilt of slave measuring device 200 with respect to the horizontal plane is known (for example, when the tilt of slave measuring device 200 with respect to the horizontal plane is predetermined), the tilt of slave measuring device 200 with respect to the horizontal plane is specified. Processing can be omitted. The case where the inclination of the slave measuring device 200 with respect to the horizontal plane is determined in advance means, for example, the case where it is determined that the slave measuring device 200 is arranged horizontally. That is, the processing of the posture identification unit 117 can be omitted.

位置特定部116は、図1の位置特定部3に相当する。位置特定部116は、スレーブ測定装置200の位置を、マスター測定装置100のLiDAR装置151が取得した点群データに基づいて特定する。具体的には、位置特定部116は、他装置データ抽出部113によって抽出された点群データ(すなわち、スレーブ測定装置200のマーカ153A、153Bについての点群データ)に基づいてスレーブ測定装置200の位置を特定する。より詳細には、位置特定部116は、マスター測定装置100の測定原点(座標系)を基準とした相対的なスレーブ測定装置200の位置を特定する。位置特定部116は、マーカ153A及びマーカ153Bの座標から、スレーブ測定装置200の測定原点の位置を特定する。例えば、位置特定部116は、マーカ153Aとマーカ153Bとを結ぶ線分の中点の座標を算出することで、スレーブ測定装置200の測定原点の座標を特定する。上述した通り、他装置識別部114によって、他装置データ抽出部113が抽出した点群データがいずれのスレーブ測定装置200についての点群データであるかは識別されている。このため、位置特定部116は、どのスレーブ測定装置200がどの位置に存在するかを特定する。 The position specifying unit 116 corresponds to the position specifying unit 3 in FIG. The position identifying unit 116 identifies the position of the slave measuring device 200 based on the point cloud data acquired by the LiDAR device 151 of the master measuring device 100 . Specifically, the position specifying unit 116 determines the position of the slave measuring device 200 based on the point cloud data extracted by the other device data extracting unit 113 (that is, the point cloud data about the markers 153A and 153B of the slave measuring device 200). Locate. More specifically, the position specifying unit 116 specifies the position of the slave measuring device 200 relative to the measurement origin (coordinate system) of the master measuring device 100 . The position specifying unit 116 specifies the position of the measurement origin of the slave measuring device 200 from the coordinates of the markers 153A and 153B. For example, the position specifying unit 116 specifies the coordinates of the measurement origin of the slave measuring device 200 by calculating the coordinates of the midpoint of the line connecting the markers 153A and 153B. As described above, the other device identification unit 114 identifies which slave measuring device 200 the point cloud data extracted by the other device data extraction unit 113 belongs to. Therefore, the position specifying unit 116 specifies which slave measuring device 200 is located at which position.

姿勢特定部117は、マスター測定装置100のLiDAR装置151が取得した点群データから特定される、スレーブ測定装置200の2つのマーカ153A、153Bの座標に基づいて、当該スレーブ測定装置200の姿勢を特定する。一般的に、3次元空間におけるスレーブ測定装置200の姿勢は、スレーブ測定装置200における3点の座標が定まれば一意に定まる。そして、スレーブ測定装置200の水平面に対する傾きが既知である場合には、3次元空間におけるスレーブ測定装置200の姿勢は、スレーブ測定装置200における2点の座標が定まれば一意に定まる。なお、スレーブ測定装置200の水平面に対する傾きが既知である場合とは、例えば、スレーブ測定装置200が水平に配置されることが定められている場合などである。姿勢特定部117は、スレーブ測定装置200のマーカ153A及びマーカ153Bの座標を、スレーブ測定装置200の2点の座標として用いることで、スレーブ測定装置200の姿勢を特定する。なお、スレーブ測定装置200の水平面に対する傾きが予め定められていない場合には、マーカ153A及びマーカ153Bの座標だけでは、スレーブ測定装置200の姿勢が一意に定まらない。この場合、姿勢特定部117は、スレーブ測定装置200のマーカ153A及びマーカ153Bの座標に加え、当該スレーブ測定装置200のジャイロセンサ152の出力データを用いて、当該スレーブ測定装置200の姿勢を特定する。なお、マスター測定装置100に対する相対的なスレーブ測定装置200の水平方向の向きが既知である場合などには、姿勢特定部117は、ジャイロセンサ152の出力データだけで、姿勢を特定してもよい。このように、姿勢特定部117によりスレーブ測定装置200の姿勢が特定されるため、スレーブ測定装置200の姿勢が既知でない場合であっても、点群データの合成のための座標変換を決定することができる。 The orientation identification unit 117 identifies the orientation of the slave measurement device 200 based on the coordinates of the two markers 153A and 153B of the slave measurement device 200, which are identified from the point cloud data acquired by the LiDAR device 151 of the master measurement device 100. Identify. Generally, the attitude of the slave measuring device 200 in the three-dimensional space is uniquely determined when the coordinates of three points on the slave measuring device 200 are determined. When the inclination of the slave measuring device 200 with respect to the horizontal plane is known, the attitude of the slave measuring device 200 in the three-dimensional space is uniquely determined when the coordinates of two points on the slave measuring device 200 are determined. The case where the inclination of the slave measuring device 200 with respect to the horizontal plane is known is, for example, the case where it is determined that the slave measuring device 200 is arranged horizontally. The orientation identifying unit 117 identifies the orientation of the slave measuring device 200 by using the coordinates of the markers 153A and 153B of the slave measuring device 200 as coordinates of two points on the slave measuring device 200 . Note that if the inclination of the slave measuring device 200 with respect to the horizontal plane is not predetermined, the attitude of the slave measuring device 200 cannot be uniquely determined only by the coordinates of the markers 153A and 153B. In this case, the orientation identifying section 117 identifies the orientation of the slave measuring device 200 using the output data of the gyro sensor 152 of the slave measuring device 200 in addition to the coordinates of the markers 153A and 153B of the slave measuring device 200. . In addition, when the horizontal orientation of the slave measuring device 200 relative to the master measuring device 100 is known, the orientation identifying unit 117 may identify the orientation based only on the output data of the gyro sensor 152. . In this way, since the posture of the slave measuring device 200 is specified by the posture specifying unit 117, even if the posture of the slave measuring device 200 is not known, it is possible to determine the coordinate transformation for synthesizing the point cloud data. can be done.

合成処理部118は、図1の合成処理部4に相当する。合成処理部118は、位置特定部116によって特定されたスレーブ測定装置200の位置と姿勢特定部117によって特定されたスレーブ測定装置200の姿勢に基づいて、点群データを合成する。具体的には、合成処理部118は、スレーブ測定装置200の位置及び姿勢に基づいて、マスター測定装置100のLiDAR装置151が取得した点群データと、スレーブ測定装置200のLiDAR装置151が取得した点群データとを合成する。すなわち、合成処理部118は、マスター測定装置100の測定によって得られた、3次元空間に存在する任意の物体についての点群データと、当該物体についてのスレーブ測定装置200の測定によって得られた点群データとを合成する。合成処理部118は、座標変換決定部115により決定された座標変換を用いて、これらの点群データを合成する。具体的には、合成処理部118は、スレーブ測定装置200のLiDAR装置151が取得した点群データに対して座標変換を行うことにより、この点群データをマスター測定装置100が用いる座標系にマッピングする。 The composition processing unit 118 corresponds to the composition processing unit 4 in FIG. The synthesizing unit 118 synthesizes point cloud data based on the position of the slave measuring device 200 specified by the position specifying unit 116 and the orientation of the slave measuring device 200 specified by the posture specifying unit 117 . Specifically, the synthesis processing unit 118 combines the point cloud data acquired by the LiDAR device 151 of the master measuring device 100 and the LiDAR device 151 of the slave measuring device 200 based on the position and orientation of the slave measuring device 200. Synthesize with point cloud data. That is, the synthesis processing unit 118 combines the point cloud data of an arbitrary object existing in the three-dimensional space obtained by the measurement of the master measurement device 100 and the point cloud data of the object obtained by the measurement of the slave measurement device 200. Synthesize with group data. The synthesizing unit 118 synthesizes these point cloud data using the coordinate transformation determined by the coordinate transformation determining unit 115 . Specifically, the synthesis processing unit 118 performs coordinate transformation on the point cloud data acquired by the LiDAR device 151 of the slave measuring device 200, thereby mapping the point cloud data to the coordinate system used by the master measuring device 100. do.

次に、スレーブ測定装置200の制御装置210について説明する。図6は、スレーブ測定装置200の制御装置210の機能的な構成の一例を示すブロック図である。図6に示すように、制御装置210は、通信部211、LiDAR制御部212、及び他装置データ抽出部213を有する。 Next, the controller 210 of the slave measuring device 200 will be described. FIG. 6 is a block diagram showing an example of the functional configuration of the controller 210 of the slave measuring device 200. As shown in FIG. As shown in FIG. 6 , the control device 210 has a communication section 211 , a LiDAR control section 212 and an other device data extraction section 213 .

通信部211は、他の測定装置から情報を受信する処理、及び、他の測定装置へ情報を送信する処理を行う。通信部211は、他の測定装置から情報を受信する場合、送信元の測定装置の識別情報とともに情報を受信する。また、通信部211は、他の測定装置へ情報を送信する場合、送信元の測定装置の識別情報(つまりスレーブ測定装置200の識別情報)とともに、情報を送信する。 The communication unit 211 performs processing for receiving information from other measuring devices and processing for transmitting information to other measuring devices. When receiving information from another measuring device, the communication unit 211 receives the information together with the identification information of the measuring device that is the transmission source. When transmitting information to another measuring device, the communication unit 211 transmits the information together with the identification information of the measuring device that is the transmission source (that is, the identification information of the slave measuring device 200).

特に、本実施の形態では、通信部211は、スレーブ測定装置200が検出した全ての測定装置についてのマーカ距離情報をマスター測定装置100へ送信する。通信部211は、他装置データ抽出部213によって抽出された点群データによって特定されるマーカ距離情報をマスター測定装置100へ送信する。また、通信部211は、スレーブ測定装置200に設けられたジャイロセンサ152の出力データ(ジャイロデータ)、スレーブ測定装置200のLiDAR装置151によって取得した点群データなどをマスター測定装置100へ送信する。 In particular, in the present embodiment, communication section 211 transmits marker distance information for all measuring devices detected by slave measuring device 200 to master measuring device 100 . The communication unit 211 transmits marker distance information specified by the point cloud data extracted by the other device data extraction unit 213 to the master measurement device 100 . The communication unit 211 also transmits output data (gyro data) of the gyro sensor 152 provided in the slave measuring device 200, point cloud data acquired by the LiDAR device 151 of the slave measuring device 200, and the like to the master measuring device 100.

LiDAR制御部212は、スレーブ測定装置200に搭載されたLiDAR装置151の測定の実行を制御し、測定によって得られた点群データをLiDAR装置151から取得する。 The LiDAR control unit 212 controls execution of measurement by the LiDAR device 151 mounted on the slave measurement device 200 and acquires point cloud data obtained by measurement from the LiDAR device 151 .

他装置データ抽出部213は、LiDAR制御部212が取得した点群データの中から、他の測定装置(すなわち、マスター測定装置100及び他のスレーブ測定装置200)のマーカ153A、153Bについての点群データを抽出する。他装置データ抽出部213は、マスター測定装置100の他装置データ抽出部113と同様の処理を行って、他の測定装置のマーカ153A、153Bについての点群データを抽出する。 The other-device data extracting unit 213 extracts the point cloud data of the markers 153A and 153B of the other measuring devices (that is, the master measuring device 100 and the other slave measuring devices 200) from the point cloud data acquired by the LiDAR control unit 212. Extract data. The other device data extraction unit 213 performs the same processing as the other device data extraction unit 113 of the master measurement device 100, and extracts point cloud data about the markers 153A and 153B of the other measurement devices.

次に、マスター測定装置100の制御装置110とスレーブ測定装置200の制御装置210の制御装置210のハードウェア構成について説明する。図7は、マスター測定装置100の制御装置110及びスレーブ測定装置200の制御装置210のハードウェア構成の一例を示すブロック図である。制御装置110、210は、それぞれ、例えば、図7に示すように、ネットワークインタフェース160、メモリ161、及びプロセッサ162を有する。 Next, the hardware configuration of the controller 110 of the master measuring device 100 and the controller 210 of the slave measuring device 200 will be described. FIG. 7 is a block diagram showing an example of the hardware configuration of the controller 110 of the master measuring device 100 and the controller 210 of the slave measuring device 200. As shown in FIG. The controllers 110, 210 each have a network interface 160, a memory 161, and a processor 162, for example, as shown in FIG.

ネットワークインタフェース160は、他の測定装置などの任意の装置と通信するために使用される。ネットワークインタフェース160は、例えば、ネットワークインタフェースカード(NIC)を含んでもよい。 Network interface 160 is used to communicate with any device, such as other measurement devices. Network interface 160 may include, for example, a network interface card (NIC).

メモリ161は、例えば、揮発性メモリ及び不揮発性メモリの組み合わせによって構成される。メモリ161は、プロセッサ162により実行されるプログラム、及び測定装置の各種処理に用いるデータなどを格納するために使用される。 The memory 161 is configured by, for example, a combination of volatile memory and nonvolatile memory. The memory 161 is used to store programs executed by the processor 162, data used for various processes of the measuring device, and the like.

プロセッサ162は、メモリ161からプログラムを読み出して実行することで、図5又は図6に示した各構成要素の処理を行う。プロセッサ162は、例えば、マイクロプロセッサ、MPU(Micro Processor Unit)、又はCPU(Central Processing Unit)などであってもよい。プロセッサ162は、複数のプロセッサを含んでもよい。このように、制御装置110及び制御装置210は、コンピュータとしての機能を備えている。 The processor 162 reads and executes a program from the memory 161 to process each component shown in FIG. 5 or 6 . The processor 162 may be, for example, a microprocessor, MPU (Micro Processor Unit), or CPU (Central Processing Unit). Processor 162 may include multiple processors. Thus, the control device 110 and the control device 210 have functions as computers.

プログラムは、コンピュータに読み込まれた場合に、実施形態で説明された1又はそれ以上の機能をコンピュータに行わせるための命令群(又はソフトウェアコード)を含む。プログラムは、非一時的なコンピュータ可読媒体又は実体のある記憶媒体に格納されてもよい。限定ではなく例として、コンピュータ可読媒体又は実体のある記憶媒体は、random-access memory(RAM)、read-only memory(ROM)、フラッシュメモリ、solid-state drive(SSD)又はその他のメモリ技術、CD-ROM、digital versatile disc(DVD)、Blu-ray(登録商標)ディスク又はその他の光ディスクストレージ、磁気カセット、磁気テープ、磁気ディスクストレージ又はその他の磁気ストレージデバイスを含む。プログラムは、一時的なコンピュータ可読媒体又は通信媒体上で送信されてもよい。限定ではなく例として、一時的なコンピュータ可読媒体又は通信媒体は、電気的、光学的、音響的、またはその他の形式の伝搬信号を含む。 A program includes instructions (or software code) that, when read into a computer, cause the computer to perform one or more of the functions described in the embodiments. The program may be stored in a non-transitory computer-readable medium or tangible storage medium. By way of example, and not limitation, computer readable media or tangible storage media may include random-access memory (RAM), read-only memory (ROM), flash memory, solid-state drives (SSD) or other memory technology, CDs -ROM, digital versatile disc (DVD), Blu-ray disc or other optical disc storage, magnetic cassette, magnetic tape, magnetic disc storage or other magnetic storage device. The program may be transmitted on a transitory computer-readable medium or communication medium. By way of example, and not limitation, transitory computer readable media or communication media include electrical, optical, acoustic, or other forms of propagated signals.

次に、実施の形態1にかかる測定システム10の動作の流れについて説明する。図8は、測定システム10の動作の一例を示すシーケンスチャートである。以下、図8に沿って、測定システム10の動作の流れについて説明する。なお、ステップS100からステップS106までの動作が、測定システム10におけるキャリブレーション動作である。すなわち、ステップS100からステップS106までの動作が、点群データの合成のための座標変換を決定するための動作である。そして、ステップS106よりも後の動作が、3次元空間における任意の物体について測定システム10により測定し、合成された点群データを得るための動作である。 Next, the operation flow of the measurement system 10 according to the first embodiment will be described. FIG. 8 is a sequence chart showing an example of the operation of the measurement system 10. FIG. The operation flow of the measurement system 10 will be described below with reference to FIG. Note that the operation from step S100 to step S106 is the calibration operation in the measurement system 10. FIG. That is, the operations from step S100 to step S106 are operations for determining coordinate transformation for synthesizing point cloud data. Then, the operation after step S106 is an operation for obtaining synthesized point cloud data by measuring an arbitrary object in the three-dimensional space with the measurement system 10 .

ステップS100において、マスター測定装置100のLiDAR制御部112は、マスター測定装置100に搭載されたLiDAR装置151による測定によって得られた点群データを取得する。同様に、スレーブ測定装置200のLiDAR制御部212は、スレーブ測定装置200に搭載されたLiDAR装置151による測定によって得られた点群データを取得する。図9は、マスター測定装置100のLiDAR装置151による測定を模式的に示した図である。図9では、マスター測定装置100のLiDAR装置151による測定を示しているが、各スレーブ測定装置200のLiDAR装置151も同様に測定を行う。 In step S<b>100 , the LiDAR control unit 112 of the master measurement device 100 acquires point cloud data obtained by measurement by the LiDAR device 151 mounted on the master measurement device 100 . Similarly, the LiDAR control unit 212 of the slave measuring device 200 acquires point cloud data obtained by measurement by the LiDAR device 151 mounted on the slave measuring device 200 . FIG. 9 is a diagram schematically showing measurement by the LiDAR device 151 of the master measurement device 100. As shown in FIG. Although FIG. 9 shows the measurement by the LiDAR device 151 of the master measurement device 100, the LiDAR device 151 of each slave measurement device 200 also performs measurement in the same manner.

次に、ステップS101において、マスター測定装置100の他装置データ抽出部113は、ステップS100でLiDAR制御部112が取得した点群データの中から、他の測定装置のマーカ153A、153Bについての点群データを抽出する。同様に、スレーブ測定装置200の他装置データ抽出部213は、ステップS100でLiDAR制御部212が取得した点群データの中から、他の測定装置のマーカ153A、153Bについての点群データを抽出する。 Next, in step S101, the other device data extracting unit 113 of the master measuring device 100 extracts the point cloud data of the markers 153A and 153B of the other measuring devices from the point cloud data acquired by the LiDAR control unit 112 in step S100. Extract data. Similarly, the other device data extracting unit 213 of the slave measuring device 200 extracts point cloud data about the markers 153A and 153B of the other measuring devices from the point cloud data acquired by the LiDAR control unit 212 in step S100. .

次に、ステップS102において、スレーブ測定装置200の通信部211は、ステップS101で他装置データ抽出部213によって抽出された点群データによって特定されるマーカ距離情報をマスター測定装置100へ送信する。例えば、他装置データ抽出部213によって、3つの測定装置についての点群データが抽出された場合、通信部211は、これらの3つの測定装置についてのマーカ距離情報をマスター測定装置100へ送信する。 Next, in step S102, the communication unit 211 of the slave measuring device 200 transmits to the master measuring device 100 marker distance information specified by the point cloud data extracted by the other device data extracting unit 213 in step S101. For example, when the other-device data extraction unit 213 extracts point cloud data for three measurement devices, the communication unit 211 transmits marker distance information for these three measurement devices to the master measurement device 100 .

次に、ステップS103において、マスター測定装置100の他装置識別部114は、ステップS101で他装置データ抽出部113が抽出した点群データから得られるマーカ距離情報と、ステップS102でスレーブ測定装置200から受信したマーカ距離情報とを比較する。これにより、他装置識別部114は、ステップS101で他装置データ抽出部113が抽出した点群データとスレーブ測定装置200とを対応付ける。 Next, in step S103, the other device identifying unit 114 of the master measuring device 100 extracts marker distance information obtained from the point cloud data extracted by the other device data extracting unit 113 in step S101, and Compare with the received marker distance information. As a result, the other device identifying unit 114 associates the point cloud data extracted by the other device data extracting unit 113 in step S101 with the slave measuring device 200 .

次に、ステップS104において、マスター測定装置100の位置特定部116は、スレーブ測定装置200の位置を、ステップS101で抽出された点群データに基づいて特定する。そして、ステップS105において、マスター測定装置100の姿勢特定部117は、スレーブ測定装置200の2つのマーカ153A、153Bの座標に基づいて、当該スレーブ測定装置200の姿勢を特定する。なお、上述の通り、位置特定部116は、必要に応じて、スレーブ測定装置200からジャイロデータを取得し、ジャイロデータを参照してスレーブ測定装置200の姿勢を特定する。そして、ステップS106で、座標変換決定部115はステップS104、S105における特定結果を用いて、マスター測定装置100により得られた点群データとスレーブ測定装置200により得られた点群データとを合成する際に行われる座標変換を決定する。
以上により、測定システム10におけるキャリブレーション動作が終了する。その後、測定システム10による物体の測定の動作として、ステップS107以降の処理が行われる。
Next, in step S104, the position specifying unit 116 of the master measuring device 100 specifies the position of the slave measuring device 200 based on the point cloud data extracted in step S101. Then, in step S<b>105 , the posture identifying section 117 of the master measuring device 100 identifies the posture of the slave measuring device 200 based on the coordinates of the two markers 153</b>A and 153</b>B of the slave measuring device 200 . As described above, the position specifying unit 116 acquires gyro data from the slave measuring device 200 and specifies the attitude of the slave measuring device 200 by referring to the gyro data. Then, in step S106, the coordinate transformation determining unit 115 synthesizes the point cloud data obtained by the master measuring device 100 and the point cloud data obtained by the slave measuring device 200 using the identification results in steps S104 and S105. Determines the coordinate transformations to be performed when
With the above, the calibration operation in the measurement system 10 is completed. After that, as the operation of measuring the object by the measurement system 10, the processes after step S107 are performed.

ステップS107において、マスター測定装置100のLiDAR制御部112は、マスター測定装置100に搭載されたLiDAR装置151による測定によって得られた点群データを取得する。同様に、スレーブ測定装置200のLiDAR制御部212は、スレーブ測定装置200に搭載されたLiDAR装置151による測定によって得られた点群データを取得する。 In step S<b>107 , the LiDAR control unit 112 of the master measurement device 100 acquires point cloud data obtained by measurement by the LiDAR device 151 mounted on the master measurement device 100 . Similarly, the LiDAR control unit 212 of the slave measuring device 200 acquires point cloud data obtained by measurement by the LiDAR device 151 mounted on the slave measuring device 200 .

次に、ステップS108において、スレーブ測定装置200の通信部211は、ステップS107で取得した点群データをマスター測定装置100へ送信する。 Next, in step S<b>108 , the communication unit 211 of the slave measuring device 200 transmits the point cloud data acquired in step S<b>107 to the master measuring device 100 .

次に、ステップS109において、マスター測定装置100の合成処理部118は、ステップS106において決定された座標変換に従った処理を行って、ステップS107でマスター測定装置100及びスレーブ測定装置200が取得した点群データを合成する。 Next, in step S109, the synthesis processing unit 118 of the master measuring device 100 performs processing according to the coordinate conversion determined in step S106, and the points obtained by the master measuring device 100 and the slave measuring devices 200 in step S107 are Synthesize group data.

以上、実施の形態1について説明した。本実施の形態1によれば、測定のために元々備えているLiDAR装置151の出力を用いて、測定装置間の位置関係の特定が行われる。このため、測定システム10によれば、位置情報取得サービスを用いなくても各測定装置の位置関係を特定するとともに、各測定装置が取得した点群データを合成することができる。また、このように位置関係の特定が容易に可能となるため、測定装置の配置変更が行われる場合であっても、短時間で任意の物体の測定を開始することができる。また、LiDARによる測定により測定装置間の位置関係の特定が行われるため、精度よく、位置関係の特定を行うことができる。 The first embodiment has been described above. According to the first embodiment, the output of the LiDAR device 151 originally provided for measurement is used to identify the positional relationship between the measurement devices. Therefore, according to the measurement system 10, it is possible to specify the positional relationship of each measuring device without using a position information acquisition service, and to synthesize the point cloud data acquired by each measuring device. In addition, since the positional relationship can be easily identified in this way, it is possible to start measuring an arbitrary object in a short period of time even when the arrangement of the measuring devices is changed. In addition, since the positional relationship between the measurement devices is specified by measurement using LiDAR, the positional relationship can be specified with high accuracy.

<実施の形態2>
次に、実施の形態2について説明する。実施の形態2では、全てのスレーブ測定装置200をマスター測定装置100のLiDAR装置151が測定できない場合であっても、全てのスレーブ測定装置200に対する座標変換を決定することができる構成について示す。図10は、実施の形態2にかかるスレーブ測定装置200の制御装置210aの構成の一例を示すブロック図である。なお、実施の形態2にかかるマスター測定装置100の制御装置110の構成例は、実施の形態1と同様であるため、図示を省略する。以下、実施の形態1と異なる点について具体的に説明する。なお、マスター測定装置100のLiDAR装置151により測定できないスレーブ測定装置200をマスター死角装置と称すこととする。マスター死角装置は、マスター測定装置100の他装置データ抽出部113により点群データが抽出されなかったスレーブ測定装置200に相当する。また、マスター測定装置100のLiDAR装置151により測定できるスレーブ測定装置200をマスター可視装置と称すこととする。マスター可視装置は、マスター測定装置100の他装置データ抽出部113により点群データが抽出されたスレーブ測定装置200に相当する。
<Embodiment 2>
Next, Embodiment 2 will be described. Embodiment 2 shows a configuration capable of determining coordinate transformation for all slave measuring devices 200 even when the LiDAR device 151 of the master measuring device 100 cannot measure all the slave measuring devices 200 . FIG. 10 is a block diagram showing an example of the configuration of the control device 210a of the slave measuring device 200 according to the second embodiment. A configuration example of the control device 110 of the master measuring device 100 according to the second embodiment is the same as that of the first embodiment, so illustration is omitted. Differences from the first embodiment will be specifically described below. The slave measuring device 200 that cannot be measured by the LiDAR device 151 of the master measuring device 100 is called a master blind spot device. The master blind spot device corresponds to the slave measuring device 200 from which the other device data extraction unit 113 of the master measuring device 100 did not extract point cloud data. Also, the slave measuring device 200 that can be measured by the LiDAR device 151 of the master measuring device 100 is called a master visible device. The master visible device corresponds to the slave measuring device 200 from which the point cloud data is extracted by the other device data extraction unit 113 of the master measuring device 100 .

図11は、測定装置の配置例を示す模式図である。図11に示した例では、障害物90が存在するため、全てのスレーブ測定装置200をマスター測定装置100のLiDAR装置151が測定できない。図11に示した例では、スレーブ測定装置200_1がマスター死角装置であり、スレーブ測定装置200_2及び200_3がマスター可視装置である。また、図11に示した例では、マスター可視装置であるスレーブ測定装置200_2のLiDAR装置151によって、マスター死角装置であるスレーブ測定装置200_1の測定が可能である。本実施の形態では、マスター測定装置100は、スレーブ測定装置200_2による測定結果を利用することで、マスター死角装置であるスレーブ測定装置200_1の位置及び姿勢を特定する。以下、本実施の形態について詳細に説明する。 FIG. 11 is a schematic diagram showing an example of the arrangement of measuring devices. In the example shown in FIG. 11, the LiDAR device 151 of the master measurement device 100 cannot measure all the slave measurement devices 200 due to the presence of the obstacle 90 . In the example shown in FIG. 11, slave measuring device 200_1 is the master blind spot device and slave measuring devices 200_2 and 200_3 are the master visibility devices. In the example shown in FIG. 11, the LiDAR device 151 of the slave measuring device 200_2, which is the master visual device, can measure the slave measuring device 200_1, which is the master blind spot device. In the present embodiment, master measuring device 100 identifies the position and orientation of slave measuring device 200_1, which is the master blind spot device, by using the measurement result of slave measuring device 200_2. The present embodiment will be described in detail below.

本実施の形態では、マスター測定装置100により行われるスレーブ測定装置200の位置及び姿勢の決定と同様な処理を、マスター可視装置が実施する。このため、図10に示すように、各スレーブ測定装置200の制御装置210aは、図6に示した制御装置210の構成に加え、さらに、他装置識別部214及び特定部215を有する。なお、他装置識別部214及び特定部215も、例えば、プロセッサ162がメモリ161からプログラムを読み出して実行すること実現される。 In the present embodiment, the master visual device performs the same processing as determining the position and orientation of the slave measuring device 200 performed by the master measuring device 100 . For this reason, as shown in FIG. 10, the control device 210a of each slave measuring device 200 has an other device identifying section 214 and a specifying section 215 in addition to the configuration of the control device 210 shown in FIG. Note that the other device identification unit 214 and the identification unit 215 are also implemented by, for example, the processor 162 reading a program from the memory 161 and executing it.

他装置識別部214は、マスター測定装置100の他装置識別部114と同様の処理を行う。すなわち、他装置識別部214は、他装置データ抽出部213が抽出した点群データがいずれの測定装置についての点群データであるかを識別する。特に、他装置識別部214は、他装置データ抽出部213によって抽出された点群データから得られるマーカ距離情報と、マスター死角装置のLiDAR装置151が取得した点群データから得られるマーカ距離情報とを比較する。これにより、他装置識別部214は、他装置データ抽出部213によって抽出された点群データとマスター死角装置とを対応付ける。なお、本実施の形態では、スレーブ測定装置200は、マスター死角装置のLiDAR装置151が取得した点群データから得られるマーカ距離情報を、マスター測定装置100を介して取得するが、マスター死角装置から直接受信してもよい。 The other device identification section 214 performs the same processing as the other device identification section 114 of the master measurement device 100 . That is, the other device identification unit 214 identifies which measuring device the point cloud data extracted by the other device data extraction unit 213 is for. In particular, the other device identification unit 214 includes marker distance information obtained from the point cloud data extracted by the other device data extraction unit 213 and marker distance information obtained from the point cloud data obtained by the LiDAR device 151 of the master blind spot device. compare. Thereby, the other device identification unit 214 associates the point cloud data extracted by the other device data extraction unit 213 with the master blind spot device. In the present embodiment, the slave measuring device 200 acquires marker distance information obtained from the point cloud data acquired by the LiDAR device 151 of the master blind spot device via the master measuring device 100. You can receive it directly.

特定部215は、位置特定部216と姿勢特定部217とを含む。位置特定部216は、マスター測定装置100の位置特定部116と同様の処理を行う。すなわち、位置特定部216は、他の測定装置の位置を、LiDAR制御部112が取得した点群データに基づいて特定する。特に、位置特定部216は、マスター死角装置の位置を特定する。姿勢特定部217は、マスター測定装置100の姿勢特定部117と同様の処理を行う。すなわち、姿勢特定部217は、LiDAR制御部212が取得した点群データから特定される、測定装置の2つのマーカ153A、153Bの座標に基づいて、当該測定装置の姿勢を特定する。特に、姿勢特定部217は、マスター死角装置の姿勢を特定する。スレーブ測定装置200の通信部211は、特定部215がマスター死角装置の位置及び姿勢を特定した場合、特定した位置及び姿勢をマスター測定装置100に送信する。 Identification unit 215 includes position identification unit 216 and posture identification unit 217 . The position specifying section 216 performs the same processing as the position specifying section 116 of the master measuring device 100 . That is, the position specifying unit 216 specifies the positions of other measuring devices based on the point cloud data acquired by the LiDAR control unit 112 . In particular, the locator 216 identifies the location of the master blind spot device. The attitude identifying section 217 performs the same processing as the attitude identifying section 117 of the master measuring device 100 . That is, the attitude identifying unit 217 identifies the attitude of the measuring device based on the coordinates of the two markers 153A and 153B of the measuring device, which are identified from the point cloud data acquired by the LiDAR control unit 212. In particular, the posture identification unit 217 identifies the posture of the master blind spot device. When the specifying unit 215 specifies the position and orientation of the master blind spot device, the communication unit 211 of the slave measuring device 200 transmits the specified position and orientation to the master measuring device 100 .

本実施の形態では、マスター測定装置100の通信部111は、マスター死角装置が存在する場合、マスター可視装置が特定したマスター死角装置の位置情報及び姿勢情報を取得する。つまり、通信部111は、他装置データ抽出部113により点群データが抽出されたスレーブ測定装置200の数が、測定システム10が含むスレーブ測定装置200の総数に満たない場合、マスター可視装置からマスター死角装置の位置及び姿勢情報を取得する。なお、マスター死角装置の姿勢が既知である場合には、マスター死角装置の通信部111は、マスター死角装置の位置情報だけをマスター可視装置から取得してもよい。測定システム10が含むスレーブ測定装置200の総数は、予め定められていてもよいし、マスター測定装置100と通信を行ったスレーブ測定装置200の数から、マスター測定装置100(通信部111)が特定してもよい。本実施の形態の通信部111は、不足情報取得部と称されてもよい。 In this embodiment, the communication unit 111 of the master measuring device 100 acquires the position information and orientation information of the master blind spot device specified by the master visual device when the master blind spot device is present. That is, when the number of slave measuring devices 200 whose point cloud data has been extracted by the other device data extracting unit 113 is less than the total number of slave measuring devices 200 included in the measurement system 10, the communication unit 111 converts the master visible device to the master Acquire the position and attitude information of the blind spot device. Note that when the attitude of the master blind spot device is known, the communication unit 111 of the master blind spot device may acquire only the position information of the master blind spot device from the master visual device. The total number of slave measuring devices 200 included in the measuring system 10 may be predetermined, or the master measuring device 100 (communication section 111) may specify the number of slave measuring devices 200 that have communicated with the master measuring device 100. You may The communication unit 111 of this embodiment may be called a lack information acquisition unit.

本実施の形態では、マスター測定装置100の通信部111は、マスター死角装置の位置情報及び姿勢情報を取得するために、スレーブ測定装置200の他装置識別部214の処理のための情報を各スレーブ測定装置200に送信する。具体的には、マスター測定装置100が各スレーブ測定装置200から収集したマーカ距離情報を各スレーブ測定装置200に送信する。なお、各スレーブ測定装置200は、他のそれぞれのスレーブ測定装置200からマーカ距離情報を収集してもよい。その場合には、マスター測定装置100の通信部111は、マスター測定装置100が収集したマーカ距離情報を各スレーブ測定装置200に配信しなくてもよい。また、マスター測定装置100の通信部111は、マスター測定装置100の他装置識別部114が識別したスレーブ測定装置200(すなわちマスター可視装置)の識別情報を各スレーブ測定装置200へ送信する。これに代えて、マスター測定装置100の通信部111は、マスター測定装置100の他装置識別部114が識別できなかったスレーブ測定装置200(すなわちマスター死角装置)の識別情報を各スレーブ測定装置200へ送信してもよい。これにより、スレーブ測定装置200の他装置識別部214は、このスレーブ測定装置200自身が特定したマーカ距離情報と、マスター死角装置が特定したマーカ距離情報との比較処理以外の比較処理を省略することができる。つまり、スレーブ測定装置200の他装置識別部214は、マスター死角装置と点群データとの対応付けに必要な処理だけを実施することができる。 In the present embodiment, the communication unit 111 of the master measuring device 100 transmits information for processing of the other device identification unit 214 of the slave measuring device 200 to each slave in order to acquire the position information and orientation information of the master blind spot device. It transmits to the measuring device 200 . Specifically, the master measuring device 100 transmits the marker distance information collected from each slave measuring device 200 to each slave measuring device 200 . Note that each slave measuring device 200 may collect marker distance information from each other slave measuring device 200 . In that case, the communication section 111 of the master measuring device 100 does not have to distribute the marker distance information collected by the master measuring device 100 to each slave measuring device 200 . Also, the communication unit 111 of the master measuring device 100 transmits the identification information of the slave measuring devices 200 identified by the other device identifying unit 114 of the master measuring device 100 (that is, the master visible device) to each slave measuring device 200 . Instead, the communication unit 111 of the master measuring device 100 transmits the identification information of the slave measuring devices 200 (that is, the master blind spot device) that the other device identifying unit 114 of the master measuring device 100 could not identify to each slave measuring device 200. You may send. As a result, the other device identification unit 214 of the slave measuring device 200 can omit comparison processing other than the comparison processing between the marker distance information specified by the slave measuring device 200 itself and the marker distance information specified by the master blind spot device. can be done. In other words, the other device identification unit 214 of the slave measuring device 200 can perform only the processing necessary for associating the master blind spot device with the point cloud data.

マスター可視装置から取得したマスター死角装置の位置情報及び姿勢情報は、マスター可視装置の座標系を基準としたものである。このため、本実施の形態では、マスター測定装置100の合成処理部118は、マスター死角装置のLiDAR装置151が取得した点群データについて、次のような座標変換を行う。すなわち、合成処理部118は、マスター可視装置から取得した位置情報及び姿勢情報と、座標変換決定部115が特定した当該マスター可視装置についての位置及び姿勢とに基づいて、マスター死角装置の点群データの座標変換を行う。つまり、合成処理部118は、マスター死角装置の点群データをマスター可視装置の座標系にマッピングし、マッピングされた点群データを、さらにマスター測定装置100の座標系にマッピングする処理を行う。 The position and orientation information of the master blind spot device obtained from the master visual device is referenced to the coordinate system of the master visual device. Therefore, in the present embodiment, the synthesis processing unit 118 of the master measurement device 100 performs the following coordinate transformation on the point cloud data acquired by the LiDAR device 151 of the master blind spot device. That is, the synthesis processing unit 118 generates point cloud data of the master blind spot device based on the position information and orientation information acquired from the master visual device and the position and orientation of the master visual device specified by the coordinate transformation determination unit 115. coordinate transformation. That is, the synthesis processing unit 118 maps the point cloud data of the master blind spot device to the coordinate system of the master visual device, and further maps the mapped point cloud data to the coordinate system of the master measurement device 100 .

次に、実施の形態2にかかる測定システム10の動作の流れについて説明する。図12は、測定システム10の動作の一例を示すシーケンスチャートである。以下、図12に沿って、測定システム10の動作の流れについて説明する。 Next, the operation flow of the measurement system 10 according to the second embodiment will be described. FIG. 12 is a sequence chart showing an example of the operation of the measurement system 10. FIG. The operation flow of the measurement system 10 will be described below with reference to FIG.

図12に示したシーケンスチャートは、ステップS200からステップS204の処理がステップS105とステップS106の間に追加されている点で、図8に示したシーケンスチャートと異なっている。ステップS200からステップS204の処理は、マスター死角装置が存在する場合に行われる処理である。つまり、これらの処理は、マスター測定装置100の他装置データ抽出部113により点群データが抽出されたスレーブ測定装置200の数が、測定システム10が含むスレーブ測定装置200の総数に満たない場合に行われる。 The sequence chart shown in FIG. 12 differs from the sequence chart shown in FIG. 8 in that processing from step S200 to step S204 is added between steps S105 and S106. The processing from step S200 to step S204 is processing performed when a master blind spot device exists. In other words, these processes are performed when the number of slave measuring devices 200 from which point cloud data has been extracted by the other device data extraction unit 113 of the master measuring device 100 is less than the total number of slave measuring devices 200 included in the measuring system 10. done.

以下、図8に示したシーケンスチャートと異なる点について説明する。マスター測定装置100の他装置データ抽出部113により点群データが抽出されたスレーブ測定装置200の数が、測定システム10が含むスレーブ測定装置200の総数に満たない場合、ステップS105の後、ステップS200の処理が行われる。 Differences from the sequence chart shown in FIG. 8 will be described below. If the number of slave measuring devices 200 from which point cloud data has been extracted by the other device data extraction unit 113 of the master measuring device 100 is less than the total number of slave measuring devices 200 included in the measuring system 10, step S200 is performed after step S105. is processed.

ステップS200において、マスター測定装置100の通信部111は、マスター死角装置の位置情報及び姿勢情報を取得するために、スレーブ測定装置200の他装置識別部214の処理のための情報を各スレーブ測定装置200に送信する。具体的には、マスター測定装置100の通信部111は、マスター可視装置の識別情報又はマスター死角装置の識別情報を各スレーブ測定装置200へ送信する。また、マスター測定装置100の通信部111は、ステップS102においてマスター測定装置100が各スレーブ測定装置200から収集したマーカ距離情報を各スレーブ測定装置200に送信する。 In step S200, the communication unit 111 of the master measuring device 100 sends information for processing by the other device identification unit 214 of the slave measuring device 200 to each slave measuring device in order to acquire the position information and orientation information of the master blind spot device. 200. Specifically, the communication unit 111 of the master measuring device 100 transmits the identification information of the master visual device or the identification information of the master blind spot device to each slave measuring device 200 . Further, the communication unit 111 of the master measuring device 100 transmits to each slave measuring device 200 the marker distance information that the master measuring device 100 has collected from each slave measuring device 200 in step S102.

次に、ステップS201において、スレーブ測定装置200の他装置識別部214は、ステップS101で他装置データ抽出部213が抽出した点群データから得られるマーカ距離情報とステップS200で受信したマスター死角装置のマーカ距離情報とを比較する。これにより、マスター死角装置の測定が可能であるスレーブ測定装置200の他装置識別部214は、ステップS101で他装置データ抽出部213が抽出した点群データとマスター死角装置とを対応付ける。 Next, in step S201, the other device identification unit 214 of the slave measuring device 200 identifies the marker distance information obtained from the point cloud data extracted by the other device data extraction unit 213 in step S101 and the master blind spot device received in step S200. Compare with marker distance information. Thereby, the other device identifying unit 214 of the slave measuring device 200 capable of measuring the master blind spot device associates the point cloud data extracted by the other device data extracting unit 213 in step S101 with the master blind spot device.

次に、ステップS202において、マスター死角装置の測定が可能であるスレーブ測定装置200の位置特定部216は、マスター死角装置の位置を、ステップS101で抽出された点群データに基づいて特定する。そして、ステップS203において、マスター死角装置の測定が可能であるスレーブ測定装置200の姿勢特定部217は、マスター死角装置の姿勢を特定する。 Next, in step S202, the position specifying unit 216 of the slave measuring device 200 capable of measuring the master blind spot device specifies the position of the master blind spot device based on the point cloud data extracted in step S101. Then, in step S203, the posture identifying unit 217 of the slave measuring device 200 capable of measuring the master blind spot device identifies the posture of the master blind spot device.

そして、ステップS204において、マスター死角装置の測定が可能であるスレーブ測定装置200の通信部211は、マスター死角装置について特定した位置及び姿勢をマスター測定装置100に送信する。ステップS204の後、処理はステップS106へ移行する。ステップS106では、座標変換決定部115は、座標変換を決定する。具体的には、座標変換決定部115は、ステップS104及びステップS105における特定結果を用いて、マスター測定装置100により得られた点群データとマスター可視装置により得られた点群データとを合成する際に行われる座標変換を決定する。また、座標変換決定部115は、ステップS204で受信した情報を用いて、マスター測定装置100により得られた点群データとマスター死角装置により得られた点群データとを合成する際に行われる座標変換を決定する。 Then, in step S<b>204 , the communication unit 211 of the slave measuring device 200 capable of measuring the master blind spot device transmits the specified position and orientation of the master blind spot device to the master measuring device 100 . After step S204, the process proceeds to step S106. In step S106, the coordinate transformation determination unit 115 determines coordinate transformation. Specifically, the coordinate transformation determining unit 115 synthesizes the point cloud data obtained by the master measuring device 100 and the point cloud data obtained by the master visualizing device using the identification results in steps S104 and S105. Determines the coordinate transformations to be performed when In addition, the coordinate transformation determining unit 115 uses the information received in step S204 to convert the coordinates used when synthesizing the point cloud data obtained by the master measuring device 100 and the point cloud data obtained by the master blind spot device. Determine conversion.

以上、実施の形態2について説明した。本実施の形態によれば、マスター測定装置100は、マスター死角装置が存在する場合、マスター可視装置からマスター死角装置の位置及び姿勢を取得する。このため、全てのスレーブ測定装置200をマスター測定装置100のLiDAR装置151が測定できない場合であっても、全てのスレーブ測定装置200に対する座標変換を決定することができる。 The second embodiment has been described above. According to this embodiment, the master measuring device 100 acquires the position and orientation of the master blind spot device from the master visual device when the master blind spot device is present. Therefore, even if the LiDAR device 151 of the master measurement device 100 cannot measure all the slave measurement devices 200, coordinate transformation for all the slave measurement devices 200 can be determined.

なお、本発明は上記実施の形態に限られたものではなく、趣旨を逸脱しない範囲で適宜変更することが可能である。 It should be noted that the present invention is not limited to the above embodiments, and can be modified as appropriate without departing from the scope of the invention.

上記の実施形態の一部又は全部は、以下の付記のようにも記載され得るが、以下には限られない。
(付記1)
測定装置であって、
空間に存在する物体の表面の複数箇所についての前記測定装置を基準とした3次元座標系における座標を表わす点群データを取得するセンサと、
空間に存在する物体の表面の複数箇所についての他装置を基準とした3次元座標系における座標を表わす点群データを取得するセンサを備えた前記他装置の位置を、前記測定装置が備える前記センサが取得した点群データに基づいて特定する位置特定部と、
特定された前記他装置の位置に基づいて、前記測定装置の前記センサが取得した点群データと、前記他装置の前記センサが取得した点群データとを合成する合成処理部と
を有する測定装置。
(付記2)
前記他装置には、所定の形状のマーカが取り付けられており、
前記測定装置は、
前記測定装置の前記センサが取得した点群データにより表される物体の形状と前記マーカの前記所定の形状とを比較することにより、前記他装置の前記マーカについての点群データを抽出する他装置データ抽出部を
さらに有し、
前記位置特定部は、抽出された点群データに基づいて前記他装置の位置を特定する
付記1に記載の測定装置。
(付記3)
前記測定装置には、前記マーカが取り付けられており、
前記測定装置は、
複数の前記他装置についての点群データが抽出された場合に、抽出された点群データから得られるマーカ距離情報と、前記他装置の前記センサが取得した点群データから得られるマーカ距離情報とを比較することにより、抽出された点群データと前記他装置とを対応付ける他装置識別部を
さらに有する付記2に記載の測定装置。
(付記4)
前記他装置には、2つの前記マーカが取り付けられており、
前記測定装置は、
前記測定装置の前記センサが取得した点群データから特定される2つの前記マーカの座標に基づいて、当該他装置の姿勢を特定する姿勢特定部を
さらに有し、
前記合成処理部は、特定された姿勢にも基づいて、前記測定装置の前記センサが取得した点群データと、前記他装置の前記センサが取得した点群データとを合成する
付記2又は3に記載の測定装置。
(付記5)
前記測定装置は、
前記他装置から、当該他装置に設けられたジャイロセンサの出力データを取得するジャイロデータ取得部を
さらに有し、
前記姿勢特定部は、さらに前記ジャイロセンサの出力データを用いて、前記他装置の姿勢を特定する
付記4に記載の測定装置。
(付記6)
前記測定装置は、
前記他装置データ抽出部により点群データが抽出された前記他装置の数が、前記他装置の総数に満たない場合、前記他装置データ抽出部により点群データが抽出された前記他装置から、前記他装置データ抽出部により点群データが抽出されなかった前記他装置の位置情報を取得する不足情報取得部を
さらに有する付記2乃至4のいずれか一項に記載の測定装置。
(付記7)
前記センサは、LiDAR(Light Detection and Ranging)装置である
付記1乃至6のいずれか一項に記載の測定装置。
(付記8)
一つのマスター測定装置と、
一つ以上のスレーブ測定装置と
を備え、
前記スレーブ測定装置は、
空間に存在する物体の表面の複数箇所についての前記スレーブ測定装置を基準とした3次元座標系における座標を表わす点群データを取得するセンサを
有し、
前記マスター測定装置は、
空間に存在する物体の表面の複数箇所についての前記マスター測定装置を基準とした3次元座標系における座標を表わす点群データを取得するセンサと、
前記スレーブ測定装置の位置を、前記マスター測定装置が備える前記センサが取得した点群データに基づいて特定する位置特定部と、
特定された前記スレーブ測定装置の位置に基づいて、前記マスター測定装置の前記センサが取得した点群データと、前記スレーブ測定装置の前記センサが取得した点群データとを合成する合成処理部と
を有する
測定システム。
(付記9)
前記スレーブ測定装置には、所定の形状のマーカが取り付けられており、
前記マスター測定装置は、
前記マスター測定装置の前記センサが取得した点群データにより表される物体の形状と前記マーカの前記所定の形状とを比較することにより、前記スレーブ測定装置の前記マーカについての点群データを抽出する他装置データ抽出部を
さらに有し、
前記位置特定部は、抽出された点群データに基づいて前記スレーブ測定装置の位置を特定する
付記8に記載の測定システム。
(付記10)
測定装置の制御方法であって、
空間に存在する物体の表面の複数箇所についての前記測定装置を基準とした3次元座標系における座標を表わす点群データを前記測定装置が備えるセンサにより取得し、
空間に存在する物体の表面の複数箇所についての他装置を基準とした3次元座標系における座標を表わす点群データを取得するセンサを備えた前記他装置の位置を、前記測定装置が備える前記センサが取得した点群データに基づいて特定し、
特定された前記他装置の位置に基づいて、前記測定装置の前記センサが取得した点群データと、前記他装置の前記センサが取得した点群データとを合成する
制御方法。
(付記11)
測定装置のコンピュータが用いるプログラムであって、
空間に存在する物体の表面の複数箇所についての前記測定装置を基準とした3次元座標系における座標を表わす点群データを前記測定装置が備えるセンサにより取得するステップと、
空間に存在する物体の表面の複数箇所についての他装置を基準とした3次元座標系における座標を表わす点群データを取得するセンサを備えた前記他装置の位置を、前記測定装置が備える前記センサが取得した点群データに基づいて特定する位置特定ステップと、
特定された前記他装置の位置に基づいて、前記測定装置の前記センサが取得した点群データと、前記他装置の前記センサが取得した点群データとを合成する合成処理ステップと
を前記コンピュータに実行させるプログラム。
Some or all of the above embodiments may also be described in the following additional remarks, but are not limited to the following.
(Appendix 1)
A measuring device,
a sensor that acquires point cloud data representing coordinates in a three-dimensional coordinate system with respect to the measuring device for a plurality of locations on the surface of an object existing in space;
The sensor provided in the measuring device is provided with a sensor that acquires point cloud data representing coordinates in a three-dimensional coordinate system with respect to the other device for a plurality of locations on the surface of an object existing in space. A position specifying unit that specifies based on the point cloud data acquired by
a synthesis processing unit that synthesizes the point cloud data acquired by the sensor of the measuring device and the point cloud data acquired by the sensor of the other device based on the specified position of the other device. .
(Appendix 2)
A marker having a predetermined shape is attached to the other device,
The measuring device is
Another device for extracting point cloud data about the marker of the other device by comparing the shape of the object represented by the point cloud data acquired by the sensor of the measuring device and the predetermined shape of the marker. further comprising a data extractor;
The measuring device according to appendix 1, wherein the position specifying unit specifies the position of the other device based on the extracted point cloud data.
(Appendix 3)
The marker is attached to the measuring device,
The measuring device is
Marker distance information obtained from the extracted point cloud data and marker distance information obtained from the point cloud data acquired by the sensor of the other device when point cloud data is extracted for a plurality of the other devices. The measuring device according to appendix 2, further comprising: a different device identifying unit that associates the extracted point cloud data with the different device by comparing the .
(Appendix 4)
Two of the markers are attached to the other device,
The measuring device is
an orientation identifying unit that identifies the orientation of the other device based on the coordinates of the two markers identified from the point cloud data acquired by the sensor of the measuring device;
The synthesizing unit synthesizes the point cloud data acquired by the sensor of the measuring device and the point cloud data acquired by the sensor of the other device, also based on the specified orientation. Measurement device as described.
(Appendix 5)
The measuring device is
further comprising a gyro data acquisition unit that acquires output data of a gyro sensor provided in the other device from the other device;
5. The measuring device according to appendix 4, wherein the attitude identifying unit further uses the output data of the gyro sensor to identify the attitude of the other device.
(Appendix 6)
The measuring device is
When the number of the other devices from which the point cloud data is extracted by the other device data extraction unit is less than the total number of the other devices, from the other devices from which the point cloud data is extracted by the other device data extraction unit, 5. The measuring apparatus according to any one of appendices 2 to 4, further comprising a missing information acquisition unit that acquires position information of the other device whose point cloud data is not extracted by the other device data extraction unit.
(Appendix 7)
7. The measuring device according to any one of appendices 1 to 6, wherein the sensor is a LiDAR (Light Detection and Ranging) device.
(Appendix 8)
one master measuring device;
one or more slave measuring devices;
The slave measuring device
a sensor that acquires point cloud data representing coordinates in a three-dimensional coordinate system with respect to the slave measuring device for a plurality of locations on the surface of an object existing in space;
The master measuring device
a sensor that acquires point cloud data representing coordinates in a three-dimensional coordinate system with respect to the master measuring device for a plurality of locations on the surface of an object existing in space;
a position specifying unit that specifies the position of the slave measuring device based on the point cloud data acquired by the sensor included in the master measuring device;
a synthesizing unit that synthesizes the point cloud data acquired by the sensor of the master measuring device and the point cloud data acquired by the sensor of the slave measuring device based on the identified position of the slave measuring device; have a measurement system.
(Appendix 9)
A marker having a predetermined shape is attached to the slave measuring device,
The master measuring device
extracting point cloud data for the marker of the slave measuring device by comparing the shape of the object represented by the point cloud data acquired by the sensor of the master measuring device with the predetermined shape of the marker; further comprising a data extraction unit for other devices,
9. The measurement system of claim 8, wherein the location identifying unit locates the slave measurement device based on the extracted point cloud data.
(Appendix 10)
A control method for a measuring device, comprising:
Acquiring point cloud data representing coordinates in a three-dimensional coordinate system with respect to the measuring device for a plurality of locations on the surface of an object existing in space by a sensor provided in the measuring device;
The sensor provided in the measuring device is provided with a sensor that acquires point cloud data representing coordinates in a three-dimensional coordinate system with respect to the other device for a plurality of locations on the surface of an object existing in space. identified based on the point cloud data acquired by
A control method of synthesizing point cloud data acquired by the sensor of the measuring device and point cloud data acquired by the sensor of the other device based on the specified position of the other device.
(Appendix 11)
A program used by the computer of the measuring device,
a step of acquiring point cloud data representing coordinates in a three-dimensional coordinate system with respect to the measuring device for a plurality of locations on the surface of an object existing in space, using a sensor provided in the measuring device;
The sensor provided in the measuring device is provided with a sensor that acquires point cloud data representing coordinates in a three-dimensional coordinate system with respect to the other device for a plurality of locations on the surface of an object existing in space. a localization step of identifying based on the point cloud data acquired by
a synthesizing step of synthesizing the point cloud data acquired by the sensor of the measuring device and the point cloud data acquired by the sensor of the other device, based on the specified position of the other device; program to run.

1 測定装置
2 センサ
3 位置特定部
4 合成処理部
10 測定システム
90 障害物
100 マスター測定装置
110 制御装置
111 通信部
112 LiDAR制御部
113 他装置データ抽出部
114 他装置識別部
115 座標変換決定部
116 位置特定部
117 姿勢特定部
118 合成処理部
150 台座
151 LiDAR装置
152 ジャイロセンサ
153A マーカ
153B マーカ
154A ポール
154B ポール
160 ネットワークインタフェース
161 メモリ
162 プロセッサ
200 スレーブ測定装置
210 制御装置
210a 制御装置
211 通信部
212 LiDAR制御部
213 他装置データ抽出部
214 他装置識別部
215 特定部
216 位置特定部
217 姿勢特定部
1 measurement device 2 sensor 3 position specifying unit 4 synthesis processing unit 10 measurement system 90 obstacle 100 master measurement device 110 control device 111 communication unit 112 LiDAR control unit 113 other device data extraction unit 114 other device identification unit 115 coordinate transformation determination unit 116 Position specifying unit 117 Posture specifying unit 118 Synthesis processing unit 150 Base 151 LiDAR device 152 Gyro sensor 153A Marker 153B Marker 154A Pole 154B Pole 160 Network interface 161 Memory 162 Processor 200 Slave measuring device 210 Control device 210a Control device 211 Communication unit 212 LiDAR control Unit 213 Other device data extraction unit 214 Other device identification unit 215 Identification unit 216 Position identification unit 217 Posture identification unit

Claims (10)

測定装置であって、
空間に存在する物体の表面の複数箇所についての前記測定装置を基準とした3次元座標系における座標を表わす点群データを取得するセンサと、
空間に存在する物体の表面の複数箇所についての他装置を基準とした3次元座標系における座標を表わす点群データを取得するセンサを備えた前記他装置の位置を、前記測定装置が備える前記センサが取得した点群データに基づいて特定する位置特定部と、
特定された前記他装置の位置に基づいて、前記測定装置の前記センサが取得した点群データと、前記他装置の前記センサが取得した点群データとを合成する合成処理部と
を有する測定装置。
A measuring device,
a sensor that acquires point cloud data representing coordinates in a three-dimensional coordinate system with respect to the measuring device for a plurality of locations on the surface of an object existing in space;
The sensor provided in the measuring device is provided with a sensor that acquires point cloud data representing coordinates in a three-dimensional coordinate system with respect to the other device for a plurality of locations on the surface of an object existing in space. A position specifying unit that specifies based on the point cloud data acquired by
a synthesis processing unit that synthesizes the point cloud data acquired by the sensor of the measuring device and the point cloud data acquired by the sensor of the other device based on the specified position of the other device. .
前記他装置には、所定の形状のマーカが取り付けられており、
前記測定装置は、
前記測定装置の前記センサが取得した点群データにより表される物体の形状と前記マーカの前記所定の形状とを比較することにより、前記他装置の前記マーカについての点群データを抽出する他装置データ抽出部を
さらに有し、
前記位置特定部は、抽出された点群データに基づいて前記他装置の位置を特定する
請求項1に記載の測定装置。
A marker having a predetermined shape is attached to the other device,
The measuring device is
Another device for extracting point cloud data about the marker of the other device by comparing the shape of the object represented by the point cloud data acquired by the sensor of the measuring device and the predetermined shape of the marker. further comprising a data extractor;
The measuring device according to claim 1, wherein the position specifying unit specifies the position of the other device based on the extracted point cloud data.
前記測定装置には、前記マーカが取り付けられており、
前記測定装置は、
複数の前記他装置についての点群データが抽出された場合に、抽出された点群データから得られるマーカ距離情報と、前記他装置の前記センサが取得した点群データから得られるマーカ距離情報とを比較することにより、抽出された点群データと前記他装置とを対応付ける他装置識別部を
さらに有する請求項2に記載の測定装置。
The marker is attached to the measuring device,
The measuring device is
Marker distance information obtained from the extracted point cloud data and marker distance information obtained from the point cloud data acquired by the sensor of the other device when point cloud data is extracted for a plurality of the other devices. 3. The measuring apparatus according to claim 2, further comprising: an other apparatus identification unit that associates the extracted point cloud data with the other apparatus by comparing .
前記他装置には、2つの前記マーカが取り付けられており、
前記測定装置は、
前記測定装置の前記センサが取得した点群データから特定される2つの前記マーカの座標に基づいて、当該他装置の姿勢を特定する姿勢特定部を
さらに有し、
前記合成処理部は、特定された姿勢にも基づいて、前記測定装置の前記センサが取得した点群データと、前記他装置の前記センサが取得した点群データとを合成する
請求項2又は3に記載の測定装置。
Two of the markers are attached to the other device,
The measuring device is
an orientation identifying unit that identifies the orientation of the other device based on the coordinates of the two markers identified from the point cloud data acquired by the sensor of the measuring device;
4. The synthesizing unit synthesizes the point cloud data acquired by the sensor of the measuring device and the point cloud data acquired by the sensor of the other device, also based on the specified orientation. The measuring device according to .
前記測定装置は、
前記他装置から、当該他装置に設けられたジャイロセンサの出力データを取得するジャイロデータ取得部を
さらに有し、
前記姿勢特定部は、さらに前記ジャイロセンサの出力データを用いて、前記他装置の姿勢を特定する
請求項4に記載の測定装置。
The measuring device is
further comprising a gyro data acquisition unit that acquires output data of a gyro sensor provided in the other device from the other device;
5. The measuring device according to claim 4, wherein the orientation identification unit further uses the output data of the gyro sensor to identify the orientation of the other device.
前記測定装置は、
前記他装置データ抽出部により点群データが抽出された前記他装置の数が、前記他装置の総数に満たない場合、前記他装置データ抽出部により点群データが抽出された前記他装置から、前記他装置データ抽出部により点群データが抽出されなかった前記他装置の位置情報を取得する不足情報取得部を
さらに有する請求項2乃至4のいずれか一項に記載の測定装置。
The measuring device is
When the number of the other devices from which the point cloud data is extracted by the other device data extraction unit is less than the total number of the other devices, from the other devices from which the point cloud data is extracted by the other device data extraction unit, The measuring apparatus according to any one of claims 2 to 4, further comprising a missing information acquisition unit that acquires position information of the other device whose point cloud data is not extracted by the other device data extraction unit.
前記センサは、LiDAR(Light Detection and Ranging)装置である
請求項1乃至6のいずれか一項に記載の測定装置。
The measuring device according to any one of claims 1 to 6, wherein the sensor is a LiDAR (Light Detection and Ranging) device.
一つのマスター測定装置と、
一つ以上のスレーブ測定装置と
を備え、
前記スレーブ測定装置は、
空間に存在する物体の表面の複数箇所についての前記スレーブ測定装置を基準とした3次元座標系における座標を表わす点群データを取得するセンサを
有し、
前記マスター測定装置は、
空間に存在する物体の表面の複数箇所についての前記マスター測定装置を基準とした3次元座標系における座標を表わす点群データを取得するセンサと、
前記スレーブ測定装置の位置を、前記マスター測定装置が備える前記センサが取得した点群データに基づいて特定する位置特定部と、
特定された前記スレーブ測定装置の位置に基づいて、前記マスター測定装置の前記センサが取得した点群データと、前記スレーブ測定装置の前記センサが取得した点群データとを合成する合成処理部と
を有する
測定システム。
one master measuring device;
one or more slave measuring devices;
The slave measuring device
a sensor that acquires point cloud data representing coordinates in a three-dimensional coordinate system with respect to the slave measuring device for a plurality of locations on the surface of an object existing in space;
The master measuring device
a sensor that acquires point cloud data representing coordinates in a three-dimensional coordinate system with respect to the master measuring device for a plurality of locations on the surface of an object existing in space;
a position specifying unit that specifies the position of the slave measuring device based on the point cloud data acquired by the sensor included in the master measuring device;
a synthesizing unit that synthesizes the point cloud data acquired by the sensor of the master measuring device and the point cloud data acquired by the sensor of the slave measuring device based on the identified position of the slave measuring device; have a measurement system.
測定装置の制御方法であって、
空間に存在する物体の表面の複数箇所についての前記測定装置を基準とした3次元座標系における座標を表わす点群データを前記測定装置が備えるセンサにより取得し、
空間に存在する物体の表面の複数箇所についての他装置を基準とした3次元座標系における座標を表わす点群データを取得するセンサを備えた前記他装置の位置を、前記測定装置が備える前記センサが取得した点群データに基づいて特定し、
特定された前記他装置の位置に基づいて、前記測定装置の前記センサが取得した点群データと、前記他装置の前記センサが取得した点群データとを合成する
制御方法。
A control method for a measuring device, comprising:
Acquiring point cloud data representing coordinates in a three-dimensional coordinate system with respect to the measuring device for a plurality of locations on the surface of an object existing in space by a sensor provided in the measuring device;
The sensor provided in the measuring device is provided with a sensor that acquires point cloud data representing coordinates in a three-dimensional coordinate system with respect to the other device for a plurality of locations on the surface of an object existing in space. identified based on the point cloud data acquired by
A control method of synthesizing point cloud data acquired by the sensor of the measuring device and point cloud data acquired by the sensor of the other device based on the specified position of the other device.
測定装置のコンピュータが用いるプログラムであって、
空間に存在する物体の表面の複数箇所についての前記測定装置を基準とした3次元座標系における座標を表わす点群データを前記測定装置が備えるセンサにより取得するステップと、
空間に存在する物体の表面の複数箇所についての他装置を基準とした3次元座標系における座標を表わす点群データを取得するセンサを備えた前記他装置の位置を、前記測定装置が備える前記センサが取得した点群データに基づいて特定する位置特定ステップと、
特定された前記他装置の位置に基づいて、前記測定装置の前記センサが取得した点群データと、前記他装置の前記センサが取得した点群データとを合成する合成処理ステップと
を前記コンピュータに実行させるプログラム。
A program used by the computer of the measuring device,
a step of acquiring point cloud data representing coordinates in a three-dimensional coordinate system with respect to the measuring device for a plurality of locations on the surface of an object existing in space, using a sensor provided in the measuring device;
The sensor provided in the measuring device is provided with a sensor that acquires point cloud data representing coordinates in a three-dimensional coordinate system with respect to the other device for a plurality of locations on the surface of an object existing in space. a localization step of identifying based on the point cloud data acquired by
a synthesizing step of synthesizing the point cloud data acquired by the sensor of the measuring device and the point cloud data acquired by the sensor of the other device, based on the specified position of the other device; program to run.
JP2021092349A 2021-06-01 2021-06-01 Measuring device, measuring system, control method, and program Active JP7414290B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021092349A JP7414290B2 (en) 2021-06-01 2021-06-01 Measuring device, measuring system, control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021092349A JP7414290B2 (en) 2021-06-01 2021-06-01 Measuring device, measuring system, control method, and program

Publications (2)

Publication Number Publication Date
JP2022184473A true JP2022184473A (en) 2022-12-13
JP7414290B2 JP7414290B2 (en) 2024-01-16

Family

ID=84437722

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021092349A Active JP7414290B2 (en) 2021-06-01 2021-06-01 Measuring device, measuring system, control method, and program

Country Status (1)

Country Link
JP (1) JP7414290B2 (en)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017090239A (en) * 2015-11-10 2017-05-25 パイオニア株式会社 Information processing device, control method, program, and storage media
JP2018112432A (en) * 2017-01-10 2018-07-19 富士通株式会社 Measurement instrument, specific program, and specific method
JP2019220143A (en) * 2018-06-19 2019-12-26 パナソニックIpマネジメント株式会社 Mobile robot
JP2021056017A (en) * 2019-09-27 2021-04-08 沖電気工業株式会社 Synthetic processing apparatus, synthetic processing system and synthetic processing method

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017090239A (en) * 2015-11-10 2017-05-25 パイオニア株式会社 Information processing device, control method, program, and storage media
JP2018112432A (en) * 2017-01-10 2018-07-19 富士通株式会社 Measurement instrument, specific program, and specific method
JP2019220143A (en) * 2018-06-19 2019-12-26 パナソニックIpマネジメント株式会社 Mobile robot
JP2021056017A (en) * 2019-09-27 2021-04-08 沖電気工業株式会社 Synthetic processing apparatus, synthetic processing system and synthetic processing method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
CHEN, MAOLIN 外4名: ""Entropy-Based Registration of Point Clouds Using Terrestrial Laser Scanning and Smartphone GPS"", SENSORS, vol. Volume 17, Issue 1, JPN7023003022, 20 January 2017 (2017-01-20), pages 197 - 26, ISSN: 0005124456 *

Also Published As

Publication number Publication date
JP7414290B2 (en) 2024-01-16

Similar Documents

Publication Publication Date Title
US11443451B2 (en) Apparatus and method for providing vehicular positioning
EP3153816B1 (en) Method, device and computer programme for extracting information about one or more spatial objects
KR102016636B1 (en) Calibration apparatus and method of camera and rader
JP6656886B2 (en) Information processing apparatus, control method, program, and storage medium
US10393513B2 (en) Laser scanner and method for surveying an object
EP1672314A3 (en) Method for preparing a stereo image and three-dimensional data preparation system
CN110595442A (en) Transmission line channel tree obstacle detection method, storage medium and computer equipment
KR101782317B1 (en) Robot calibration apparatus using three-dimensional scanner and robot calibration method using the same
KR101272422B1 (en) Device and method for locationing using laser scanner and landmark matching
JP2011112556A (en) Search target position locating device, method, and computer program
US11288554B2 (en) Determination method and determination device
JP2009198382A (en) Environment map acquiring device
JP7414290B2 (en) Measuring device, measuring system, control method, and program
KR20220001396A (en) Map producing system
WO2019087581A1 (en) Information processing device, information processing method, and program
US20220018950A1 (en) Indoor device localization
CN113109791B (en) Vehicle-mounted laser radar calibration result evaluation system and method
JP2017146907A (en) Target detector, processing method, and program
JP2010107224A (en) Position determining apparatus and apparatus for detecting changed building
JP7333870B2 (en) Equipment data processing device, equipment data processing system, equipment data processing method, and equipment data processing program
JP7110727B2 (en) Beacon transmitter position extraction system and beacon transmitter position extraction method
JP7075090B1 (en) Information processing system and information processing method
JP7117408B1 (en) POSITION CALCULATION DEVICE, PROGRAM AND POSITION CALCULATION METHOD
US20220137626A1 (en) Apparatus, method, and non-transitory computer-readable storage medium
JP6761831B2 (en) Columnar object state detection device, columnar object state detection method and columnar object state detection processing program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221007

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230803

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230808

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231006

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231128

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231221

R151 Written notification of patent or utility model registration

Ref document number: 7414290

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151