JP7229102B2 - Three-dimensional measurement device using images, three-dimensional measurement method using images, and three-dimensional measurement program using images - Google Patents

Three-dimensional measurement device using images, three-dimensional measurement method using images, and three-dimensional measurement program using images Download PDF

Info

Publication number
JP7229102B2
JP7229102B2 JP2019105107A JP2019105107A JP7229102B2 JP 7229102 B2 JP7229102 B2 JP 7229102B2 JP 2019105107 A JP2019105107 A JP 2019105107A JP 2019105107 A JP2019105107 A JP 2019105107A JP 7229102 B2 JP7229102 B2 JP 7229102B2
Authority
JP
Japan
Prior art keywords
viewpoint
auxiliary
camera
image
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019105107A
Other languages
Japanese (ja)
Other versions
JP2020197493A (en
Inventor
篤司 林
伸夫 高地
高也 七夕
祥子 磯部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kazusa DNA Research Institute Foundation
Original Assignee
Kazusa DNA Research Institute Foundation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kazusa DNA Research Institute Foundation filed Critical Kazusa DNA Research Institute Foundation
Priority to JP2019105107A priority Critical patent/JP7229102B2/en
Publication of JP2020197493A publication Critical patent/JP2020197493A/en
Application granted granted Critical
Publication of JP7229102B2 publication Critical patent/JP7229102B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像を用いた三次元計測の技術に関する。 The present invention relates to three-dimensional measurement technology using images.

画像を用いて植物の三次元形状に係るデータを取得し、その成長過程を三次元的に把握する技術が知られている。例えば、特許文献1には、計測対象物である植物を回転させながら植物の写真撮影を行い、得られた複数の撮影画像から被写体(植物)の三次元モデルを得る技術が記載されている。 A technique is known for acquiring data relating to the three-dimensional shape of a plant using an image and three-dimensionally ascertaining the growth process of the plant. For example, Patent Literature 1 describes a technique of photographing a plant, which is an object to be measured, while rotating the plant, and obtaining a three-dimensional model of the subject (plant) from the obtained multiple photographed images.

特開2018-197685号公報JP 2018-197685 A

植物の茎のような立体物を対象とした場合、ステレオ画像のマッチング点の誤差が生じる問題がある。図1には、上記の問題が生じる原理が概念的に示されている。●点は、カメラ1とカメラ2から撮影したステレオ画像から求めた計測対象物上のマッチング点である。これは理想的な場合であるが、実際には、△点や□点でマッチングが取れてしまう場合がある。△点や□点は計測対象物の特徴点ではないので、△点や□点はステレオ画像上の特徴点の誤対応点となる。この誤対応点は、ノイズとなる。 When a three-dimensional object such as a plant stem is targeted, there is a problem that an error occurs in matching points of stereo images. FIG. 1 conceptually shows the principle that causes the above problem. The ● points are matching points on the object to be measured obtained from the stereo images captured by the cameras 1 and 2 . This is an ideal case, but in reality, there are cases where a match is obtained at the △ point or the □ point. Since the Δ and □ points are not feature points of the object to be measured, the Δ and □ points are erroneously corresponding points of the feature points on the stereo image. This erroneous corresponding point becomes noise.

本発明は、写真を用いた三次元計測において、ステレオ画像上での計測対象物の縁の部分や背面における誤対応点の発生を抑えることを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to suppress the occurrence of false corresponding points on the edge portion and back surface of a measurement object on a stereo image in three-dimensional measurement using photographs.

本発明は、異なる第1の視点および第2の視点から撮影対象を撮影したステレオ画像を得るステレオ画像取得部と、前記ステレオ画像において対応する特徴点を特定する対応点特定部と、前記第1の視点の前記第2の視点から離れる側からの第1の補助視点の選択、および前記第1の視点の前記第2の視点の側からの第2の補助視点の選択を行う補助視点選択部と、前記第1の補助視点から前記撮影対象を撮影した第1の補助画像と前記第2の補助視点から前記撮影対象を撮影した第2の補助画像とを取得する補助画像取得部と、前記第1の補助視点から見て前記撮影対象の影となり、且つ、前記第2の補助視点から見て前記撮影対象の影とならない領域をマスク領域として設定するマスク領域設定部とを備え、前記対応する特徴点の特定が前記マスク領域において制限される画像を用いた三次元計測装置である。 The present invention provides a stereo image acquisition unit that obtains stereo images of an object to be photographed from different first and second viewpoints, a corresponding point identification unit that identifies corresponding feature points in the stereo images, and the first Auxiliary viewpoint selection unit that selects a first auxiliary viewpoint from the side of the viewpoint away from the second viewpoint, and selects a second auxiliary viewpoint from the side of the first viewpoint that is distant from the second viewpoint. an auxiliary image obtaining unit that obtains a first auxiliary image obtained by photographing the object to be photographed from the first auxiliary viewpoint and a second auxiliary image obtained by photographing the object to be photographed from the second auxiliary viewpoint; a mask area setting unit that sets, as a mask area, an area that is a shadow of the subject when viewed from a first auxiliary viewpoint and is not a shadow of the subject when viewed from the second auxiliary viewpoint; The three-dimensional measuring apparatus uses an image in which the feature points to be measured are restricted in the mask area.

本発明において、前記第2の補助視点が前記第2の視点の前記第1の視点から離れる側から選択される態様が挙げられる。本発明において、前記マスク領域は、前記第1の補助視点と前記第1の補助視点から見た前記撮影対象の縁の部分とを結ぶ第1の方向線と、第2の補助視点と前記第2の補助視点から見た前記第1の補助視点からは死角となる前記撮影対象の縁の部分とを結ぶ第2の方向線との交点の前記第1の視点から見た後方であって、前記第1の方向線と前記第2の方向線で囲まれる領域である態様が挙げられる。本発明において、前記マスク領域において、前記ステレオ画像における対応点の特定が禁止されている態様が挙げられる。 In the present invention, there is a mode in which the second auxiliary viewpoint is selected from the side of the second viewpoint away from the first viewpoint. In the present invention, the mask area includes a first direction line that connects the first auxiliary viewpoint and the edge portion of the imaging target viewed from the first auxiliary viewpoint, a second auxiliary viewpoint, and the second auxiliary viewpoint. 2, the rear of the point of intersection with a second direction line connecting the edge portion of the object to be photographed which is a blind spot from the first auxiliary viewpoint viewed from the first auxiliary viewpoint, An aspect is given in which the area is surrounded by the first direction line and the second direction line. In the present invention, there is an aspect in which specification of corresponding points in the stereo image is prohibited in the mask region.

本発明は、異なる第1の視点および第2の視点から撮影対象を撮影したステレオ画像を得るステレオ画像取得ステップと、前記ステレオ画像において対応する特徴点を特定する対応点特定ステップと、前記第1の視点の前記第2の視点から離れる側からの第1の補助視点の選択、および前記第1の視点の前記第2の視点の側からの第2の補助視点の選択を行う補助視点選択ステップと、前記第1の補助視点から前記撮影対象を撮影した第1の補助画像と前記第2の補助視点から前記撮影対象を撮影した第2の補助画像とを取得する補助画像取得ステップと、前記第1の補助視点から見て前記撮影対象の影となり、且つ、前記第2の補助視点から見て前記撮影対象の影とならない領域をマスク領域として設定するマスク領域設定ステップとを有し、前記対応する特徴点の特定が前記マスク領域において制限される画像を用いた三次元計測方法としても把握できる。 The present invention comprises a stereo image obtaining step of obtaining stereo images of an object to be photographed from different first and second viewpoints, a corresponding point identifying step of identifying corresponding feature points in the stereo images, and the first Auxiliary viewpoint selection step of selecting a first auxiliary viewpoint from the side of the viewpoint away from the second viewpoint and selecting a second auxiliary viewpoint from the side of the second viewpoint of the first viewpoint an auxiliary image obtaining step of obtaining a first auxiliary image obtained by photographing the object to be photographed from the first auxiliary viewpoint and a second auxiliary image obtained by photographing the object to be photographed from the second auxiliary viewpoint; a mask area setting step of setting a mask area that is a shadow of the subject when viewed from a first auxiliary viewpoint and is not a shadow of the subject when viewed from the second auxiliary viewpoint; It can also be understood as a three-dimensional measurement method using an image in which the corresponding feature points are restricted in the mask area.

本発明は、コンピュータに読み取らせて実行させるプログラムであって、コンピュータに異なる第1の視点および第2の視点から撮影対象を撮影したステレオ画像を得るステレオ画像取得ステップと、前記ステレオ画像において対応する特徴点を特定する対応点特定ステップと、前記第1の視点の前記第2の視点から離れる側からの第1の補助視点の選択、および前記第1の視点の前記第2の視点の側からの第2の補助視点の選択を行う補助視点選択ステップと、前記第1の補助視点から前記撮影対象を撮影した第1の補助画像と前記第2の補助視点から前記撮影対象を撮影した第2の補助画像とを取得する補助画像取得ステップと、前記第1の補助視点から見て前記撮影対象の影となり、且つ、前記第2の補助視点から見て前記撮影対象の影とならない領域をマスク領域として設定するマスク領域設定ステップとを実行させ、前記対応する特徴点の特定が前記マスク領域において制限される画像を用いた三次元計測用プログラムとして把握することもできる。 The present invention is a program that is read and executed by a computer, and corresponds to a stereo image acquisition step of obtaining stereo images of an object to be photographed from different first and second viewpoints by the computer, and the stereo images. a corresponding point identifying step of identifying feature points; selecting a first auxiliary viewpoint from a side of the first viewpoint away from the second viewpoint; an auxiliary viewpoint selection step of selecting a second auxiliary viewpoint; and a first auxiliary image obtained by photographing the photographing object from the first auxiliary viewpoint and a second auxiliary viewpoint photographing the photographing object from the second auxiliary viewpoint. and an auxiliary image obtaining step of obtaining an auxiliary image of and masking an area that is a shadow of the subject when viewed from the first auxiliary viewpoint and is not a shadow of the subject when viewed from the second auxiliary viewpoint. It can also be understood as a three-dimensional measurement program using an image in which a mask region setting step for setting a region is executed, and the corresponding feature points are restricted in the mask region.

本発明によれば、写真を用いた三次元計測において、ステレオ画像上での計測対象物の縁の部分における誤対応点の発生が抑えられる。 According to the present invention, in three-dimensional measurement using photographs, occurrence of false corresponding points in the edge portion of the measurement object on the stereo image can be suppressed.

誤対応点が発生する原理を示す図である。It is a figure which shows the principle which an erroneous corresponding point generate|occur|produces. 発明の原理を示す図である。1 illustrates the principle of the invention; FIG. 発明の原理を示す図である。1 illustrates the principle of the invention; FIG. 発明の原理を示す図である。1 illustrates the principle of the invention; FIG. 発明の原理を示す図である。1 illustrates the principle of the invention; FIG. 実施形態の概念図である。1 is a conceptual diagram of an embodiment; FIG. 実施形態のブロック図である。1 is a block diagram of an embodiment; FIG. 後方交会法の原理を示す図(A)と前方交会法の原理を示す図(B)である。It is the figure (A) which shows the principle of a posterior resection method, and the figure (B) which shows the principle of an anterior resection method. 処理の手順の一例を示すフローチャートである。4 is a flow chart showing an example of a procedure of processing; 処理の手順の一例を示すフローチャートである。4 is a flow chart showing an example of a procedure of processing; カメラ位置を求める原理を示す図である。It is a figure which shows the principle which calculates|requires a camera position.

1.原理
(初めに)
図1の問題が発生するのは、以下の理由による。図1における●点は、カメラ2から見て計測対象物の縁の部分である。この縁の部分では、背面の画像情報の影響を受け、分離に誤差が生じる。この結果、奥行き方向の情報が紛れ込むことによる△点での誤マッチングや背面の□点での誤マッチングが生じる。
1. Principle (Introduction)
The problem in FIG. 1 occurs for the following reasons. ● points in FIG. This edge portion is affected by the image information on the back side, and an error occurs in the separation. As a result, erroneous matching at the Δ point and erroneous matching at the □ point on the back surface occur due to the information in the depth direction being mixed.

図1の問題を抑制するために、図2に示すように、ステレオ画像におけるマッチングを制限する周辺マスク10を設定する。図2には、カメラ1とカメラ2で計測対象物30を撮影しステレオ画像を得、このステレオ画像からステレオ画像間で対応する特徴点(●印の点)をステレオマッチング点(対応点ともいう)として求める場合が示されている。 To suppress the problem of FIG. 1, we set up a perimeter mask 10 that limits the matching in the stereo image, as shown in FIG. In FIG. 2, the object 30 to be measured is photographed by the camera 1 and the camera 2 to obtain a stereo image. ) is shown.

周辺マスク10を設定することで、その領域でのマッチングが制限(この場合は禁止)される。これにより、背面20の存在の影響等により生じる△点や□点で示される誤マッチング点の発生が抑制される。 Setting the peripheral mask 10 restricts (in this case, prohibits) matching in that area. This suppresses the occurrence of erroneous matching points indicated by .DELTA. points and .quadrature. points caused by the presence of the back surface 20 or the like.

(周辺マスクの設定の原理)
周辺マスク10は、以下のようにして設定される。まず、ステレオ画像を撮影するカメラ1とカメラ2の外側(両サイド)からカメラ3とカメラ4の1組のカメラを選択する。カメラ3とカメラ4は、周辺マスク10を設定するために選択される。
(Principle of peripheral mask setting)
The peripheral mask 10 is set as follows. First, a pair of cameras of camera 3 and camera 4 is selected from the outside (both sides) of camera 1 and camera 2 for capturing stereo images. Cameras 3 and 4 are selected to set the perimeter mask 10 .

ここで、カメラ1,カメラ2,カメラ3,カメラ4のそれぞれは、計測対象物30を視界に納め、各カメラの撮影画像には、計測対象物30が写っている(但し、見る角度が異なっている)。また、カメラ1,カメラ2,カメラ3およびカメラ4は、同一平面上に位置している。 Here, each of camera 1, camera 2, camera 3, and camera 4 puts the measurement object 30 in the field of view, and the measurement object 30 is shown in the image taken by each camera (however, the viewing angle is different). ing). Camera 1, camera 2, camera 3 and camera 4 are positioned on the same plane.

まず、カメラ3が撮影した計測対象物30におけるステレオマッチング点(特定された対応点)●より外側(カメラ1から見てカメラ3の側)の縁と、カメラ3の位置(投影原点(視点))とを結ぶ方向線41を設定する。また、カメラ4が撮影した計測対象物30におけるステレオマッチング点●に最も近い縁と、カメラ4の位置(投影原点(視点))とを結ぶ方向線42を設定する。 First, the edge of the outside (on the camera 3 side as seen from the camera 1) of the stereo matching point (identified corresponding point) on the measurement object 30 photographed by the camera 3 and the position of the camera 3 (projection origin (viewpoint) ) is set. Also, a direction line 42 is set that connects the edge closest to the stereo matching point ● on the measurement object 30 photographed by the camera 4 and the position of the camera 4 (projection origin (viewpoint)).

そして、方向線41と42が交差する点の後方(カメラ1およびカメラ2から見た遠方)で方向線41,42に囲まれる領域を周辺マスク10として設定する。周辺マスク10は、カメラ4から見て計測対象物30の影(背後)であり、且つ、カメラ3から見て計測対象物30の影(背後)でない領域である。 Then, an area surrounded by the direction lines 41 and 42 behind the point where the direction lines 41 and 42 intersect (far from the cameras 1 and 2) is set as the peripheral mask 10. FIG. The peripheral mask 10 is a shadow (behind) of the measurement object 30 as seen from the camera 4 and is an area that is not a shadow (behind) of the measurement object 30 as seen from the camera 3 .

以下、カメラ3,4の位置について説明する。まず、カメラ2から撮影した画像を利用して周辺マスク10を設定することは適切でない。なぜなら、カメラ2の画像では、計測対象物30の縁部分の分離が明確にできず、それ故に誤マッチング点である△点や□点が生じるが、この問題はカメラ2の画像を用いて周辺マスクを設定した場合も発生する。そのため、カメラ2の画像を利用した場合、誤マッチング点△や□を排除する周辺マスクは設定できない。 The positions of the cameras 3 and 4 will be described below. First, it is not appropriate to set the peripheral mask 10 using the image captured by the camera 2 . This is because the edge portion of the object 30 to be measured cannot be clearly separated from the image of the camera 2, and therefore Δ points and □ points, which are false matching points, occur. It also occurs when a mask is set. Therefore, when the image of camera 2 is used, it is not possible to set a peripheral mask that excludes erroneous matching points Δ and □.

図3には、図2のカメラ3はそのままに、カメラ4としてカメラ2の画像を利用して周辺マスク10を設定した場合が示されている。この場合、カメラ1から見て、マッチング点●の後方での周辺マスク10の設定ができず、△点や□点を排除するマスクは設定できない。この問題は、原理的にカメラ1より左側でカメラ4を選択した場合に発生する。よって、カメラ4をカメラ1より左側(カメラ2の側)から選択するのは適切でない。以上のことから、カメラ4は、カメラ2の右側(カメラ1と反対の側)から選択するのが適切となる。 FIG. 3 shows a case where the peripheral mask 10 is set using the image of the camera 2 as the camera 4 while leaving the camera 3 of FIG. In this case, it is not possible to set the peripheral mask 10 behind the matching point ● as seen from the camera 1, and it is not possible to set a mask that excludes the Δ point and the □ point. This problem occurs when camera 4 is selected on the left side of camera 1 in principle. Therefore, it is not appropriate to select camera 4 from the left side of camera 1 (the side of camera 2). From the above, it is appropriate to select camera 4 from the right side of camera 2 (the side opposite to camera 1).

図4には、図2のカメラ4はそのままで、カメラ3をカメラ2の右側から選択した場合が示されている。この場合、カメラ2から見た●点の背後がカメラ3,4から見えず死角になるので、△点や□点を排除するマスクは設定できない。よって、カメラ3をカメラ2より右側(カメラ1と反対の側)から選択するのは適切でない。 FIG. 4 shows a case where camera 3 is selected from the right side of camera 2 while camera 4 in FIG. In this case, the back of the ● point seen from the camera 2 cannot be seen from the cameras 3 and 4 and becomes a blind spot. Therefore, it is not appropriate to select camera 3 from the right side of camera 2 (the side opposite to camera 1).

図5には、カメラ3をカメラ1とカメラ2の間から選択した場合が示されている。ステレオ画像の組の選択において、隣接するカメラ位置でなく、カメラ1とカメラ2の間にカメラがある場合は、カメラ4をカメラ1とカメラ2の間から選択することも可能である。図5には、この場合が示されている。 FIG. 5 shows the case where camera 3 is selected between camera 1 and camera 2 . It is also possible to select camera 4 from between camera 1 and camera 2 if there is a camera between camera 1 and camera 2 in the selection of the stereo image set, rather than adjacent camera positions. FIG. 5 shows this case.

ただし、オクル―ジョンを極力避け、またマッチング精度を高める場合、隣接するカメラ位置がステレオ画像を撮影した1組のカメラとして選択される。この場合、カメラ1とカメラ2の間にカメラはないので、図5の状況は実現できない。 However, in order to avoid occlusion as much as possible and improve matching accuracy, adjacent camera positions are selected as a set of cameras that capture stereo images. In this case, since there is no camera between camera 1 and camera 2, the situation in FIG. 5 cannot be realized.

図5の場合、カメラ2から見て、●点の後方(背後)に周辺マスク10を設定できる。よって、カメラ3はカメラ2よりも左側(カメラ1の側)から選択すればよいことが結論される。 In the case of FIG. 5, the peripheral mask 10 can be set behind (behind) the dot when viewed from the camera 2 . Therefore, it is concluded that camera 3 should be selected from the left side (camera 1 side) of camera 2 .

以上まとめると、カメラ1とカメラ2から撮影したステレオ画像における対応点を求める場合、カメラ4をカメラ2のカメラ1と反対の側から選択し、カメラ3をカメラ2のカメラ1の側から選択することで、カメラ3とカメラ4の撮影画像を用いた周辺マスク10が作成できる。 In summary, when obtaining corresponding points in stereo images taken from cameras 1 and 2, camera 4 is selected from the opposite side of camera 2 to camera 1, and camera 3 is selected from the camera 1 side of camera 2. Thus, the peripheral mask 10 using the captured images of the cameras 3 and 4 can be created.

周辺マスクの使い方としては、
(1)周辺マスクからの対応点の特定を禁止する。
(2)対応点の特定は禁止しないが、周辺マスクでマスクされる領域における対応点の特定の優先度を下げる。
(3)対応点の特定の有無を判定する条件の一つとして、周辺マスクを利用する。
As for how to use the peripheral mask,
(1) Prohibit specification of corresponding points from the peripheral mask.
(2) Specifying corresponding points is not prohibited, but the priority of specifying corresponding points in the area masked by the peripheral mask is lowered.
(3) A peripheral mask is used as one of the conditions for determining whether or not corresponding points are specified.

また、3台以上のカメラを用いてステレオ画像を構成する場合は、基線上の両端のカメラに対して上記の条件を適用する。また、ここでは、左右にカメラが配列した場合を例に挙げ説明したが、ステレオカメラの配列方向は、上下や斜めであってもよい。 Moreover, when constructing a stereo image using three or more cameras, the above conditions are applied to the cameras at both ends on the base line. Also, here, the case where the cameras are arranged horizontally has been described as an example, but the arrangement direction of the stereo cameras may be vertically or obliquely.

また、本発明の原理は、下記両方の場合に適用できる。
(1)1台のカメラで回転する計測対象物を撮影し、計測対象物を異なる複数の視点から撮影した複数の画像を得る場合(勿論、複数のカメラで撮影してもよい)。
(2)カメラを移動させながら計測対象物を複数回撮影し、計測対象物を異なる複数の視点から撮影した複数の画像を得る場合(例えば、航空写真測量の場合)。
Also, the principles of the present invention are applicable in both cases.
(1) A case in which a single camera captures images of a rotating measurement object and obtains a plurality of images of the measurement object captured from a plurality of different viewpoints (of course, multiple cameras may capture images).
(2) A case in which a plurality of images of the object to be measured are taken from a plurality of different viewpoints by photographing the object to be measured while moving the camera (for example, in the case of aerial photogrammetry).

また、車の衝突防止技術等でステレオ写真測量の原理を用いた対象物の三次元情報を取得する技術があるが、この技術に本発明を利用することもできる。 In addition, there is a technology for acquiring three-dimensional information of an object using the principle of stereo photogrammetry, such as a vehicle collision prevention technology, and the present invention can also be applied to this technology.

2.全体の構成
図6には、植物120の三次元データを得るための三次元計測システム100が示されている。三次元計測システム100は、土台111、土台111上でモータ等の駆動手段により回転する回転台112を備えている。回転台112の上には、三次元計測の計測対象物である植物122が載せられている。
2. Overall Configuration FIG. 6 shows a three-dimensional measurement system 100 for obtaining three-dimensional data of a plant 120. As shown in FIG. The three-dimensional measurement system 100 includes a base 111 and a turntable 112 that rotates on the base 111 by driving means such as a motor. A plant 122 , which is an object to be measured for three-dimensional measurement, is placed on the turntable 112 .

土台111、回転台112および三次元計測システム100の背面は、植物120の色とは異なる色(この例では青)に着色されている。この色は、植物120と色彩が違うモノトーンの色が望ましい。例えば、植物120が緑系の色の場合、青、黄色、黒、白といった植物120と異なるモノトーンの色が選択される。物120は、鉢124に植えられており、鉢124には、識別用の2次元バーコード表示125が表示されている。 The base 111, the turntable 112, and the rear surface of the three-dimensional measurement system 100 are colored in a color different from the color of the plant 120 (blue in this example). This color is preferably a monotone color different from the color of the plant 120 . For example, if the plant 120 is greenish, monotone colors different from the plant 120 such as blue, yellow, black, and white are selected. The object 120 is planted in a pot 124, and the pot 124 displays a two-dimensional barcode display 125 for identification.

土台111および回転台112の各部の寸法は予め既知のデータとして取得されている。回転台112の上面には、基準点となるターゲット113の表示が行なわれている。ターゲット113は、3箇所以上の複数が配置されている。ターゲット113は、2次元コードが付されたコード化ターゲットであり、それぞれが個別に識別可能とされている。また、各ターゲットの回転台112における位置は予め調べられ、既知となっている。 The dimensions of each part of the base 111 and the turntable 112 are obtained in advance as known data. A target 113 serving as a reference point is displayed on the upper surface of the turntable 112 . Three or more targets 113 are arranged. The target 113 is a coded target with a two-dimensional code, and each can be individually identified. In addition, the position of each target on the turntable 112 is checked in advance and is known.

回転台112の上面には、画像マッチング用の識別部材であるランダムドット柱121~123が固定されている。ランダムドット柱121~123は、長手形状を有する板状の部材であり、回転台112から鉛直上方に延在し、表面にランダムドットパターンが表示されている。ランダムドット柱121~123の表面には、ランダムドットパターンの他に、識別コードが表示されており、各識別コードは個別に識別できるようにされている。ランダムドット柱として、円柱や多角柱(例えば、四角柱や五角柱)を用いることもできる。 Random dot columns 121 to 123, which are identification members for image matching, are fixed on the upper surface of the turntable 112. As shown in FIG. The random dot columns 121 to 123 are plate-like members having a longitudinal shape, extend vertically upward from the turntable 112, and have random dot patterns displayed on their surfaces. In addition to the random dot pattern, identification codes are displayed on the surfaces of the random dot columns 121 to 123, and each identification code can be individually identified. A cylinder or a polygonal prism (for example, a square prism or a pentagonal prism) can also be used as the random dot column.

ランダムドット柱の数を4本以上としてもよい。ただし、ランダムドット柱は、カメラ131~133と計測対象物である植物122との間に位置するので、その数が多すぎると、カメラ131~133による植物122の撮影に支障が生じる。 The number of random dot columns may be four or more. However, since the random dot columns are positioned between the cameras 131 to 133 and the plant 122, which is the object to be measured, if the number of random dot columns is too large, the cameras 131 to 133 will not be able to photograph the plant 122.

ランダムドット柱121~123の回転台112に対する位置関係は既知であり、またランダムドット柱121~123の寸法(幅、長さ、厚さ)も既知である。ランダムドット柱121~123の寸法は既知であるので、ランダムドット柱121~123はスケールとしても利用される。回転台112上に定規を配置する方法や回転台112上にスケールを表示する形態も可能である。なお、計測対象物である植物120の上端より上方にランダムドット柱121~123の先端が位置するように、ランダムドット柱121~123の長手方向の寸法が(鉛直方向の寸法)が設定されている。また、上方から見て、ランダムドット柱121~123により計測対象物(植物120)が囲まれるように、ランダムドット柱121~123が配置されている。これは、ランダムドット柱の数を増やした場合も同様である。 The positional relationship of the random dot columns 121-123 with respect to the turntable 112 is known, and the dimensions (width, length, thickness) of the random dot columns 121-123 are also known. Since the dimensions of the random dot columns 121-123 are known, the random dot columns 121-123 are also used as scales. A method of arranging a ruler on the turntable 112 and a mode of displaying a scale on the turntable 112 are also possible. The longitudinal dimension (vertical dimension) of the random dot columns 121 to 123 is set so that the tips of the random dot columns 121 to 123 are positioned above the upper end of the plant 120, which is the object to be measured. there is In addition, the random dot columns 121-123 are arranged so that the measurement object (the plant 120) is surrounded by the random dot columns 121-123 when viewed from above. This is the same when the number of random dot columns is increased.

ランダムドットパターンは、丸形状のドットが規則性なくランダムに分布しているドットパターンである。ランダムドットパターンに関する技術は、例えば、特開平11-39505号公報、特開平10-97641号公報、電子情報通信学会研究報告.COMP,コンビュテーション112(24),51-58,2012-05-07等に記載されている。ランダムドットパターンの色は、モノトーンであってもよいし、多色であってもよい。この例では、白の下地に黒のランダムドットパターンを表示している。 A random dot pattern is a dot pattern in which circular dots are randomly distributed without regularity. Techniques related to random dot patterns are disclosed, for example, in Japanese Patent Application Laid-Open Nos. 11-39505, 10-97641, and Institute of Electronics, Information and Communication Engineers Research Report. COMP, Combation 112(24), 51-58, 2012-05-07, etc. The color of the random dot pattern may be monotone or multicolor. In this example, a black random dot pattern is displayed on a white background.

回転台112の周囲には、カメラ131~133が配置されている。カメラ131~133は、土台111に対して固定されており、回転する回転台112およびその上の植物120を特定の時間間隔で繰り返し撮影する。カメラの数は、少なくとも1台あればよいが、複数を配置し、植物120に対してなるべく死角が生じないようにその数と位置を設定することが望ましい。カメラ131~133は、デジタルカメラであり、撮影した画像のデータ(画像データ)は、三次元計測装置200に送られる。 Cameras 131 to 133 are arranged around the turntable 112 . The cameras 131 to 133 are fixed to the base 111 and repeatedly photograph the rotating turntable 112 and the plant 120 thereon at specific time intervals. At least one camera is sufficient, but it is desirable to arrange a plurality of cameras and set the number and positions of the cameras so as not to produce blind spots with respect to the plant 120 as much as possible. The cameras 131 to 133 are digital cameras, and data of captured images (image data) are sent to the three-dimensional measuring device 200 .

回転台112を回転させながら、土台111に固定されたカメラ131~133から、植物120を連続して撮影する。これにより、植物120を周囲の多数のカメラ位置(視点)から撮影した多数の画像が得られる。この際、隣接するカメラ位置からの画像で撮影範囲が一部重複するようにする。 The plant 120 is continuously photographed from the cameras 131 to 133 fixed to the base 111 while rotating the turntable 112 . As a result, a large number of images of the plant 120 captured from a large number of surrounding camera positions (viewpoints) are obtained. At this time, the photographing ranges of images from adjacent camera positions are partially overlapped.

上記の撮影を行った場合、計測対象物である植物120を周囲から撮影した複数の撮影画像が得られる。ここで、隣接する視点(カメラ位置)から撮影した画像が一部重複するようにする。例えば、回転台112が1回転する間に植物120に向けた1台のカメラから72枚の撮影を行う場合を考える。この場合、回転台112に固定された座標系で考えると、回転台112の回転中心を中心とする円周上で、360°/72=5°刻みに視点の位置(カメラ位置)を少しずつずらして撮影した72枚の画像が得られる。 When the above photographing is performed, a plurality of photographed images obtained by photographing the surroundings of the plant 120, which is the object to be measured, are obtained. Here, images taken from adjacent viewpoints (camera positions) are partially overlapped. For example, consider a case where 72 images are taken from one camera facing the plant 120 while the turntable 112 rotates once. In this case, considering the coordinate system fixed to the turntable 112, the position of the viewpoint (camera position) is gradually shifted in increments of 360°/72=5° on the circumference around the center of rotation of the turntable 112. 72 images photographed with shifting are obtained.

3.三次元計測装置
計測対象物である植物120の三次元モデルの作成は、公知の三次元写真測量の原理に基づき行われる。三次元計測装置200は、汎用のPC(パーソナルコンピュータ)を利用して構成されている。三次元計測装置200は、カメラ131~133が撮影した画像のデータに基づき、植物120の三次元モデルを作成する。また、三次元計測装置200は、モータ駆動装置140に制御信号を送り、回転台112の回転制御を行う。また、三次元計測装置200は、カメラ131~133の撮影タイミングの制御を行う。
3. Three-Dimensional Measuring Apparatus A three-dimensional model of the plant 120, which is an object to be measured, is created based on the known principle of three-dimensional photogrammetry. The three-dimensional measuring device 200 is configured using a general-purpose PC (personal computer). The three-dimensional measuring device 200 creates a three-dimensional model of the plant 120 based on image data captured by the cameras 131-133. The three-dimensional measuring device 200 also sends a control signal to the motor driving device 140 to control the rotation of the turntable 112 . The three-dimensional measurement apparatus 200 also controls the imaging timing of the cameras 131-133.

三次元計測装置200は、CPU、メモリデバイス、各種のインターフェースを備えたコンピュータであり、汎用あるいは専用のハードウェアによって構成することができる。三次元計測装置200を構成する汎用のハードウェアとしては、PC以外にWS(ワークステーション)が挙げられる。これらコンピュータに三次元計測装置200の機能を実現する動作プログラムをインストールし、後述する各機能部の機能をソフトウェア的に実現する。 The three-dimensional measuring device 200 is a computer equipped with a CPU, a memory device, and various interfaces, and can be configured with general-purpose or dedicated hardware. General-purpose hardware constituting the three-dimensional measuring apparatus 200 includes a WS (work station) in addition to the PC. An operation program that realizes the functions of the three-dimensional measuring apparatus 200 is installed in these computers, and the functions of each functional unit described later are realized by software.

なお、三次元計測装置200の一部または全部を専用の演算回路によって構成してもよい。また、ソフトウェア的に構成された機能部と、専用の演算回路によって構成された機能部を組み合わせてもよい。 Part or all of the three-dimensional measuring device 200 may be configured by a dedicated arithmetic circuit. Also, a functional unit configured by software and a functional unit configured by a dedicated arithmetic circuit may be combined.

例えば、図示する各機能部は、CPU(Central Processing Unit)、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)に代表されるPLD(Programmable Logic Device)などの電子回路やプロセッサにより構成される。また、一部の機能を専用のハードウェアで構成し、他の一部を汎用のマイコンにより構成することも可能である。 For example, each functional unit shown in the figure is composed of electronic circuits and processors such as PLDs (Programmable Logic Devices) represented by CPUs (Central Processing Units), ASICs (Application Specific Integrated Circuits), and FPGAs (Field Programmable Gate Arrays). be. It is also possible to configure part of the functions with dedicated hardware and configure the other part with a general-purpose microcomputer.

また、三次元計測装置200の機能をサーバで実行し、該サーバにインターネットを介して接続したPC、タブレット、スマートフォン等を操作インターフェース端末として利用する形態も可能である。 It is also possible to use a PC, tablet, smart phone, or the like connected to the server via the Internet as an operation interface terminal, with the functions of the three-dimensional measuring apparatus 200 executed by a server.

三次元計測装置200は、画像データ受付部210、カメラ位置選択部220、ステレオ画像選択部221、ターゲット検出部240、外部標定要素算出部245、背面除去部247、特徴点抽出部250、周辺マスク作成用カメラ位置選択部251、周辺マスク作成用ステレオ画像取得部252、周辺マスク作成部253、対応点特定部260、三次元座標算出部270、三次元モデル作成部280、記憶部290、回転制御部295、撮影タイミング制御部296、バンドル調整計算部297を備える。また、三次元計測装置200は、外部の機器との間でデータのやり取りを行うインターフェース機能、操作者による操作を受け付けるユーザインターフェース機能を有する。これらは、利用するPCのインターフェースを用いている。 The three-dimensional measuring apparatus 200 includes an image data reception unit 210, a camera position selection unit 220, a stereo image selection unit 221, a target detection unit 240, an exterior orientation element calculation unit 245, a back surface removal unit 247, a feature point extraction unit 250, and a peripheral mask. Creation camera position selection unit 251, peripheral mask creation stereo image acquisition unit 252, peripheral mask creation unit 253, corresponding point identification unit 260, three-dimensional coordinate calculation unit 270, three-dimensional model creation unit 280, storage unit 290, rotation control It includes a section 295 , an imaging timing control section 296 and a bundle adjustment calculation section 297 . The three-dimensional measuring apparatus 200 also has an interface function for exchanging data with an external device and a user interface function for receiving operations by an operator. These use the interface of the PC to be used.

画像データ受付部210は、カメラ131~133が撮影した画像のデータ(画像データ)を受け付け、それを三次元計測装置100の内部に取り込む。 The image data reception unit 210 receives image data (image data) captured by the cameras 131 to 133 and imports the data into the three-dimensional measuring apparatus 100 .

カメラ位置選択部220は、交会法により計算されるカメラ位置の候補を選択する。カメラ位置の選択時は、交会法によるカメラ位置の計算前の状態であり、正確なカメラ位置の座標は不明である。しかしながら、回転台112の回転制御とカメラ131~133の撮影タイミングの制御の内容から、回転台112に対するカメラ131~133の大凡の位置が特定でき、またそこで撮影された画像は選択できる。この処理がカメラ位置選択部220で行われる。 The camera position selection unit 220 selects candidate camera positions calculated by the resection method. When the camera position is selected, it is in a state before the camera position is calculated by the resection method, and the exact coordinates of the camera position are unknown. However, it is possible to specify the approximate positions of the cameras 131 to 133 with respect to the turntable 112 and select the images shot there from the content of the rotation control of the turntable 112 and the control of the imaging timings of the cameras 131 to 133 . This processing is performed by the camera position selection unit 220 .

例えば、回転台112の回転位置は、ロータリーエンコーダ―等により検出されるので、時間軸上における回転台112の回転位置を知ることができる。この情報と撮影時刻のデータとから、撮影時の回転台112に対するカメラ位置を知ることができる。例えば、図11に例示するように計測対象物(回転台)を囲む4箇所のカメラ位置(1),(9),(17),(25)を選択する。ただし、このカメラ位置は概略の位置であり、その精度は三次元写真測量に利用できるレベルにはない。 For example, since the rotational position of the turntable 112 is detected by a rotary encoder or the like, it is possible to know the rotational position of the turntable 112 on the time axis. The position of the camera relative to the turntable 112 at the time of photographing can be known from this information and the data of photographing time. For example, as illustrated in FIG. 11, four camera positions (1), (9), (17), and (25) surrounding the object to be measured (rotary table) are selected. However, this camera position is an approximate position, and its accuracy is not at a level that can be used for three-dimensional photogrammetry.

ステレオ画像選択部221は、異なる視点から重複する場所を撮影した2枚以上の画像をステレオ画像として選択する。例えば、図11(B)の(1)と(5)の位置から回転台112および計測対象物である植物120を撮影した画像がステレオ画像として選択される。ステレオ画像は、基本2枚一組であるが、3枚以上を1組としてステレオ画像を構成することもできる。なお、画像には、少なくとも回転台112、計測対象物である植物120およびランダムドット柱121~123の少なくとも1本が写っている必要がある。 The stereo image selection unit 221 selects two or more images obtained by photographing overlapping locations from different viewpoints as stereo images. For example, images of the turntable 112 and the plant 120, which is the object to be measured, are picked up from positions (1) and (5) in FIG. 11B are selected as stereo images. A stereo image is basically a set of two images, but three or more images can be used as a set to form a stereo image. The image should include at least the turntable 112, the plant 120, which is the object to be measured, and at least one of the random dot columns 121-123.

ターゲット検出部240は、カメラ131~133が撮影した画像に写ったターゲット113を検出する。予めターゲット113の画像は取得されており、それをリファレンスとして撮影画像中からターゲット113の抽出が行なわれる。ターゲット113は識別でき、また回転台112における位置は既知なので、ターゲット検出部240により、複数あるターゲット113それぞれの位置が検出される。 The target detection unit 240 detects the target 113 appearing in the images captured by the cameras 131-133. An image of the target 113 is obtained in advance, and is used as a reference to extract the target 113 from the photographed image. Since the target 113 can be identified and the position on the turntable 112 is known, the target detection unit 240 detects the position of each of the multiple targets 113 .

外部標定要素算出部245は、撮影画像中の特徴点(特徴点抽出部250が抽出した特徴点)を利用して、図6のカメラ131~133の外部標定要素(位置と姿勢)を後方交会法により算出する。図8(A)には、後方交会法の原理が示されている。後方交会法とは、未知点から3つ以上の既知点へ向かう方向を観測して、それらの方向線の交点として未知点の位置を定める方法である。後方交会法としては、単写真標定、DLT法(Direct Liner Transformation Method)が挙げられる。交会法については、基礎測量学(電気書院:2010/4発行)p 182,p184に記載されている。また、特開2013-186816号公報には交会法に関して具体的な計算方法の例が示されている。 The exterior orientation element calculation unit 245 calculates the exterior orientation elements (position and orientation) of the cameras 131 to 133 in FIG. Calculated by the method. FIG. 8(A) shows the principle of the posterior resection method. The retrosection method is a method of observing directions from an unknown point to three or more known points and determining the position of the unknown point as the intersection of those direction lines. Examples of the retrosection method include single photo orientation and DLT method (Direct Liner Transformation Method). The resection method is described in Basic Surveying (Denkishoin: 2010/4 issue) p.182, p.184. Further, Japanese Patent Application Laid-Open No. 2013-186816 discloses an example of a specific calculation method regarding the resection method.

以下、具体的な計算の一例を説明する。ここでは、回転台112を回転させ、90°回転する前と後の異なる2つのタイミングでカメラ132による回転台112の撮影を行うとする。90°の回転の制御は、回転制御部295で行われ、撮影タイミングの制御は、撮影タイミング制御部296で行われる。なお、この例では、定速で回転を継続し、上方から見て90°異なる角度位置で撮影が行われるように、回転台112の回転とカメラ132の撮影のタイミングが制御される。 An example of specific calculation will be described below. Here, it is assumed that the turntable 112 is rotated and the turntable 112 is photographed by the camera 132 at two different timings, before and after the turntable 112 is rotated by 90°. Control of 90° rotation is performed by a rotation control section 295 and control of imaging timing is performed by an imaging timing control section 296 . In this example, the rotation of the turntable 112 and the timing of photographing by the camera 132 are controlled so that the rotation is continued at a constant speed and photographing is performed at angular positions different by 90° when viewed from above.

この場合、回転台112に固定した座標系で考えると、図11の位置(1)と(9)から撮影した撮影画像が得られる。この2枚の撮影画像をステレオ画像とし、そこからの特徴点の抽出、抽出した特徴点の当該ステレオ画像間でのマッチング(対応関係の特定)を行う。特徴点の抽出は、特徴点抽出部250で行われ、対応点の特定は対応点特定部260で行われる。 In this case, if the coordinate system fixed to the turntable 112 is used, images taken from positions (1) and (9) in FIG. 11 can be obtained. These two photographed images are used as stereo images, feature points are extracted therefrom, and matching (identification of correspondence relationship) between the extracted feature points between the stereo images is performed. A feature point extraction unit 250 extracts feature points, and a corresponding point specification unit 260 specifies corresponding points.

ステレオ画像間での特徴点の対応関係を特定したら、図8(A)の後方交会法を用いて当該ステレオ画像を撮影したカメラ位置を算出する。ここでカメラ位置は、回転台112の回転中心を原点とし、回転台112に固定されたローカル座標系で記述される。 After specifying the correspondence of the feature points between the stereo images, the position of the camera that captured the stereo images is calculated using the posterior resection method of FIG. 8(A). Here, the camera position is described in a local coordinate system fixed to the turntable 112 with the rotation center of the turntable 112 as the origin.

例えば、以下のような方法により、図11のカメラ位置(1)と(9)におけるカメラの外部標定要素(姿勢と位置)が求められる。まず、回転台112の上面は平面であり、そこから取得される特徴点は当該平面上に位置している。また、ランダムドット柱121~123表面のランダムドットは鉛直面上に分布している。この拘束条件から、相互標定により、相対三次元モデルにおけるカメラ位置(1)と(9)における位置と姿勢が求まる。 For example, the exterior orientation parameters (attitude and position) of the camera at camera positions (1) and (9) in FIG. 11 are obtained by the following method. First, the upper surface of the turntable 112 is a plane, and the feature points acquired therefrom are located on the plane. Random dots on the surfaces of the random dot columns 121 to 123 are distributed on the vertical plane. From this constraint condition, the positions and orientations of the camera positions (1) and (9) in the relative 3D model can be obtained by relative orientation.

例えば、ステレオ画像で対応するランダムドット柱121~123のドットから得た特徴点の中から、図8(A)のP,P,Pを選択する。ここで、P,P,Pは鉛直面上に分布するという拘束条件が課せられる。そして、P,P,Pの画面中における位置をp,p,pとした場合に、Pとp、Pとp、Pとpを結ぶ3つの方向線を設定する。この場合、この3本の方向線の交点Oが当該画像を撮影したカメラ132の位置(投影中心)となる。また、点Oと画面の中心を結ぶ方向線の延長方向がカメラ132の光軸方向となり、カメラ132の向き(姿勢)が求まる。 For example, P 1 , P 2 , and P 3 in FIG. 8A are selected from the feature points obtained from the dots of the corresponding random dot columns 121 to 123 in the stereo image. Here, a constraint is imposed that P 1 , P 2 and P 3 are distributed on the vertical plane. When the positions of P 1 , P 2 , and P 3 in the screen are p 1 , p 2 , and p 3 , three points connecting P 1 and p 1 , P 2 and p 2 , and P 3 and p 3 Set direction lines. In this case, the intersection O of the three direction lines is the position (projection center) of the camera 132 that captured the image. Also, the extension direction of the direction line connecting the point O and the center of the screen is the optical axis direction of the camera 132, and the orientation (orientation) of the camera 132 is obtained.

この段階でP,P,Pの絶対位置関係は未知なので、この場合における図8(A)の三次元モデルは相対三次元モデルとなる。この相対三次元モデルを得る処理が相互標定である。 Since the absolute positional relationship of P 1 , P 2 and P 3 is unknown at this stage, the three-dimensional model of FIG. 8A in this case is a relative three-dimensional model. Relative orientation is the process of obtaining this relative three-dimensional model.

ここで、PとPがランダムドット柱121の上辺の端点であれば、回転台112に固定されたローカル座標系におけるそれら端点の座標は既知であるので、上記相対三次元モデルにスケールが与えられる。こうして絶対標定が行なわれ、当該座標系におけるカメラの外部標定要素が判明する。この方法において、複数あるターゲット113の位置情報を併用することもできる。 Here, if P1 and P2 are the endpoints of the upper side of the random dot column 121, the coordinates of those endpoints in the local coordinate system fixed to the turntable 112 are known, so the relative three-dimensional model has a scale. Given. An absolute orientation is thus obtained, and the exterior orientation parameters of the camera in that coordinate system are known. In this method, positional information of multiple targets 113 can also be used.

また、3つ以上のターゲット113の位置情報から各カメラ位置におけるカメラの外部標定要素を求めることもできる。例えば、図11の(1)位置から3つのターゲット113が見えているとする。この場合、P,P,Pをこれら3つのターゲット113の位置とすると、P,P,Pの位置は既知なので、点Oの座標が求まる。また、点Oと画面の中心を結ぶ方向からカメラの姿勢が判明する。こうして、3つのターゲット113が見えている(1)の位置におけるカメラの外部標定要素が判る。 It is also possible to obtain exterior orientation parameters of the camera at each camera position from the position information of three or more targets 113 . For example, assume that three targets 113 are visible from position (1) in FIG. In this case, if P 1 , P 2 and P 3 are the positions of these three targets 113, the coordinates of point O can be obtained since the positions of P 1 , P 2 and P 3 are known. Also, the orientation of the camera can be determined from the direction connecting the point O and the center of the screen. Thus, the exterior orientation parameters of the camera at position (1) where three targets 113 are visible are known.

また、カメラ位置が判れば、図8(B)の前方交会法により、多数存在する位置が既知でない特徴点の当該座標系(回転台112に固定されたローカル座標系)における位置も計算できる。そして、多数の特徴点の位置が判れば、それらの位置に基づく図8(A)の後方交会法によるカメラ位置の算出も行われる。 Also, if the camera position is known, the positions of many feature points whose positions are not known in the coordinate system (the local coordinate system fixed to the turntable 112) can be calculated by the anterior resection method of FIG. 8B. Then, if the positions of many feature points are known, the camera position is calculated by the posterior resection method of FIG. 8(A) based on those positions.

実際には、上述した一連の方法によるカメラ131~133の外部標定要素の算出のための数式は、多数の特徴点の座標も含めた多数の行列要素を有した計算式となる。この計算式において、未知数が収束するまで繰り返し計算が行なわれることで、カメラ131~133の外部標定要素が求められる。また、適切なタイミングでバンドル調整計算部297によるバンドル調整計算が行なわれ、誤差の最小化が行なわれる。 Actually, the formula for calculating the exterior orientation parameters of the cameras 131 to 133 by the series of methods described above is a formula having many matrix elements including the coordinates of many feature points. In this calculation formula, the exterior orientation elements of the cameras 131 to 133 are obtained by repeating calculations until the unknowns converge. Also, bundle adjustment calculation is performed by the bundle adjustment calculator 297 at an appropriate timing to minimize the error.

背面除去部247は、撮影した画像中から被計測対象となる背面を除去する。この背面の除去は、色の差を利用して行われる。この技術については、特開2018-197685号公報に記載されている。 The back surface removing unit 247 removes the back surface to be measured from the captured image. This background removal is done using color differences. This technique is described in JP-A-2018-197685.

特徴点抽出部250は、カメラ131~133が撮影した画像の中から特徴点を抽出する。特徴点は、周囲から区別できる点であり、例えば、エッジ部分、更には周囲と色彩や明度が異なっている部分等が特徴点として抽出される。特徴点の抽出は、ソフトウェア処理により行われる。特徴点の抽出には、ソーベル、ラプラシアン、プリューウィット、ロバーツなどの微分フィルタが用いられる。 The feature point extraction unit 250 extracts feature points from the images captured by the cameras 131-133. A feature point is a point that can be distinguished from the surroundings. For example, an edge portion, a portion having a different color or brightness from the surroundings, and the like are extracted as feature points. Extraction of feature points is performed by software processing. Differential filters such as Sobel, Laplacian, Prewitt, and Roberts filters are used to extract feature points.

周辺マスク作成用カメラ位置選択部251は、周辺マスクの作成に必要なカメラ視点(カメラ位置)を選択する。例えば、図2のカメラ3とカメラ4のカメラ位置の選択が周辺マスク作成用カメラ位置選択部251で行われる。周辺マスク作成用ステレオ画像取得部252は、周辺マスクの作成に必要なステレオ画像を取得する。例えば、図2のカメラ3が計測対象物30を撮影した画像とカメラ4が計測対象物30を撮影した画像の取得が周辺マスク作成用ステレオ画像取得部252で行われる。 The peripheral mask creation camera position selection unit 251 selects a camera viewpoint (camera position) necessary for creating a peripheral mask. For example, selection of the camera positions of camera 3 and camera 4 in FIG. The peripheral mask creation stereo image acquisition unit 252 acquires a stereo image necessary for creating a peripheral mask. For example, acquisition of an image of the measurement object 30 captured by the camera 3 and an image of the measurement object 30 captured by the camera 4 in FIG.

周辺マスク作成部253は、図2~図5に関連して説明した方法により、周辺マスクを作成する。対応点特定部260は、異なる視点から撮影した2枚以上の画像中でそれぞれ個別に抽出された特徴点の対応関係を特定する。すなわち、一方の画像中で抽出された特徴点と同じ特徴点を他方の画像中で特定する。この特徴点の対応関係を特定する処理は、例えば、Feature-Based(特徴抽出)法としてのSIFTやSURF、Kaze、……や、Area‐Based(面積相関)法としてのテンプレートマッチングを用いて行われる。テンプレートマッチングとしては、残差逐次検定法(SSDA:Sequential Similarity Detection Algorithm)、相互相関係数法などが挙げられる。対応点の特定は、基本2枚の画像や2つの点群位置データを対象に行われるが、3枚以上の画像や3つ以上の点群位置データを対象として行うこともできる。 The peripheral mask creation unit 253 creates a peripheral mask by the method described with reference to FIGS. 2 to 5. FIG. The corresponding point identification unit 260 identifies correspondence relationships between feature points individually extracted from two or more images taken from different viewpoints. That is, the same feature points as the feature points extracted in one image are identified in the other image. The process of specifying the correspondence between feature points is performed using, for example, SIFT, SURF, Kaze, etc. as Feature-Based (feature extraction) methods, and template matching as Area-Based (Area Correlation) methods. will be Examples of template matching include a sequential similarity detection algorithm (SSDA), a cross-correlation coefficient method, and the like. The identification of corresponding points is basically performed for two images or two point cloud position data, but it can also be performed for three or more images or three or more point cloud position data.

複数の画像間の対応関係を求める技術については、例えば特開2013-178656号公報や特開2014-35702号公報に記載されている技術を利用することができる。なお、特開2013-178656号公報や特開2014-35702号公報には、特徴点の抽出に係る技術、特徴点の三次元位置を求める技術についても記載されており、これらの技術は、本願明細書中で説明する技術に利用できる。 As for the technology for obtaining the correspondence between a plurality of images, for example, the technology described in JP-A-2013-178656 and JP-A-2014-35702 can be used. In addition, Japanese Patent Application Laid-Open Nos. 2013-178656 and 2014-35702 also describe techniques for extracting feature points and techniques for obtaining three-dimensional positions of feature points. It can be used for the techniques described in the specification.

三次元座標算出部270は、特徴点抽出部150が画像中から抽出した特徴点の三次元位置を前方交会法により算出する。対象物を構成する多数の特徴点の三次元位置を算出することで、当該対象物を三次元座標が特定された点の集合として把握可能な点群位置データが得られる。更には、この点群位置データに基づき三次元モデルを作成することができる。 The three-dimensional coordinate calculation unit 270 calculates the three-dimensional positions of the feature points extracted from the image by the feature point extraction unit 150 by the anterior resection method. By calculating the three-dimensional positions of a large number of characteristic points that form the object, point cloud position data that enables the object to be grasped as a set of points whose three-dimensional coordinates are specified can be obtained. Furthermore, a three-dimensional model can be created based on this point cloud position data.

図8(B)には、前方交会法の原理が示されている。前方交会法では、異なる複数点(図8(B)の場合は、OとOの2点)から未知点Pへ向かう方向を観測して、それらの方向線の交点として未知点Pの位置を求める。 FIG. 8(B) shows the principle of anterior resection. In the anterior resection method, the direction toward the unknown point P is observed from a plurality of different points (two points O1 and O2 in the case of FIG. 8B), and the intersection of those direction lines is the unknown point P. find the position.

図8(B)には、異なるカメラ位置OとOから外部標定要素が既知のカメラを用いて重複する領域を撮影した場合が示されている。ここで、一方の画像における未知点Pの画面座標がpであり、他方の画像における未知点Pの画面座標がpである。カメラ位置OとOは既知であり、またそれらの位置におけるカメラの姿勢も既知であるので、Oとpを結ぶ方向線とOとpを結ぶ方向線の交点Pの座標が計算できる。 FIG. 8(B) shows the case where the overlapping area is photographed from different camera positions O1 and O2 using cameras with known exterior orientation parameters. Here, the screen coordinates of the unknown point P in one image are p1 , and the screen coordinates of the unknown point P in the other image are p2 . Since the camera positions O1 and O2 are known, and the camera postures at those positions are also known, the coordinates of the intersection point P of the direction line connecting O1 and p1 and the direction line connecting O2 and p2 are can be calculated.

三次元モデル作成部280は、多数の撮影画像を解析することで得られた三次元点群位置データに基づいて三次元モデルを作成する。例えば、得られた多数の特徴点の三次元座標からなる三次元点群位置データを用いてtin(不整三角形網)を作成し、撮影対象物の三次元モデルの作成が行われる。点群位置データに基づいて三次元モデルを作成する技術に関しては、例えば、WO2011/070927号公報、特開2012-230594号公報、特開2014―35702号公報に記載されている。利用する三次元座標系としては、例えば回転台112に固定され、回転台112の回転中心の位置を原点としたローカル座標が用いられる。 The three-dimensional model creation unit 280 creates a three-dimensional model based on three-dimensional point cloud position data obtained by analyzing a large number of captured images. For example, three-dimensional point group position data consisting of three-dimensional coordinates of a large number of obtained feature points is used to create tin (irregular triangular network) to create a three-dimensional model of the object to be photographed. Techniques for creating a three-dimensional model based on point cloud position data are described, for example, in WO2011/070927, JP-A-2012-230594, and JP-A-2014-35702. As the three-dimensional coordinate system to be used, for example, local coordinates fixed to the turntable 112 and having the position of the center of rotation of the turntable 112 as the origin are used.

記憶部290は、三次元計測装置200で利用される各種のデータ、動作プログラム、動作の結果得られた各種のデータ等を記憶する。記憶部290の他に外部の記憶装置(外付けハードディスク装置やデータ記憶用サーバ等)を用いることも可能である。 The storage unit 290 stores various data used in the three-dimensional measuring apparatus 200, operation programs, various data obtained as a result of operations, and the like. It is also possible to use an external storage device (external hard disk device, data storage server, etc.) in addition to the storage unit 290 .

回転制御部295は、回転台112を回転させるモータ(図示せず)を駆動するモータ駆動装置140(図6参照)に制御信号を送り、モータの動作制御を行う。回転制御部295の機能により、回転台112の回転のタイミングや回転速度の設定が行われる。回転台112の回転は、ロータリーエンコーダにより検出され、この検出値に基づき回転制御部295は回転台112の回転を制御する。 The rotation control unit 295 sends a control signal to a motor driving device 140 (see FIG. 6) that drives a motor (not shown) that rotates the turntable 112, thereby controlling the operation of the motor. The rotation control unit 295 functions to set the rotation timing and rotation speed of the turntable 112 . The rotation of the turntable 112 is detected by a rotary encoder, and the rotation control section 295 controls the rotation of the turntable 112 based on the detected value.

撮影タイミング制御部296は、カメラ131,132,133に撮影タイミングを決める制御信号を送り、撮影動作の制御を行う。カメラ131,132,133は、撮影タイミング制御部296に制御されて、回転する回転台112およびその上に配置された植物120の撮影を行う。例えば、回転台112を5~10回転/分の回転速度で回転させ、その際にカメラ131,132,133のそれぞれは、0.1~0.5秒間隔で繰り返し静止画像の撮影を行う。 The shooting timing control unit 296 sends control signals for determining shooting timings to the cameras 131, 132, and 133, and controls shooting operations. The cameras 131 , 132 , 133 are controlled by the photographing timing control unit 296 to photograph the rotating turntable 112 and the plant 120 placed thereon. For example, the turntable 112 is rotated at a rotational speed of 5 to 10 rotations/minute, and each of the cameras 131, 132, and 133 repeatedly captures still images at intervals of 0.1 to 0.5 seconds.

4.処理の一例
以下、回転台112上の植物120の点群位置データを得、更にこの点群位置データに基づき植物120の三次元モデルを作成する処理の一例を説明する。以下の処理は、三次元計測システム100を用いて行われる。以下に説明する処理を実行するプログラムは、記憶部290に記憶され、三次元計測装置200によって実行される。当該プログラムは、適当な記憶媒体や記憶サーバ等に記憶され、そこから提供される形態も可能である。
4. Example of Processing Hereinafter, an example of processing for obtaining point group position data of the plant 120 on the turntable 112 and further creating a three-dimensional model of the plant 120 based on this point group position data will be described. The following processing is performed using the three-dimensional measurement system 100. FIG. A program for executing the processing described below is stored in the storage unit 290 and executed by the three-dimensional measuring device 200 . The program may be stored in an appropriate storage medium, storage server, or the like, and may be provided therefrom.

(撮影)
まず、回転台112とランダムドット柱121~123が写るようにカメラ131~133の位置と姿勢を設定する。その上で撮影を行う。撮影は、計測対象の植物120を載せた回転台112を等速で回転させながら、特定の時間間隔でカメラ131~133により行う。
(photograph)
First, the positions and attitudes of the cameras 131 to 133 are set so that the turntable 112 and the random dot columns 121 to 123 are captured. Take pictures on it. Photographing is performed by the cameras 131 to 133 at specific time intervals while rotating the turntable 112 on which the plant 120 to be measured is placed at a constant speed.

撮影は、例えば、回転台112が等速で1回転する間に等時間間隔で72枚の静止画像が撮影される条件、すなわち5°異なる角度から72回撮影する条件で行う。この場合、3台のカメラ131~133から72枚×3=216枚の画像が撮影される。この画像データは、三次元計測装置200に送られ、画像データ受付部210で受け付けられる。画像データ受付部210で受け付けられた画像データは、記憶部290に記憶される。回転速度やシャッター間隔は、植物の種類や取得したい点群密度に対応させて任意に設定できる。 The photographing is performed, for example, under the condition that 72 still images are photographed at equal time intervals while the turntable 112 rotates once at a constant speed, that is, photographing is performed 72 times from different angles of 5°. In this case, 72×3=216 images are taken from the three cameras 131-133. This image data is sent to the three-dimensional measuring device 200 and received by the image data receiving unit 210 . The image data accepted by the image data accepting portion 210 is stored in the storage portion 290 . The rotation speed and shutter interval can be arbitrarily set according to the type of plant and the point cloud density to be acquired.

植物120を撮影した画像データを得たら、各撮影画像から背面を除去する処理を行う。この処理は、図7の背面除去部247で行われる。 After obtaining the image data of the photographed plant 120, processing for removing the back surface from each photographed image is performed. This process is performed by the back surface removal section 247 in FIG.

こうして、鉛直上方から見て、周囲360°を等間隔に72分割した方向からの3組(72×3=216枚)の撮影画像が得られる。以下、この216枚の画像を基に処理を行う。この216枚の画像は、計測対象物である植物120を囲む円周上の等角な72カ所の位置(カメラ位置)(上下3段で計216枚)から植物120を撮影した画像となる。 In this way, three sets (72.times.3=216 images) of photographed images are obtained from directions obtained by equally dividing the circumference of 360.degree. Processing is performed based on these 216 images. These 216 images are images of the plant 120 photographed from 72 equiangular positions (camera positions) on the circumference surrounding the plant 120, which is the object of measurement (a total of 216 images in three stages above and below).

(カメラ位置の特定)
まず、計測対象物を囲むカメラ位置を求める。カメラ位置の特定に係る処理は、カメラ131~133のそれぞれにおいて行われる。まず、図11に示す手法を用いて等角な角度位置にある複数箇所のカメラ位置を算出する。例えば、図11には等角な4箇所のカメラ位置の選択を2回に別けて行う場合が示されている。
(Identification of camera position)
First, the camera positions surrounding the object to be measured are obtained. The processing related to specifying the camera position is performed in each of the cameras 131-133. First, using the method shown in FIG. 11, camera positions at a plurality of equiangular angular positions are calculated. For example, FIG. 11 shows a case in which four equiangular camera positions are selected twice.

図11に示す処理の手順の一例を示す。まず、図11に示すような上方見て角度位置が90°異なる4箇所のカメラ位置(1),(9),(17),(25)を選択する(ステップS101)。この段階でのカメラ位置の選択は、回転台112の回転位置とカメラ131~133の撮影タイミングに基づき行われる。この処理は、図7のカメラ位置選択部220で行われる。なお、きりの良い位置にカメラ位置がない場合は、最も近い位置のカメラ位置が選択される。 FIG. 11 shows an example of the procedure of the processing shown in FIG. First, as shown in FIG. 11, four camera positions (1), (9), (17), and (25) with different angular positions by 90° are selected (step S101). The selection of the camera position at this stage is performed based on the rotational position of the turntable 112 and the photographing timing of the cameras 131-133. This processing is performed by the camera position selection unit 220 in FIG. If there is no camera position at a good position, the closest camera position is selected.

次に、ステップS101で選択された位置から撮影した画像の中からステレオ画像を選択する(ステップS102)。この場合、カメラ位置で考えて、(1)と(9)、(9)と(17)、(17)と(25)というように、隣接するカメラ位置がステレオ画像のカメラ位置として選択される。この処理は、図7のステレオ画像選択部221で行われる。なお、この段階で背面の除去を行ってもよい。 Next, a stereo image is selected from the images taken from the position selected in step S101 (step S102). In this case, considering the camera positions, adjacent camera positions such as (1) and (9), (9) and (17), (17) and (25) are selected as the camera positions of the stereo image. . This process is performed by the stereo image selection unit 221 in FIG. Note that the back surface may be removed at this stage.

次に、選択されたステレオ画像からの特徴点の抽出(ステップS103)を行う。この処理は、特徴点抽出部250で行われる。ここで抽出される特徴点には、植物120、回転台112およびランダムドット柱121~123の特徴点が含まれる。次に、ステレオ画像間における特徴点の対応関係の特定(ステレオマッチング)を行う(ステップS104)。また、ステレオ画像間における共通に写っているターゲット113の検出を行う(ステップS105)。 Next, feature points are extracted from the selected stereo image (step S103). This processing is performed by the feature point extraction unit 250 . The feature points extracted here include the feature points of the plant 120, turntable 112, and random dot columns 121-123. Next, the correspondence between feature points between stereo images is specified (stereo matching) (step S104). Also, the target 113 that appears in common between the stereo images is detected (step S105).

次に、対応関係を特定した特徴点を用いた後方交会法により、ステップS101で選択したカメラと特徴点の相対位置関係を算出する相互標定を行う(S106)。またこの際、同時にステレオ画像に写った対応点とカメラ位置の相対位置関係が前方交会法を用いて特定される。 Next, relative orientation for calculating the relative positional relationship between the camera selected in step S101 and the feature points is performed by the backward resection method using the feature points for which the corresponding relationships are specified (S106). At this time, at the same time, the relative positional relationship between the corresponding points captured in the stereo image and the camera position is specified using the anterior resection method.

次に、ステップS106で求められた相対位置関係に特徴点から得られるスケールやターゲット113の位置から実寸法が与えられ、絶対標定が行なわれる(ステップS107)。この処理により、カメラの外部標定要素(位置と姿勢)とステップS104で対応関係が特定された特徴点の位置が求まる。最後にバンドル調整計算を行ない誤差の最小化を行う(ステップS108)。 Next, the relative positional relationship obtained in step S106 is given the actual size from the scale obtained from the feature points and the position of the target 113, and absolute orientation is performed (step S107). Through this processing, the exterior orientation elements (position and orientation) of the camera and the positions of the feature points whose correspondence relationship was identified in step S104 are obtained. Finally, bundle adjustment calculation is performed to minimize the error (step S108).

S106~S108の処理は、図7の外部標定要素算出部245、三次元座標算出部270およびバンドル調整計算部297で行なわれる。以上の処理により、図11(A)のカメラ位置(1),(9),(17),(25)が算出される。以上の処理は、カメラ131~133のそれぞれにおいて行われる。 The processing of S106 to S108 is performed by the exterior orientation element calculator 245, the three-dimensional coordinate calculator 270 and the bundle adjustment calculator 297 in FIG. Camera positions (1), (9), (17), and (25) in FIG. 11A are calculated by the above processing. The above processing is performed in each of the cameras 131-133.

以上の処理を繰り返すことで、徐々にカメラ位置を増やしながらのカメラ位置の算出が全ての画像を対象として行われる。例えば、図11(A)に係るS101~S106の処理が行なった後、図11(B)に示すように、新たな4箇所のカメラ位置に関してS101~106の処理を繰り返す。この場合、新たに求めるカメラ位置が図11(B)に示す(5),(13),(21),(29)である。 By repeating the above processing, the camera positions are calculated for all images while gradually increasing the camera positions. For example, after performing the processing of S101 to S106 in FIG. 11A, as shown in FIG. 11B, the processing of S101 to S106 is repeated for four new camera positions. In this case, the newly obtained camera positions are (5), (13), (21), and (29) shown in FIG. 11(B).

この場合、図11(A)に示す(1),(9),(17),(25)のカメラ位置を初期値として、新たなカメラ位置(5),(13),(21),(29)が計算される。この際、初期値として扱われるカメラ位置(1),(9),(17),(25)は再計算される。 In this case, the camera positions (1), (9), (17), and (25) shown in FIG. 29) is calculated. At this time, camera positions (1), (9), (17), and (25) treated as initial values are recalculated.

上記の処理では、既に求められているカメラ位置を初期値として、その時点で対象となっている全てのカメラ位置の計算を行う。この計算は、カメラ位置を増やしながら最終的に全ての画像が対象となるように、繰り返し行われる。こうして、全ての画像におけるカメラ位置を算出する。 In the above processing, the camera positions that have already been obtained are used as initial values, and all the camera positions that are the target at that time are calculated. This calculation is repeated with increasing camera positions until all images are covered. In this way, camera positions in all images are calculated.

(計測対象物の三次元計測)
全ての画像における回転台112に対するカメラ位置を求めたら、今度は隣接するカメラ位置でステレオ画像を構成し、当該ステレオ画像から抽出される特徴点の三次元座標位置を算出する。この際、図11の処理で求めた粗な点群の位置データも利用される。図10は、この処理のフローチャートの一例である。
(Three-dimensional measurement of measurement object)
After obtaining the camera positions with respect to the turntable 112 in all the images, a stereo image is constructed from the adjacent camera positions, and the three-dimensional coordinate positions of feature points extracted from the stereo image are calculated. At this time, the rough position data of the point cloud obtained by the processing of FIG. 11 is also used. FIG. 10 is an example of a flowchart of this process.

処理が開始されると、隣接または近接する視点位置(カメラ位置)から植物120を撮影した2枚の画像をステレオ画像として選択する(ステップS201)。選択の候補となる画像は、カメラ131~133が撮影した合計216枚の画像である。この処理は、ステレオ画像選択部221で行われる。選択する2枚の画像は、異なるカメラが撮影したものであってもよい。なお、重複した対象を撮影した3枚状以上の画像をステレオ画像として選択することもできる。 When the process is started, two images obtained by photographing the plant 120 from adjacent or close viewpoint positions (camera positions) are selected as stereo images (step S201). A total of 216 images captured by the cameras 131 to 133 are used as candidates for selection. This processing is performed by the stereo image selection unit 221 . The two images to be selected may be captured by different cameras. It is also possible to select three or more images obtained by photographing overlapping objects as stereo images.

次に、ステップS201で選択したステレオ画像において、背面を除去する処理を行う(ステップS202)この処理は、図7の背面除去部247で行われる(ステップS202)。次に、背面を除去したステレオ画像からの特徴点の抽出を行う(ステップS203)。この処理は、図7の特徴点抽出部250で行われる。 Next, in the stereo image selected in step S201, processing for removing the back surface is performed (step S202). This processing is performed by the back surface removal unit 247 in FIG. 7 (step S202). Next, feature points are extracted from the stereo image from which the back surface has been removed (step S203). This processing is performed by the feature point extraction unit 250 in FIG.

次に、周辺マスクの作成に利用する画像を取得するためのカメラの位置を選択する(ステップS204)。この処理では、ステップS201で選択したステレオ画像を得たカメラ位置の両側から一組のカメラ位置を選択する。例えば、図2のカメラ1とカメラ2の画像がステップS201で選択された場合、その両サイドのカメラ3とカメラ4の位置がステップS204で選択される。 Next, the position of the camera for acquiring the image used for creating the peripheral mask is selected (step S204). In this process, a pair of camera positions are selected from both sides of the camera position from which the stereo image selected in step S201 was obtained. For example, when the images of camera 1 and camera 2 in FIG. 2 are selected in step S201, the positions of camera 3 and camera 4 on both sides are selected in step S204.

次に、ステップS204で選択したカメラ位置から撮影した画像を周辺マスク作成用ステレオ画像として取得する(ステップS205)。例えば、図2のカメラ3とカメラ4が撮影した計測対象物30の画像がステップS205で取得される。 Next, an image captured from the camera position selected in step S204 is obtained as a stereo image for peripheral mask creation (step S205). For example, images of the measurement object 30 photographed by the cameras 3 and 4 in FIG. 2 are obtained in step S205.

次に、図2~図5に示す原理を利用して周辺マスクを作成する(ステップS206)。この際、背面の除去を行うことで得られる計測対象物の画像のエッジ部分の情報を利用して、図2~図5に示す原理を利用した周辺マスクの作成を行う。例えば、図2には、周辺マスク10が設定される例が示されている。 Next, a peripheral mask is created using the principle shown in FIGS. 2 to 5 (step S206). At this time, information on the edge portion of the image of the object to be measured obtained by removing the back surface is used to create a peripheral mask using the principles shown in FIGS. For example, FIG. 2 shows an example in which a peripheral mask 10 is set.

次に、ステップS203で抽出した特徴点のステレオ画像間での対応関係の特定を行う(ステップS207)。この処理は、図7の対応点特定部260で行われる。この処理では、ステップS206で作成した周辺マスクでマスクされる領域では対応点の特定が禁止される。つまり、ステップS206で作成した周辺マスクの領域では、対応点の特定は行わない。 Next, the correspondence between the stereo images of the feature points extracted in step S203 is identified (step S207). This process is performed by the corresponding point specifying unit 260 in FIG. In this process, identification of corresponding points is prohibited in the area masked by the peripheral mask created in step S206. That is, no corresponding points are specified in the peripheral mask area created in step S206.

例えば、図2には、周辺マスク10が設定され、そこからのカメラ1とカメラ2のステレオ画像からの対応点の特定が禁止された例が示されている。この例によれば、周辺マスク10を利用することで、図1の△点や□点で示される誤対応点の検出が防止される。 For example, FIG. 2 shows an example in which a peripheral mask 10 is set and identification of corresponding points from stereo images of cameras 1 and 2 is prohibited. According to this example, the use of the peripheral mask 10 prevents detection of erroneous corresponding points indicated by Δ points and □ points in FIG.

また、ステレオ画像中からのターゲット113の検出を行う(ステップS208)。この処理はターゲット検出部240で行われる。ターゲットの検出はステップS202~S208の間で行えばよい。 Also, the target 113 is detected from the stereo image (step S208). This processing is performed by the target detection unit 240 . Target detection may be performed between steps S202 to S208.

次に、ステップS207でステレオ画像間での対応関係が特定された特徴点の三次元位置の算出を行う(ステップS209)。この際、図11の処理で位置を特定した特徴点を初期値として用いる。この処理は、三次元座標算出部270で行われる。特徴点の三次元位置は、回転台112に固定された座標系での座標として算出される。この位置が特定された特徴点が三次元点群となり、植物120の点群位置データが得られる。 Next, the three-dimensional position of the feature point for which the correspondence between the stereo images has been specified in step S207 is calculated (step S209). At this time, the feature points whose positions are specified in the process of FIG. 11 are used as initial values. This processing is performed by the three-dimensional coordinate calculation unit 270 . The three-dimensional position of the feature point is calculated as coordinates in a coordinate system fixed to the turntable 112 . The feature points whose positions are specified form a three-dimensional point group, and point group position data of the plant 120 is obtained.

次に、ステップS201の前段階に戻り、ステップS201以下の処理が繰り返される。例えば、カメラN、カメラN+1、カメラN+2、カメラN+3・・・・と並んでいる場合に、カメラNとカメラN+1の撮影画像をステレオ画像とした図10の処理、カメラN+1とカメラN+2の撮影画像をステレオ画像とした図10の処理、カメラN+2とカメラN+3の撮影画像をステレオ画像とした図10の処理、・・・を全ての画像を対象に順次行う。 Next, the process returns to the previous stage of step S201, and the processes after step S201 are repeated. For example, when camera N, camera N+1, camera N+2, camera N+3, . 10 for stereo images, the processing for FIG. 10 for stereo images taken by cameras N+2 and N+3, . . . are sequentially performed on all images.

新たな組み合わせのステレオ画像が選択されると、その段階で未知の対応点(ステレオ画像を構成する画像の中で対応する未知な特徴点)が抽出され、その位置が算出される。この処理を繰り返すことで、利用する全ての画像から順次選択されたステレオ画像中で共通する特徴点の三次元位置の算出が行われる。こうして、三次元計測の対象である植物120を、三次元座標が判明した点の集合として捉えた点群位置データが得られる。 When a new combination of stereo images is selected, unknown corresponding points (corresponding unknown feature points in the images forming the stereo image) are extracted at that stage, and their positions are calculated. By repeating this process, the three-dimensional positions of common feature points in stereo images sequentially selected from all images to be used are calculated. In this way, point group position data is obtained in which the plant 120, which is the object of three-dimensional measurement, is captured as a set of points whose three-dimensional coordinates are known.

植物120の点群位置データ得たら、それに基づき植物120の三次元モデルを作成する。この処理は、既知の処理であるので説明は省略する。三次元モデルの作成については、例えば、国際公開番号WO2011/070927号公報、特開2012-230594号公報、特開2014-35702号公報等に記載されている。 After obtaining the point group position data of the plant 120, a three-dimensional model of the plant 120 is created based on the data. Since this process is a known process, a description thereof will be omitted. Creation of a three-dimensional model is described, for example, in International Publication No. WO2011/070927, Japanese Patent Application Laid-Open No. 2012-230594, Japanese Patent Application Laid-Open No. 2014-35702, and the like.

(むすび)
以上述べた実施形態では、異なる第1の視点(図2のカメラ2)および第2の視点(図2のカメラ1)から重複する撮影対象(図2の計測対象物30)を撮影したステレオ画像を得る画像データ受付部210(図7参照)と、前記ステレオ画像において対応する特徴点を特定する対応点検出部260(図7参照)と、前記第1の視点(図2のカメラ2)の前記第2の視点(図2のカメラ1)から離れる側からの第1の補助視点(図2のカメラ4)の選択、および前記第1の視点(図2のカメラ2)の前記第2の視点(図2のカメラ1)の側からの第2の補助視点(図2のカメラ3)の選択を行う補助視点選択部(周辺マスク作成用カメラ位置選択部251)と、前記第1の補助視点(図2のカメラ4)から前記撮影対象を撮影した第1の補助画像(図2のカメラ4が撮影した画像)と前記第2の補助視点(図2のカメラ3)から前記撮影対象を撮影した第2の補助画像(図2のカメラ3が撮影した画像)とを取得する補助画像取得部(周辺マスク作成用ステレオ画像取得部252)と、前記第1の補助視点(図2のカメラ4)から見て前記撮影対象(計測対象物30)の影となり、且つ、前記第2の補助視点(図2のカメラ3)から見て前記撮影対象(計測対象物30)の影とならない領域をマスクする周辺マスク10を作成する周辺マスク作成部253とを備え、前記周辺マスク10でマスクされる領域における前記対応する特徴点の特定が制限される三次元計測装置200が示されている。
(Conclusion)
In the above-described embodiment, stereo images of overlapping imaging targets (measurement target 30 in FIG. 2) from different first viewpoints (camera 2 in FIG. 2) and second viewpoints (camera 1 in FIG. 2) are taken. , a corresponding point detection unit 260 (see FIG. 7) for identifying corresponding feature points in the stereo image, and the first viewpoint (camera 2 in FIG. 2). Selection of a first auxiliary viewpoint (camera 4 in FIG. 2) from the side away from said second viewpoint (camera 1 in FIG. 2) and selection of said second auxiliary viewpoint (camera 2 in FIG. 2) from said first viewpoint (camera 2 in FIG. 2). an auxiliary viewpoint selection unit (surrounding mask creation camera position selection unit 251) for selecting a second auxiliary viewpoint (camera 3 in FIG. 2) from the viewpoint (camera 1 in FIG. 2); A first auxiliary image (image captured by camera 4 in FIG. 2) obtained by photographing the subject from a viewpoint (camera 4 in FIG. 2) and the subject from the second auxiliary viewpoint (camera 3 in FIG. 2). An auxiliary image acquisition unit (peripheral mask creation stereo image acquisition unit 252) that acquires a captured second auxiliary image (an image captured by the camera 3 in FIG. 2), and the first auxiliary viewpoint (the camera in FIG. 2). 4) is a shadow of the object to be photographed (object to be measured 30) and is not a shadow of the object to be photographed (object to be measured 30) as seen from the second auxiliary viewpoint (camera 3 in FIG. 2). and a peripheral mask creation unit 253 for creating a peripheral mask 10 for masking , and limiting the identification of the corresponding feature points in the region masked by the peripheral mask 10.

三次元計測装置200では、周辺マスクを用いることで、図2の△点や□点といったカメラ1とカメラ2の撮影画像から得られるステレオ画像間での誤対応点の検出が防止される。 In the three-dimensional measuring apparatus 200, the use of the peripheral mask prevents the detection of erroneous corresponding points, such as the points Δ and □ in FIG.

(その他)
回転台112の回転を精密に制御し、撮影時に回転を停止し、静止させた状態とする態様も可能である。例えば撮影時に長い露光時間が必要な場合や、対象が振動により生じた揺れが収束するまでに、この手法を利用することができる。また、計測の対象は植物に限定されない。
(others)
It is also possible to control the rotation of the turntable 112 precisely, stop the rotation during photographing, and maintain a stationary state. For example, this method can be used when a long exposure time is required during shooting, or until the shaking caused by the vibration of the object converges. Also, the object of measurement is not limited to plants.

計測対象を回転させずに固定し、計測対象に向けたカメラを円周上で移動させつつ撮影を行ってもよい。この場合、カメラが移動する円周の中心を基準にカメラの角度位置が把握される。また、計測対象とカメラの位置関係を相対的に固定してもよい。この場合、計測対象を中心とした円周上に多数のカメラを配置した状態とし、各カメラ位置からの撮影を行う。この場合、カメラが配置された円周の中心を基準に角度位置が把握される。 Alternatively, the object to be measured may be fixed without being rotated, and the camera directed toward the object to be measured may be moved on the circumference of the circle while shooting. In this case, the angular position of the camera is grasped with reference to the center of the circumference along which the camera moves. Also, the positional relationship between the measurement target and the camera may be relatively fixed. In this case, a large number of cameras are arranged on the circumference of the object to be measured, and images are taken from each camera position. In this case, the angular position is grasped with reference to the center of the circumference where the camera is arranged.

本発明は、図6の形態に限定されず、ステレオ画像を用いた三次元計測の技術に広く適用できる。 The present invention is not limited to the form of FIG. 6, and can be widely applied to three-dimensional measurement techniques using stereo images.

10…周辺マスク、20…背面、30…計測対象物、41…方向線、42…方向線、100…3D計測システム、111…土台、112…回転台、113…ターゲット、120…測定対象物である植物、121~123…ランダムドット柱、124…鉢、125…2次元バーコード表示、131~133…カメラ、200…PCを利用した3D計測処理装置。 10... Peripheral mask, 20... Back surface, 30... Measurement object, 41... Direction line, 42... Direction line, 100... 3D measurement system, 111... Base, 112... Rotary table, 113... Target, 120... Measurement object Certain plants 121 to 123 random dot columns 124 pots 125 two-dimensional bar code display 131 to 133 cameras 200 3D measurement processor using a PC.

Claims (6)

異なる第1の視点および第2の視点から撮影対象を撮影したステレオ画像を得るステレオ画像取得部と、
前記ステレオ画像において対応する特徴点を特定する対応点特定部と、
前記第1の視点の前記第2の視点から離れる側からの第1の補助視点の選択、および前記第1の視点の前記第2の視点の側からの第2の補助視点の選択を行う補助視点選択部と、
前記第1の補助視点から前記撮影対象を撮影した第1の補助画像と前記第2の補助視点から前記撮影対象を撮影した第2の補助画像とを取得する補助画像取得部と、
前記第1の補助視点から見て前記撮影対象の影となり、且つ、前記第2の補助視点から見て前記撮影対象の影とならない領域をマスク領域として設定するマスク領域設定部と
を備え、
前記対応する特徴点の特定が前記マスク領域において制限される画像を用いた三次元計測装置。
a stereo image acquisition unit that obtains stereo images of a subject photographed from different first and second viewpoints;
a corresponding point identifying unit that identifies corresponding feature points in the stereo image;
Auxiliary for selecting a first auxiliary viewpoint from a side of the first viewpoint away from the second viewpoint and selecting a second auxiliary viewpoint from the second viewpoint side of the first viewpoint a viewpoint selection unit;
an auxiliary image obtaining unit that obtains a first auxiliary image obtained by photographing the object to be photographed from the first auxiliary viewpoint and a second auxiliary image obtained by photographing the object to be photographed from the second auxiliary viewpoint;
a mask area setting unit that sets, as a mask area, an area that is a shadow of the imaging target when viewed from the first auxiliary viewpoint and is not a shadow of the imaging target when viewed from the second auxiliary viewpoint;
A three-dimensional measuring apparatus using an image in which the identification of the corresponding feature points is restricted in the mask area.
前記第2の補助視点が前記第2の視点の前記第1の視点から離れる側から選択される請求項1に記載の画像を用いた三次元計測装置。 2. A three-dimensional measuring apparatus using an image according to claim 1, wherein said second auxiliary viewpoint is selected from a side of said second viewpoint away from said first viewpoint. 前記マスク領域は、
前記第1の補助視点と前記第1の補助視点から見た前記撮影対象の縁の部分とを結ぶ第1の方向線と、
第2の補助視点と前記第2の補助視点から見た前記第1の補助視点からは死角となる前記撮影対象の縁の部分とを結ぶ第2の方向線と
の交点の前記第1の視点から見た後方であって、前記第1の方向線と前記第2の方向線で囲まれる領域である請求項1または2に記載の画像を用いた三次元計測装置。
The mask area is
a first direction line connecting the first auxiliary viewpoint and an edge portion of the imaging target viewed from the first auxiliary viewpoint;
The first viewpoint at the intersection of the second direction line connecting the second auxiliary viewpoint and the edge portion of the object to be photographed, which is a blind spot from the first auxiliary viewpoint viewed from the second auxiliary viewpoint. 3. The three-dimensional measuring apparatus using an image according to claim 1 or 2, which is a rearward area viewed from above and surrounded by the first direction line and the second direction line.
前記マスク領域において、前記ステレオ画像における対応点の特定が禁止されている請求項1~3のいずれか一項に記載の画像を用いた三次元計測装置。 4. The three-dimensional measuring apparatus using an image according to claim 1, wherein specifying corresponding points in the stereo image is prohibited in the mask region. 異なる第1の視点および第2の視点から撮影対象を撮影したステレオ画像を得るステレオ画像取得ステップと、
前記ステレオ画像において対応する特徴点を特定する対応点特定ステップと、
前記第1の視点の前記第2の視点から離れる側からの第1の補助視点の選択、および前記第1の視点の前記第2の視点の側からの第2の補助視点の選択を行う補助視点選択ステップと、
前記第1の補助視点から前記撮影対象を撮影した第1の補助画像と前記第2の補助視点から前記撮影対象を撮影した第2の補助画像とを取得する補助画像取得ステップと、
前記第1の補助視点から見て前記撮影対象の影となり、且つ、前記第2の補助視点から見て前記撮影対象の影とならない領域をマスク領域として設定するマスク領域設定ステップと
を有し、
前記対応する特徴点の特定が前記マスク領域において制限される画像を用いた三次元計測方法。
a stereo image acquisition step of obtaining stereo images of an object photographed from different first and second viewpoints;
a corresponding point identification step of identifying corresponding feature points in the stereo image;
Auxiliary for selecting a first auxiliary viewpoint from a side of the first viewpoint away from the second viewpoint and selecting a second auxiliary viewpoint from the second viewpoint side of the first viewpoint a viewpoint selection step;
an auxiliary image obtaining step of obtaining a first auxiliary image obtained by photographing the object to be photographed from the first auxiliary viewpoint and a second auxiliary image obtained by photographing the object to be photographed from the second auxiliary viewpoint;
a mask area setting step of setting, as a mask area, an area that is a shadow of the imaging target when viewed from the first auxiliary viewpoint and is not a shadow of the imaging target when viewed from the second auxiliary viewpoint;
A three-dimensional measurement method using an image in which the identification of the corresponding feature points is restricted in the mask area.
コンピュータに読み取らせて実行させるプログラムであって、
コンピュータに
異なる第1の視点および第2の視点から撮影対象を撮影したステレオ画像を得るステレオ画像取得ステップと、
前記ステレオ画像において対応する特徴点を特定する対応点特定ステップと、
前記第1の視点の前記第2の視点から離れる側からの第1の補助視点の選択、および前記第1の視点の前記第2の視点の側からの第2の補助視点の選択を行う補助視点選択ステップと、
前記第1の補助視点から前記撮影対象を撮影した第1の補助画像と前記第2の補助視点から前記撮影対象を撮影した第2の補助画像とを取得する補助画像取得ステップと、
前記第1の補助視点から見て前記撮影対象の影となり、且つ、前記第2の補助視点から見て前記撮影対象の影とならない領域をマスク領域として設定するマスク領域設定ステップと
を実行させ、
前記対応する特徴点の特定が前記マスク領域において制限される画像を用いた三次元計測用プログラム。
A program that is read and executed by a computer,
a stereo image acquisition step of obtaining stereo images of an object to be photographed from different first and second viewpoints in a computer;
a corresponding point identification step of identifying corresponding feature points in the stereo image;
Auxiliary for selecting a first auxiliary viewpoint from a side of the first viewpoint away from the second viewpoint and selecting a second auxiliary viewpoint from the second viewpoint side of the first viewpoint a viewpoint selection step;
an auxiliary image obtaining step of obtaining a first auxiliary image obtained by photographing the object to be photographed from the first auxiliary viewpoint and a second auxiliary image obtained by photographing the object to be photographed from the second auxiliary viewpoint;
a mask area setting step of setting, as a mask area, an area that is a shadow of the subject when viewed from the first auxiliary viewpoint and is not a shadow of the subject when viewed from the second auxiliary viewpoint;
A program for three-dimensional measurement using an image in which the identification of the corresponding feature points is restricted in the mask area.
JP2019105107A 2019-06-05 2019-06-05 Three-dimensional measurement device using images, three-dimensional measurement method using images, and three-dimensional measurement program using images Active JP7229102B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019105107A JP7229102B2 (en) 2019-06-05 2019-06-05 Three-dimensional measurement device using images, three-dimensional measurement method using images, and three-dimensional measurement program using images

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019105107A JP7229102B2 (en) 2019-06-05 2019-06-05 Three-dimensional measurement device using images, three-dimensional measurement method using images, and three-dimensional measurement program using images

Publications (2)

Publication Number Publication Date
JP2020197493A JP2020197493A (en) 2020-12-10
JP7229102B2 true JP7229102B2 (en) 2023-02-27

Family

ID=73649560

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019105107A Active JP7229102B2 (en) 2019-06-05 2019-06-05 Three-dimensional measurement device using images, three-dimensional measurement method using images, and three-dimensional measurement program using images

Country Status (1)

Country Link
JP (1) JP7229102B2 (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007327938A (en) 2006-05-10 2007-12-20 Topcon Corp Image processing device and method therefor
JP2011141710A (en) 2010-01-07 2011-07-21 National Institute Of Information & Communication Technology Device, method and program for estimating depth

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09231371A (en) * 1996-02-21 1997-09-05 Canon Inc Picture information input device and its method

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007327938A (en) 2006-05-10 2007-12-20 Topcon Corp Image processing device and method therefor
JP2011141710A (en) 2010-01-07 2011-07-21 National Institute Of Information & Communication Technology Device, method and program for estimating depth

Also Published As

Publication number Publication date
JP2020197493A (en) 2020-12-10

Similar Documents

Publication Publication Date Title
JP5480914B2 (en) Point cloud data processing device, point cloud data processing method, and point cloud data processing program
CN113379822B (en) Method for acquiring 3D information of target object based on pose information of acquisition equipment
US9697607B2 (en) Method of estimating imaging device parameters
US6917702B2 (en) Calibration of multiple cameras for a turntable-based 3D scanner
US9443308B2 (en) Position and orientation determination in 6-DOF
CN109584307B (en) System and method for improving calibration of intrinsic parameters of a camera
JP5620200B2 (en) Point cloud position data processing device, point cloud position data processing method, point cloud position data processing system, and point cloud position data processing program
CN106530358A (en) Method for calibrating PTZ camera by using only two scene images
WO2010004466A1 (en) Three dimensional mesh modeling
EP3382645B1 (en) Method for generation of a 3d model based on structure from motion and photometric stereo of 2d sparse images
JP6898776B2 (en) 3D measuring device
JP2010287174A (en) Furniture simulation method, device, program, recording medium
CN112686950B (en) Pose estimation method, pose estimation device, terminal equipment and computer readable storage medium
JP2017003525A (en) Three-dimensional measuring device
JP2010133752A (en) Shape measuring device and program
US6178392B1 (en) Method for combining the computer models of two surfaces in 3-D space
JP2004280776A (en) Method for determining shape of object in image
JPH0766436B2 (en) 3D model construction device using continuous silhouette images
JP7229102B2 (en) Three-dimensional measurement device using images, three-dimensional measurement method using images, and three-dimensional measurement program using images
CN111553944A (en) Method and device for determining camera layout position, terminal equipment and storage medium
JP7242431B2 (en) Three-dimensional measuring device, three-dimensional measuring method and three-dimensional measuring program
CN114494316A (en) Corner marking method, parameter calibration method, medium, and electronic device
JP2003067726A (en) Solid model generation system and method
JP7251631B2 (en) Template creation device, object recognition processing device, template creation method, object recognition processing method, and program
Rao et al. Inferring plane orientation from a single motion blurred image

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190613

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220311

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230106

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230203

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230214

R150 Certificate of patent or registration of utility model

Ref document number: 7229102

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150