JP2022064506A - Image processing device, image processing method, and program - Google Patents

Image processing device, image processing method, and program Download PDF

Info

Publication number
JP2022064506A
JP2022064506A JP2020173185A JP2020173185A JP2022064506A JP 2022064506 A JP2022064506 A JP 2022064506A JP 2020173185 A JP2020173185 A JP 2020173185A JP 2020173185 A JP2020173185 A JP 2020173185A JP 2022064506 A JP2022064506 A JP 2022064506A
Authority
JP
Japan
Prior art keywords
combination
feature points
calculated
dimensional coordinates
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2020173185A
Other languages
Japanese (ja)
Inventor
喜宏 山下
Yoshihiro Yamashita
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Solution Innovators Ltd
Original Assignee
NEC Solution Innovators Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Solution Innovators Ltd filed Critical NEC Solution Innovators Ltd
Priority to JP2020173185A priority Critical patent/JP2022064506A/en
Publication of JP2022064506A publication Critical patent/JP2022064506A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

To visualize the effect upon a three-dimensional shape of a combination of erroneous feature points when extracting a combination of feature points from a plurality of images and constructing a three-dimensional shape.SOLUTION: An image processing device 10 comprises: an error calculation unit 11 which, when the three-dimensional coordinates of a corresponding object have been calculated for each combination of corresponding feature points extracted from each image of an object, calculates for each combination of feature points an error with regard to the corresponding three-dimensional coordinates; a threshold setting unit 12 for specifying a minimum and a maximum value from within the calculated error and setting a plurality of thresholds between the minimum and the maximum values; a state specification unit 13 for specifying for each threshold the state of the three-dimensional shape as the object for the case where a combination of feature points the error of which is greater than or equal to the threshold is eliminated; and a state display unit 14 for displaying for each threshold the specified state on a screen.SELECTED DRAWING: Figure 1

Description

本発明は、対象物の複数の画像から、その3次元形状を構築する際に有用となる、画像処理装置、及び画像処理方法に関し、更には、これらを実現するためのプログラムに関する。 The present invention relates to an image processing apparatus and an image processing method that are useful when constructing a three-dimensional shape of a plurality of images of an object, and further relates to a program for realizing these.

近年、画像に写っている対象の3次元形状を構築する技術が注目されている。このような技術の代表例としては、SfM(Structure from Motion)が知られている。SfMでは、特定の対象をカメラの視点を変えながら複数回撮影が行われ、得られた複数枚の画像から、特定の対象の3次元形状が再構築される。 In recent years, a technique for constructing a three-dimensional shape of an object shown in an image has attracted attention. SfM (Structure from Motion) is known as a typical example of such a technique. In SfM, a specific target is photographed a plurality of times while changing the viewpoint of the camera, and the three-dimensional shape of the specific target is reconstructed from the obtained plurality of images.

具体的には、まず、SfMでは、画像毎に、その特徴量(例えば、SIFT特徴量、SURF特徴量)が計算され、画像の拡大縮小、回転、及び照度変化に強いロバストネスな特徴点が抽出される。次に、画像間で、抽出した特徴点のマッチングが実行され、一致する特徴点のペア(以下「特徴点ペア」と表記する。)が抽出される。 Specifically, first, in SfM, the feature amount (for example, SIFT feature amount, SURF feature amount) is calculated for each image, and robustness feature points that are resistant to image enlargement / reduction, rotation, and illuminance change are extracted. Will be done. Next, matching of the extracted feature points is executed between the images, and a pair of matching feature points (hereinafter referred to as “feature point pair”) is extracted.

その後、幾つかの特徴点ペア毎に、これらの幾何学的な関係に基づいて、Fundamental行列が算出され、算出された各Fundamental行列間での差が最も少なくなるように、特徴点ペア毎の幾何学的な関係が調整される。そして、調整後の幾何学的な関係に基づいて、3次元形状(点群データ)が再構築される。 Then, for each of several feature point pairs, a Fundamental matrix is calculated based on these geometric relationships, and for each feature point pair so that the difference between each calculated Fundamental matrix is the smallest. Geometric relationships are adjusted. Then, the three-dimensional shape (point cloud data) is reconstructed based on the adjusted geometrical relationship.

ところで、上述のSfMでは、特徴点間のマッチングに誤りが発生する場合があり、この場合、誤りのある特徴点ペアが抽出されてしまい、復元される3次元形状の精度が低下してしまう。このため、特許文献1及び2に開示されたシステムは、対象物のペア画像それぞれにおいて、対応する線分又は点の指定を受け付け、受け付けた線分又は点に基づいて、誤りのある特徴点ペアを抽出し、抽出した特徴点ペアを削除している。 By the way, in the above-mentioned SfM, an error may occur in matching between feature points, and in this case, an erroneous feature point pair is extracted, and the accuracy of the restored three-dimensional shape is lowered. Therefore, the system disclosed in Patent Documents 1 and 2 accepts the designation of the corresponding line segment or point in each of the paired images of the object, and based on the accepted line segment or point, the feature point pair having an error is erroneous. Is extracted, and the extracted feature point pair is deleted.

また、上述のSfMでは、バンドル調整といったフィルタリングによっても、誤った特徴点ペアの削除が行われている。例えば、バンドル調整では、3次元形状が構築された後、特徴点ペアの一方について、それから得られた3次元座標と、抽出元の画像に対応するカメラ行列とを用いて、元の2次元画像上に再投影が行われる。そして、投影された位置の2次元座標と、抽出時の位置の2次元座標とが比較され、前者の2次元座標と後者の2次元座標との差分が算出される。算出の結果、差分が閾値以下の場合に、対象となった特徴点が適正であり、誤りのない特徴点ペアであると判定される。一方、算出の結果、差分が閾値を越える場合は、対象となった特徴点は適正でなく、誤りのある特徴点ペアであると判定される。 Further, in the above-mentioned SfM, the erroneous feature point pair is deleted by filtering such as bundle adjustment. For example, in bundle adjustment, after the 3D shape is constructed, the original 2D image is used for one of the feature point pairs using the 3D coordinates obtained from it and the camera matrix corresponding to the source image. Reprojection is done on top. Then, the two-dimensional coordinates of the projected position and the two-dimensional coordinates of the position at the time of extraction are compared, and the difference between the former two-dimensional coordinates and the latter two-dimensional coordinates is calculated. As a result of the calculation, when the difference is equal to or less than the threshold value, it is determined that the target feature point is appropriate and is a feature point pair without error. On the other hand, if the difference exceeds the threshold value as a result of the calculation, it is determined that the target feature point is not appropriate and is an erroneous feature point pair.

特許第5311465号公報Japanese Patent No. 531465 国際公開第2019/065784号International Publication No. 2019/065784

しかしながら、特許文献1及び2に開示されたシステムを用いた場合であっても、更に、バンドル調整を実行した場合であっても、誤りのある特徴点ペアを全て削除することは困難である。一方、誤りがあると判定された特徴点ペアであっても、誤りの程度によっては、3次元形状(点群)に影響を与えない場合もある。このため、誤りのある特徴点が3次元形状(点群データ)に与える影響を可視化することが求められている。 However, even when the systems disclosed in Patent Documents 1 and 2 are used, and even when bundle adjustment is performed, it is difficult to delete all the erroneous feature point pairs. On the other hand, even a feature point pair determined to have an error may not affect the three-dimensional shape (point cloud) depending on the degree of the error. Therefore, it is required to visualize the influence of an erroneous feature point on the three-dimensional shape (point cloud data).

本発明の目的の一例は、複数の画像から対応する特徴点の組合せを抽出して3次元形状を構築するに際して、誤りのある特徴点の組合せが3次元形状に与える影響を可視化し得る、画像処理装置、画像処理方法、及びプログラムを提供することにある。 An example of an object of the present invention is an image capable of visualizing the effect of an erroneous combination of feature points on a three-dimensional shape when extracting a combination of corresponding feature points from a plurality of images to construct a three-dimensional shape. The purpose of the present invention is to provide a processing device, an image processing method, and a program.

上記目的を達成するため、本発明の一側面における画像処理装置は、
対象物の複数の画像それぞれから抽出された、対応する特徴点の組合せそれぞれについて、対応する前記対象物の3次元座標が算出されている場合に、前記特徴点の組合せ毎に、対応する前記3次元座標についての誤差を算出する、誤差算出部と、
前記特徴点の組合せそれぞれについて算出された前記誤差の中から最大値と最小値とを特定し、前記最小値から前記最大値までの間で、複数の閾値を設定する、閾値設定部と、
複数の前記閾値それぞれ毎に、誤差が当該閾値以上となる前記特徴点の組合せを除去した場合について、前記対象物の3次元形状の状態を特定する、状態特定部と、
複数の前記閾値それぞれ毎に、特定された前記状態を画面上に表示する、状態表示部と、
を備えている、
ことを特徴とする。
In order to achieve the above object, the image processing apparatus in one aspect of the present invention is
When the three-dimensional coordinates of the corresponding object are calculated for each combination of the corresponding feature points extracted from each of the plurality of images of the object, the corresponding 3 is for each combination of the feature points. An error calculation unit that calculates errors in dimensional coordinates,
A threshold setting unit that specifies a maximum value and a minimum value from the errors calculated for each combination of the feature points and sets a plurality of threshold values between the minimum value and the maximum value.
A state specifying unit that specifies the state of the three-dimensional shape of the object when the combination of the feature points whose error is equal to or greater than the threshold is removed for each of the plurality of thresholds.
A status display unit that displays the specified status on the screen for each of the plurality of thresholds.
Is equipped with
It is characterized by that.

また、上記目的を達成するため、本発明の一側面における画像処理方法は、
対象物の複数の画像それぞれから抽出された、対応する特徴点の組合せそれぞれについて、対応する前記対象物の3次元座標が算出されている場合に、前記特徴点の組合せ毎に、対応する前記3次元座標についての誤差を算出する、誤差算出ステップと、
前記特徴点の組合せそれぞれについて算出された前記誤差の中から最大値と最小値とを特定し、前記最小値から前記最大値までの間で、複数の閾値を設定する、閾値設定ステップと、
複数の前記閾値それぞれ毎に、誤差が当該閾値以上となる前記特徴点の組合せを除去した場合について、前記対象物の3次元形状の状態を特定する、状態特定ステップと、
複数の前記閾値それぞれ毎に、特定された前記状態を画面上に表示する、状態表示ステップと、
を有する、ことを特徴とする。
Further, in order to achieve the above object, the image processing method in one aspect of the present invention is:
When the three-dimensional coordinates of the corresponding object are calculated for each combination of the corresponding feature points extracted from each of the plurality of images of the object, the corresponding 3 is for each combination of the feature points. An error calculation step that calculates an error in dimensional coordinates,
A threshold setting step for specifying a maximum value and a minimum value from the errors calculated for each combination of the feature points and setting a plurality of threshold values between the minimum value and the maximum value.
A state specifying step for specifying the state of the three-dimensional shape of the object when the combination of the feature points whose error is equal to or greater than the threshold value is removed for each of the plurality of threshold values.
A state display step that displays the specified state on the screen for each of the plurality of thresholds.
It is characterized by having.

更に、上記目的を達成するため、本発明の一側面におけるプログラムは、
コンピュータに、
対象物の複数の画像それぞれから抽出された、対応する特徴点の組合せそれぞれについて、対応する前記対象物の3次元座標が算出されている場合に、前記特徴点の組合せ毎に、対応する前記3次元座標についての誤差を算出する、誤差算出ステップと、
前記特徴点の組合せそれぞれについて算出された前記誤差の中から最大値と最小値とを特定し、前記最小値から前記最大値までの間で、複数の閾値を設定する、閾値設定ステップと、
複数の前記閾値それぞれ毎に、誤差が当該閾値以上となる前記特徴点の組合せを除去した場合について、前記対象物の3次元形状の状態を特定する、状態特定ステップと、
複数の前記閾値それぞれ毎に、特定された前記状態を画面上に表示する、状態表示ステップと、
を実行させることを特徴とする。
Further, in order to achieve the above object, the program in one aspect of the present invention is:
On the computer
When the three-dimensional coordinates of the corresponding object are calculated for each combination of the corresponding feature points extracted from each of the plurality of images of the object, the corresponding 3 is for each combination of the feature points. An error calculation step that calculates an error in dimensional coordinates,
A threshold setting step for specifying a maximum value and a minimum value from the errors calculated for each combination of the feature points and setting a plurality of threshold values between the minimum value and the maximum value.
A state specifying step for specifying the state of the three-dimensional shape of the object when the combination of the feature points whose error is equal to or greater than the threshold value is removed for each of the plurality of threshold values.
A state display step that displays the specified state on the screen for each of the plurality of thresholds.
Is characterized by executing.

以上のように本発明によれば、複数の画像から対応する特徴点の組合せを抽出して3次元形状を構築するに際して、誤りのある特徴点の組合せが3次元形状に与える影響を可視化しすることができる。 As described above, according to the present invention, when a combination of corresponding feature points is extracted from a plurality of images to construct a three-dimensional shape, the influence of an erroneous combination of feature points on the three-dimensional shape is visualized. be able to.

図1は、実施の形態における画像処理装置の概略構成を示す構成図である。FIG. 1 is a configuration diagram showing a schematic configuration of an image processing apparatus according to an embodiment. 図2は、実施の形態における画像処理装置の構成を具体的に示す構成図である。FIG. 2 is a configuration diagram specifically showing the configuration of the image processing apparatus according to the embodiment. 図3は、実施の形態において処理対象となる複数の画像の一例を示す図である。FIG. 3 is a diagram showing an example of a plurality of images to be processed in the embodiment. 図4は、特徴点の組合せが抽出されたペア画像の一例を示す図である。FIG. 4 is a diagram showing an example of a pair image from which a combination of feature points is extracted. 図5は、カメラ行列から求められる、初期ペア画像のカメラの3次元座標と回転行列との一例を示す図である。FIG. 5 is a diagram showing an example of the three-dimensional coordinates and the rotation matrix of the camera of the initial pair image obtained from the camera matrix. 図6は、初期ペア画像の選択後に新たに選択された画像とそれから抽出された特徴点の組合せの一例を示す図である。FIG. 6 is a diagram showing an example of a combination of a newly selected image after selection of an initial pair image and a feature point extracted from the image. 図7は、実施の形態における誤差算出処理の一例を説明する図である。FIG. 7 is a diagram illustrating an example of error calculation processing in the embodiment. 図8は、実施の形態における誤差算出処理の他の例を説明する図である。FIG. 8 is a diagram illustrating another example of the error calculation process in the embodiment. 図9は、実施の形態における画像処理装置の動作を示すフロー図である。FIG. 9 is a flow chart showing the operation of the image processing apparatus according to the embodiment. 図10は、図9に示すステップA8によって画面上に表示される閾値毎の指標の一例を示す図である。FIG. 10 is a diagram showing an example of an index for each threshold value displayed on the screen by step A8 shown in FIG. 図11は、画面上に表示される点群データの一例を示す図である。FIG. 11 is a diagram showing an example of point cloud data displayed on the screen. 図12は、実施の形態における画像処理装置を実現するコンピュータの一例を示すブロック図である。FIG. 12 is a block diagram showing an example of a computer that realizes the image processing device according to the embodiment.

(実施の形態)
以下、実施の形態における、画像処理装置、画像処理方法、及びプログラムについて、図1~図12を参照しながら説明する。
(Embodiment)
Hereinafter, the image processing apparatus, the image processing method, and the program in the embodiment will be described with reference to FIGS. 1 to 12.

[装置構成]
最初に、実施の形態における画像処理装置の概略構成について図1を用いて説明する。図1は、実施の形態における画像処理装置の概略構成を示す構成図である。
[Device configuration]
First, the schematic configuration of the image processing apparatus according to the embodiment will be described with reference to FIG. FIG. 1 is a configuration diagram showing a schematic configuration of an image processing apparatus according to an embodiment.

図1に示す実施の形態における画像処理装置は、対象物の複数の画像から、対象物の3次元形状を構築する際に有用となる装置である。図1に示すように、画像処理装置10は、誤差算出部11と、閾値設定部12と、状態特定部13と、状態表示部14とを備えている。 The image processing device according to the embodiment shown in FIG. 1 is a device that is useful when constructing a three-dimensional shape of an object from a plurality of images of the object. As shown in FIG. 1, the image processing device 10 includes an error calculation unit 11, a threshold value setting unit 12, a state specifying unit 13, and a state display unit 14.

誤差算出部11は、対象物の複数の画像それぞれから抽出された、対応する特徴点の組合せそれぞれについて、対応する対象物の3次元座標が算出されている場合に、特徴点の組合せ毎に、対応する3次元座標についての誤差を算出する。 When the three-dimensional coordinates of the corresponding object are calculated for each combination of the corresponding feature points extracted from each of the plurality of images of the object, the error calculation unit 11 determines each combination of the feature points. Calculate the error for the corresponding 3D coordinates.

閾値設定部12は、特徴点の組合せそれぞれについて算出された誤差の中から最大値と最小値とを特定し、最小値から最大値までの間で、複数の閾値を設定する。状態特定部13は、設定された閾値毎に、誤差がその閾値以上となる特徴点の組合せを除去した場合について、対象物の3次元形状の状態を特定する。状態表示部14は、閾値毎に、特定された状態を画面上に表示する。 The threshold value setting unit 12 specifies the maximum value and the minimum value from the errors calculated for each combination of feature points, and sets a plurality of threshold values between the minimum value and the maximum value. The state specifying unit 13 specifies the state of the three-dimensional shape of the object for each set threshold value when the combination of feature points whose error is equal to or greater than the threshold value is removed. The state display unit 14 displays the specified state on the screen for each threshold value.

このように、実施の形態では、特徴点の組合せ毎に、対応する3次元座標についての誤差が算出され、そして、特徴点の組合せを誤りであるとして除去する際の誤差の閾値を段階的に変化させた場合の、対象物の3次元形状の状態が画面に表示される。このため、複数の画像から対応する特徴点の組合せを抽出して3次元形状を構築するに際して、誤りのある特徴点の組合せが3次元形状に与える影響が可視化されることになる。 As described above, in the embodiment, the error for the corresponding three-dimensional coordinates is calculated for each combination of the feature points, and the error threshold when the combination of the feature points is removed as an error is stepwise. The state of the three-dimensional shape of the object when it is changed is displayed on the screen. Therefore, when constructing a three-dimensional shape by extracting a combination of corresponding feature points from a plurality of images, the influence of an erroneous combination of feature points on the three-dimensional shape can be visualized.

続いて、図2~図8を用いて、実施の形態における画像処理装置の構成及び機能について具体的に説明する。図2は、実施の形態における画像処理装置の構成を具体的に示す構成図である。 Subsequently, with reference to FIGS. 2 to 8, the configuration and function of the image processing apparatus according to the embodiment will be specifically described. FIG. 2 is a configuration diagram specifically showing the configuration of the image processing apparatus according to the embodiment.

図2に示すように、実施の形態では、画像処理装置10は、上述した誤差算出部11、閾値設定部12、状態特定部13、及び状態表示部14に加えて、画像取得部15と、特徴点抽出部16と、3次元座標算出部17と、3次元形状構築部18と、データ格納部19とを更に備えている。また、画像処理装置10には、表示装置20が接続されている。 As shown in FIG. 2, in the embodiment, the image processing apparatus 10 includes an image acquisition unit 15 in addition to the error calculation unit 11, the threshold value setting unit 12, the state identification unit 13, and the state display unit 14 described above. It further includes a feature point extraction unit 16, a three-dimensional coordinate calculation unit 17, a three-dimensional shape construction unit 18, and a data storage unit 19. Further, a display device 20 is connected to the image processing device 10.

画像取得部15は、外部の装置、例えば、撮像装置、端末装置、画像データを保持している記憶装置等から、3次元形状の構築対象が写った複数の画像それぞれの画像データを取得する。図3は、実施の形態において処理対象となる複数の画像の一例を示す図である。図3の例では、ペア画像が例示されているが、実施の形態において対象となる画像の枚数は特に限定されるものではない。 The image acquisition unit 15 acquires image data of each of a plurality of images of a three-dimensional shape construction target from an external device such as an image pickup device, a terminal device, a storage device holding image data, and the like. FIG. 3 is a diagram showing an example of a plurality of images to be processed in the embodiment. In the example of FIG. 3, a pair of images is illustrated, but the number of target images in the embodiment is not particularly limited.

特徴点抽出部16は、対象物の複数の画像それぞれから、対応する特徴点の組合せを抽出する。具体的には、特徴点抽出部16は、画像毎に、例えば、SIFT特徴量、又はSURF特徴量を計算して特徴点を特定し、更に、画像間で対応する特徴点同士を、対応する特徴点の組合せとして抽出する。なお、図3の例では、画像が2枚であるため、特徴点の組合せは、特徴点ペアである。図3において、丸で囲まれた部分が特徴点の一つである。また、対応する特徴点の組合せが抽出された2枚の画像は、以降においては、「ペア画像」と表記する。 The feature point extraction unit 16 extracts a combination of corresponding feature points from each of the plurality of images of the object. Specifically, the feature point extraction unit 16 calculates, for example, a SIFT feature amount or a SURF feature amount for each image to specify the feature points, and further, the corresponding feature points are associated with each other between the images. Extract as a combination of feature points. In the example of FIG. 3, since there are two images, the combination of feature points is a feature point pair. In FIG. 3, the circled portion is one of the feature points. Further, the two images from which the combination of the corresponding feature points is extracted are hereinafter referred to as "pair images".

3次元座標算出部17は、特徴点の組合せ毎に、各組合せを構成する特徴点それぞれのカメラ行列を算出し、算出したカメラ行列を用いて、各組合せの特徴点に対応する、対象物の3次元座標を算出する。 The three-dimensional coordinate calculation unit 17 calculates a camera matrix for each feature point constituting each combination for each combination of feature points, and uses the calculated camera matrix to correspond to the feature points of each combination. Calculate 3D coordinates.

図4~図6を用いて、3次元座標算出部17による3次元座標の算出処理について具体的に説明する。図4は、特徴点の組合せが抽出されたペア画像の一例を示す図である。図5は、カメラ行列から求められる、初期ペア画像のカメラの3次元座標と回転行列との一例を示す図である。図6は、初期ペア画像の選択後に新たに選択された画像とそれから抽出された特徴点の組合せの一例を示す図である。 The calculation process of the three-dimensional coordinates by the three-dimensional coordinate calculation unit 17 will be specifically described with reference to FIGS. 4 to 6. FIG. 4 is a diagram showing an example of a pair image from which a combination of feature points is extracted. FIG. 5 is a diagram showing an example of the three-dimensional coordinates and the rotation matrix of the camera of the initial pair image obtained from the camera matrix. FIG. 6 is a diagram showing an example of a combination of a newly selected image after selection of an initial pair image and a feature point extracted from the image.

図4に示すように、3次元座標算出部17は、最初に、一組のペア画像(初期ペア画像)として画像31と画像32とを選択する。そして、この場合、画像31から抽出されている特徴点(m~m)と、画像32から抽出されている特徴点(m’~m’)とは対応している。mとm’、mとm’、mとm’、mとm’、mとm’は、それぞれ特徴点の組合せ(以下「特徴点ペア」とも表記する)である。また、図4の例では、画像31はカメラ41によって撮影され、画像32はカメラ42によって撮影されている。図4において、M(M~M)は、各特徴点に対応する対象物上の3次元座標である。 As shown in FIG. 4, the three-dimensional coordinate calculation unit 17 first selects an image 31 and an image 32 as a pair of images (initial pair images). In this case, the feature points (m 1 to m 5 ) extracted from the image 31 correspond to the feature points (m ' 1 to m ' 5 ) extracted from the image 32. m 1 and m'1 , m 2 and m ' 2 , m 3 and m'3 , m 4 and m'4 , m 5 and m'5 are combinations of feature points (hereinafter also referred to as "feature point pairs"). To do). Further, in the example of FIG. 4, the image 31 is photographed by the camera 41, and the image 32 is photographed by the camera 42. In FIG. 4, M (M 1 to M 5 ) is a three-dimensional coordinate on the object corresponding to each feature point.

続いて、3次元座標算出部17は、初期ペア画像それぞれから抽出された特徴点ペア(m~m、m’~m’)を用いて、画像31を撮影したカメラ41のカメラ行列Pと、画像32を撮影したカメラ42のカメラ行列P’とを算出する。また、カメラ行列P及びカメラ行列P’は、カメラ41の位置を原点とすると、それぞれ下記の数1及び数2によって表すことができる。 Subsequently, the three-dimensional coordinate calculation unit 17 uses the feature point pairs (m 1 to m 5 , m ' 1 to m'5 ) extracted from each of the initial pair images to capture the image 31 by the camera of the camera 41. The matrix P and the camera matrix P'of the camera 42 that captured the image 32 are calculated. Further, the camera matrix P and the camera matrix P'can be represented by the following equations 1 and 2, respectively, with the position of the camera 41 as the origin.

Figure 2022064506000002
Figure 2022064506000002

Figure 2022064506000003
Figure 2022064506000003

上記数1において、Iは、カメラ41の回転行列である。図5に示すように、カメラ41の位置が原点となるので、I=(1,1,1)となる。また、上記数2において、Rは、カメラ42の回転行列である(R=(R,R,R))。tは、上述したように並進行列であり、カメラ42の位置の3次元座標に相当する(t=(t,t,t))。 In the above number 1, I is a rotation matrix of the camera 41. As shown in FIG. 5, since the position of the camera 41 is the origin, I = (1,1,1). Further, in the above equation 2, R is a rotation matrix of the camera 42 (R = (R x , R y , R z )). As described above, t is a parallel traveling matrix and corresponds to the three-dimensional coordinates of the position of the camera 42 (t = (t x , ty, t z ) ).

従って、この場合は、カメラ行列P及びカメラ行列P’から逆算することによって、R及びtを算出することが出来る。具体的には、3次元座標算出部17は、各特徴点の座標を用いて、下記の数3~数5に示す方程式を解くことによって、R及びtを算出する。数3~数5において、mハットは、m(m~m)を正規化して得られた画像A上の座標である。同様に、m’ハットは、m’(m’~m’)を正規化して得られた画像B上の座標である。Eは、Essential行列、Kはカメラのキャリブレーション行列である。 Therefore, in this case, R and t can be calculated by back-calculating from the camera matrix P and the camera matrix P'. Specifically, the three-dimensional coordinate calculation unit 17 calculates R and t by solving the equations shown in the following equations 3 to 5 using the coordinates of each feature point. In the equations 3 to 5, the m hat is the coordinates on the image A obtained by normalizing m (m 1 to m 5 ). Similarly, the m'hat is the coordinates on the image B obtained by normalizing m'( m'1 to m'5 ). E is the Essential matrix and K is the camera calibration matrix.

Figure 2022064506000004
Figure 2022064506000004

Figure 2022064506000005
Figure 2022064506000005

Figure 2022064506000006
Figure 2022064506000006

また、キャリブレーション行列Kは、下記の数6及び数7から求めることができる。なお、c、cは、カメラの中心座標である。 Further, the calibration matrix K can be obtained from the following equations 6 and 7. Note that c x and cy are the center coordinates of the camera.

Figure 2022064506000007
Figure 2022064506000007

Figure 2022064506000008
Figure 2022064506000008

次に、3次元座標算出部17は、各カメラの位置の3次元座標と回転行列とを用いて、三角測量法により特徴点の3次元座標M(M~M)を算出する。 Next, the three-dimensional coordinate calculation unit 17 calculates the three-dimensional coordinates M (M 1 to M 5 ) of the feature points by the triangular survey method using the three-dimensional coordinates of the position of each camera and the rotation matrix.

次に、図6に示すように、3次元座標算出部17は、特徴点が抽出されている画像であって、初期ペア画像以外の画像の中から、1つの画像33を新たに選択し、新たに選択した画像33と初期ペア画像の1つとを新たなペア画像とする。画像33は、カメラ43によって撮影されている。 Next, as shown in FIG. 6, the three-dimensional coordinate calculation unit 17 newly selects one image 33 from the images other than the initial pair image, which are the images from which the feature points are extracted. The newly selected image 33 and one of the initial pair images are used as a new pair image. The image 33 is taken by the camera 43.

そして、3次元座標算出部17は、画像32の特徴点に対応する画像33の特徴点(m’’~m’’)を特定し、画像32の特徴点と画像33との特徴点とを特徴点ペアとする。そして、3次元座標算出部17は、画像33を撮影したカメラ43のカメラ行列Pnを算出する。カメラ行列Pnは、下記の数8によって表すことができる。 Then, the three-dimensional coordinate calculation unit 17 identifies the feature points ( m''1 to m''3 ) of the image 33 corresponding to the feature points of the image 32, and the feature points of the image 32 and the feature points of the image 33. And is a feature point pair. Then, the three-dimensional coordinate calculation unit 17 calculates the camera matrix Pn of the camera 43 that captured the image 33. The camera matrix Pn can be represented by the following equation 8.

Figure 2022064506000009
Figure 2022064506000009

具体的には、3次元座標算出部17は、画像33の特定された特徴点の画像33における2次元座標と対応する3次元座標M~Mを用いて、PnP法によってカメラ43のカメラ行列PnのRn及びtnを算出する。 Specifically, the three-dimensional coordinate calculation unit 17 uses the three-dimensional coordinates M 1 to M 3 corresponding to the two-dimensional coordinates in the image 33 of the specified feature point of the image 33, and the camera of the camera 43 by the PnP method. The Rn and tun of the matrix Pn are calculated.

3次元形状構築部18は、3次元座標算出部17によって算出された特徴点毎の3次元座標を用いて、対象物の3次元形状を構築する。具体的には、3次元形状構築部18は、3次元座標に存在する特徴点の集合で構成された点群データを構築する。また、3次元形状構築部18は、特徴点毎の3次元座標及び点群データをデータ格納部19に格納する。 The three-dimensional shape construction unit 18 constructs a three-dimensional shape of an object by using the three-dimensional coordinates for each feature point calculated by the three-dimensional coordinate calculation unit 17. Specifically, the three-dimensional shape construction unit 18 constructs a point cloud data composed of a set of feature points existing in the three-dimensional coordinates. Further, the three-dimensional shape construction unit 18 stores the three-dimensional coordinates and the point cloud data for each feature point in the data storage unit 19.

誤差算出部11は、実施の形態では、まず、特徴点の組合せ毎に、各特徴点の組合せを構成する1つの特徴点の抽出元の画像に対応するカメラ行列を、各組合せの3次元座標に適用する。これにより、特徴点の組合せ毎に、各組合せの3次元座標を1つの特徴点が抽出された画像上に投影した場合の2次元座標が算出される。そして、誤差算出部11は、特徴点の組合せ毎に、算出した2次元座標と1つの特徴点の抽出元での2次元座標との差分を、誤差として算出する。 In the embodiment, the error calculation unit 11 first obtains, for each combination of feature points, a camera matrix corresponding to an image from which one feature point is extracted, which constitutes each combination of feature points, in three-dimensional coordinates of each combination. Apply to. As a result, for each combination of feature points, the two-dimensional coordinates when the three-dimensional coordinates of each combination are projected onto the image from which one feature point is extracted are calculated. Then, the error calculation unit 11 calculates the difference between the calculated two-dimensional coordinates and the two-dimensional coordinates at the extraction source of one feature point as an error for each combination of feature points.

図7を用いて、誤差算出部11による誤差算出処理について具体的に説明する。図7は、実施の形態における誤差算出処理の一例を説明する図である。また、図7の例では、図4に示した画像32上の特徴点の一つを再投影する例について示している。更に、図7において、特徴点に対応する3次元座標、即ち、世界座標系での3次元座標を(X,Y,Z)とし、特徴点の抽出時の位置の2次元座標を(x,y)とする。また、特徴点のカメラ座標系での座標を(X,Y,Z)とする。 The error calculation process by the error calculation unit 11 will be specifically described with reference to FIG. 7. FIG. 7 is a diagram illustrating an example of error calculation processing in the embodiment. Further, in the example of FIG. 7, an example of reprojecting one of the feature points on the image 32 shown in FIG. 4 is shown. Further, in FIG. 7, the three-dimensional coordinates corresponding to the feature points, that is, the three-dimensional coordinates in the world coordinate system are set as (X W , Y W , Z W ), and the two-dimensional coordinates of the position at the time of extracting the feature points are set. Let it be (x f , y f ). Further, let the coordinates of the feature points in the camera coordinate system be (X C , Y C , Z C ).

まず、誤差算出部11は、下記の数9を用いて、カメラ行列P’(=[R|t])と特徴点の3次元座標(X,Y,Z)とから、特徴点のカメラ座標系での座標(X,Y,Z)を算出する。 First, the error calculation unit 11 uses the following equation 9 to obtain the feature points from the camera matrix P'(= [R | t]) and the three-dimensional coordinates (X W , Y W , Z W ) of the feature points. Calculate the coordinates (X C , Y C , Z C ) in the camera coordinate system of.

Figure 2022064506000010
Figure 2022064506000010

続いて、誤差算出部11は、下記の数10を用いて、特徴点のカメラ座標系での座標(X,Y,Z)を正規化する。 Subsequently, the error calculation unit 11 normalizes the coordinates ( XC , YC , ZC ) of the feature points in the camera coordinate system using the following equation tens.

Figure 2022064506000011
Figure 2022064506000011

続いて、誤差算出部11は、上記数10で正規化された座標と、カメラの内部パラメータ(図7の例では、カメラ42の焦点距離f、画像中心位置の座標(c,c)とを、下記の数11に適用して、特徴点を画像32に再投影した時の2次元座標(x,y)を算出する。 Subsequently, the error calculation unit 11 uses the coordinates normalized by the above number 10 and the internal parameters of the camera (in the example of FIG. 7, the focal distance f of the camera 42 and the coordinates of the image center position (c x , cy )). Is applied to the following number 11 to calculate the two-dimensional coordinates (x p , y p ) when the feature points are reprojected on the image 32.

Figure 2022064506000012
Figure 2022064506000012

次に、誤差算出部11は、下記の数12を用いて、上記数11から算出した再投影後の2次元座標(x,y)と特徴点の抽出時の位置の2次元座標(x,y)との差分dを、対応する3次元座標についての誤差として算出する。 Next, the error calculation unit 11 uses the following number 12 to calculate the two-dimensional coordinates (x p , y p ) after reprojection calculated from the above number 11 and the two-dimensional coordinates of the position at the time of extracting the feature point (2D coordinates (x p, y p). The difference d from x f , y f ) is calculated as an error with respect to the corresponding three-dimensional coordinates.

Figure 2022064506000013
Figure 2022064506000013

このように、実施の形態では、特徴点を画像上に再投影することによって誤差が算出される。但し、実施の形態では、誤差の算出手法は、再投影による手法に限定されることはなく、他の手法として、エピポーラ線を利用した手法がある。 As described above, in the embodiment, the error is calculated by reprojecting the feature points on the image. However, in the embodiment, the error calculation method is not limited to the method by reprojection, and as another method, there is a method using epipolar lines.

図8を用いて、誤差算出部11による誤差算出処理の他の例について説明する。図8は、実施の形態における誤差算出処理の他の例を説明する図である。図8においては、特徴点pと特徴点p’との組合せが、誤差算出の対象であるとする。また、図8において、Eはエピポーラ面を示し、Oは一方の画像のカメラの中心位置を示し、O’は他方の画像のカメラの中心位置を示している。更に、図8において、左右に示された平行四辺形はそれぞれ画像のフレームを示している。 Another example of the error calculation process by the error calculation unit 11 will be described with reference to FIG. FIG. 8 is a diagram illustrating another example of the error calculation process in the embodiment. In FIG. 8, it is assumed that the combination of the feature point p i and the feature point p'i is the target of the error calculation. Further, in FIG. 8, E indicates an epipolar plane, O i indicates the center position of the camera of one image, and O'i indicates the center position of the camera of the other image. Further, in FIG. 8, the parallelograms shown on the left and right indicate the frame of the image, respectively.

図8の例において、誤差算出部11は、エピポーラ線についての下記の数13に示す関係を用いて、特徴点pが存在しているエピポーラ線lに対応するエピポーラ線l’を算出する。そして、誤差算出部11は、算出したエピポーラ線l’と特徴点p’との距離を、対応する3次元座標についての誤差dとして算出する。なお、図8において、Xiは、特徴点p及び特徴点p’に対応する3次元空間における点である。e及びe’は、それぞれ、対応するエピポーラ線のエピポーラ面Eとの交点を示している。 In the example of FIG. 8, the error calculation unit 11 calculates the epipolar line l ' 1 corresponding to the epipolar line l 1 in which the feature point pi exists, using the relationship shown in the following equation 13 for the epipolar line. do. Then, the error calculation unit 11 calculates the distance between the calculated epipolar line l' 1 and the feature point p'i as an error d with respect to the corresponding three-dimensional coordinates. In FIG. 8, Xi is a point in the three-dimensional space corresponding to the feature point p i and the feature point p'i . e i and e'i indicate the intersections of the corresponding epipolar lines with the epipolar plane E, respectively.

Figure 2022064506000014
Figure 2022064506000014

上記数13において、Fは、Fundamental行列(参照文献)である。Fundamental行列は、下記数14から算出される。下記の数14において、「x」は、3次元空間における点Xを一方の画像上に射影することによって得られた二次元上の点である。「x’」は、3次元空間における点Xを他方の画像上に射影することによって得られた二次元上の点である。Tは転置行列である。 In the above number 13, F is a Fundamental matrix (reference). The Fundamental matrix is calculated from the following number 14. In the number 14 below, "x" is a two-dimensional point obtained by projecting a point X in a three-dimensional space onto one image. "X'" is a two-dimensional point obtained by projecting a point X in a three-dimensional space onto the other image. T is the transposed matrix.

参照文献:Richard Hartleyand Andrew Zisserman, “Multiple View Geometry in Computer Vision Second Edition”, Cambridge University Press, March 2004. References: Richard Hartleyand Andrew Zisserman, “Multiple View Geometry in Computer Vision Second Edition”, Cambridge University Press, March 2004.

Figure 2022064506000015
Figure 2022064506000015

閾値設定部12は、実施の形態では、まず、誤差算出部11によって特徴点の組合せ毎に算出された誤差の中から、最大値dmaxと最小値dminとを特定する。そして、閾値設定部12は、最小値dmin以上、最大値dmax以下の範囲内で、n個の閾値Th、Th、Th、・・・、Thを設定する(数15)。 In the embodiment, the threshold value setting unit 12 first specifies the maximum value d max and the minimum value d min from the errors calculated for each combination of feature points by the error calculation unit 11. Then, the threshold value setting unit 12 sets n threshold values Th 1 , Th 2 , Th 3 , ..., Th n within the range of the minimum value d min or more and the maximum value d max or less (Equation 15). ..

Figure 2022064506000016
Figure 2022064506000016

状態特定部13は、実施の形態では、閾値毎に、誤差がその閾値以上となる特徴点の組合せを除去した場合について、点群データの状況を示す指標を算出することで、対象物の3次元形状の状態を特定する。 In the embodiment, the state specifying unit 13 calculates an index indicating the status of the point cloud data for each threshold value when a combination of feature points whose error is equal to or greater than the threshold value is removed. Identify the state of the dimensional shape.

また、状態特定部13は、閾値毎に、指標として、例えば、以下に示す(a)~(d)のうち少なくとも1つを算出することができる。
(a)特徴点の組合せの除去後に点群データを構成している点の個数
(b)除去されなかった特徴点の組合せにおける平均誤差
(c)特徴点の組合せの除去後の点群データの点の個数と除去前における点群データの点の個数との比率(以下「誤差割合」と表記する。)
(d)特徴点の組合せの除去後における平均誤差と除去前における平均誤差との比率(以下「残点群割合」と表記する。)
Further, the state specifying unit 13 can calculate, for example, at least one of (a) to (d) shown below as an index for each threshold value.
(A) Number of points constituting the point cloud data after removal of the combination of feature points (b) Average error in the combination of feature points not removed (c) Point cloud data after removal of the combination of feature points Ratio between the number of points and the number of points in the point cloud data before removal (hereinafter referred to as "error ratio")
(D) Ratio of the average error after removal of the combination of feature points and the average error before removal (hereinafter referred to as "remaining point cloud ratio").

状態表示部14は、実施の形態では、各閾値と、閾値毎に算出された指標とを、表示装置20の画面上に表示する。また、状態表示部14は、3次元形状構築部18によって構築された点群データも、表示装置20の画面上に表することができる。そして、複数の閾値のうち1つが選択されると、点群データ上で、選択された閾値によって除去される特徴点の組合せが対応する部分を特定し、そして、点群データを表示すると共に、特定した部分を表すアイコンを表示することができる。 In the embodiment, the state display unit 14 displays each threshold value and an index calculated for each threshold value on the screen of the display device 20. Further, the state display unit 14 can also display the point cloud data constructed by the three-dimensional shape construction unit 18 on the screen of the display device 20. Then, when one of the plurality of threshold values is selected, the part corresponding to the combination of the feature points removed by the selected threshold value is specified on the point cloud data, and the point cloud data is displayed and the point cloud data is displayed. An icon representing the specified part can be displayed.

3次元形状構築部18は、閾値設定部12によって複数の閾値が設定されると、閾値毎に、誤差がその閾値以上となる特徴点の組合せの3次元座標を除去し、除去されていない3次元座標を用いて、対象物の点群データを構築することもできる。この場合は、状態表示部14は、閾値と、それに対応する点群データとを、表示装置20の画面上に表示する。 When a plurality of thresholds are set by the threshold setting unit 12, the three-dimensional shape construction unit 18 removes the three-dimensional coordinates of the combination of feature points whose error is equal to or higher than the threshold for each threshold, and the three-dimensional coordinates are not removed. Point cloud data of an object can also be constructed using dimensional coordinates. In this case, the state display unit 14 displays the threshold value and the corresponding point cloud data on the screen of the display device 20.

[装置動作]
次に、実施の形態における画像処理装置10の動作について図9を用いて説明する。図9は、実施の形態における画像処理装置の動作を示すフロー図である。以下の説明においては、適宜図1~図8を参照する。また、実施の形態1では、画像処理装置10を動作させることによって、画像処理方法が実施される。よって、実施の形態における画像処理方法の説明は、以下の画像処理装置10の動作説明に代える。
[Device operation]
Next, the operation of the image processing apparatus 10 according to the embodiment will be described with reference to FIG. FIG. 9 is a flow chart showing the operation of the image processing apparatus according to the embodiment. In the following description, FIGS. 1 to 8 will be referred to as appropriate. Further, in the first embodiment, the image processing method is implemented by operating the image processing device 10. Therefore, the description of the image processing method in the embodiment is replaced with the following description of the operation of the image processing device 10.

図9に示すように、最初に、画像取得部15は、例えば、撮像装置、端末装置、画像データを保持している記憶装置等から、対象物が写った複数の画像それぞれの画像データを取得する(ステップA1)。 As shown in FIG. 9, first, the image acquisition unit 15 acquires image data of each of a plurality of images of an object from, for example, an image pickup device, a terminal device, a storage device holding image data, and the like. (Step A1).

次に、特徴点抽出部16は、ステップA1で取得された画像データそれぞれから、対応する特徴点の組合せを抽出する(ステップA2)。 Next, the feature point extraction unit 16 extracts a combination of corresponding feature points from each of the image data acquired in step A1 (step A2).

次に、3次元座標算出部17は、ステップA2で抽出された特徴点の組合せ毎に、各組合せを構成する特徴点それぞれのカメラ行列を算出し、算出したカメラ行列を用いて、各組合せの特徴点に対応する、対象物の3次元座標を算出する(ステップA3)。 Next, the three-dimensional coordinate calculation unit 17 calculates a camera matrix for each feature point constituting each combination for each combination of feature points extracted in step A2, and uses the calculated camera matrix to form each combination. The three-dimensional coordinates of the object corresponding to the feature points are calculated (step A3).

次に、3次元形状構築部18は、ステップA3で算出された特徴点毎の3次元座標を用いて、対象物の3次元形状、具体的には、3次元空間に存在する特徴点の集合で構成された点群データを構築する(ステップA4)。 Next, the three-dimensional shape construction unit 18 uses the three-dimensional coordinates for each feature point calculated in step A3 to form a three-dimensional shape of the object, specifically, a set of feature points existing in the three-dimensional space. A point group data composed of is constructed (step A4).

次に、誤差算出部11は、ステップA2で抽出された特徴点の組合せ毎に、例えば、一方の特徴点を画像上に再投影することによって、ステップA3で算出された3次元座標についての誤差を算出する(ステップA5)。 Next, the error calculation unit 11 reprojects one of the feature points on the image for each combination of the feature points extracted in step A2, so that the error about the three-dimensional coordinates calculated in step A3 is obtained. Is calculated (step A5).

次に、閾値設定部12は、ステップA5によって算出された誤差の中から、最大値dmaxと最小値dminとを特定し、最小値dmin以上、最大値dmax以下の範囲内で、n個の閾値Th、Th、Th、・・・、Thを設定する(ステップA6)。 Next, the threshold value setting unit 12 identifies the maximum value d max and the minimum value d min from the error calculated in step A5, and within the range of the minimum value d min or more and the maximum value d max or less. N threshold values Th 1 , Th 2 , Th 3 , ..., Th n are set (step A6).

次に、状態特定部13は、ステップA6で設定された閾値毎に、誤差がその閾値以上となる特徴点の組合せを除去した場合について、点群データの状況を示す指標を算出し、それによって、対象物の3次元形状の状態を特定する(ステップA7)。 Next, the state specifying unit 13 calculates an index indicating the status of the point cloud data for each threshold value set in step A6 when the combination of feature points whose error is equal to or greater than the threshold value is removed, thereby calculating an index. , The state of the three-dimensional shape of the object is specified (step A7).

次に、状態表示部14は、ステップ6で設定された閾値毎に、ステップA7で算出された指標を、表示装置20の画面上に表示する(ステップA8)。ステップA8の実行後、画像処理装置10における処理は終了する。図10は、図9に示すステップA8によって画面上に表示される閾値毎の指標の一例を示す図である。また、ステップA8では状態表示部14は、ステップA4で構築された点群データも、表示装置20の画面上に表示することができる。 Next, the status display unit 14 displays the index calculated in step A7 on the screen of the display device 20 for each threshold value set in step 6 (step A8). After the execution of step A8, the processing in the image processing apparatus 10 ends. FIG. 10 is a diagram showing an example of an index for each threshold value displayed on the screen by step A8 shown in FIG. Further, in step A8, the state display unit 14 can also display the point cloud data constructed in step A4 on the screen of the display device 20.

また、ステップA8では、状態表示部14は、更に、複数の閾値のうちいずれかの選択を受け付けることもできる。そして、状態表示部14は、ユーザがいずれか1つの閾値を選択すると(図10において●の閾値)、図11に示すように、点群データ上で、選択された閾値によって除去される特徴点(の組合せ)が対応する部分を特定し、特定した部分を表すアイコンを表示することができる。図11は、画面上に表示される点群データの一例を示す図である。図11の例では、特定した部分を表すアイコンとして★が用いられている。 Further, in step A8, the state display unit 14 can further accept the selection of any one of the plurality of threshold values. Then, when the user selects any one of the threshold values (the threshold value of ● in FIG. 10), the state display unit 14 is a feature point that is removed by the selected threshold value on the point cloud data as shown in FIG. (Combination) can specify the corresponding part and display an icon representing the specified part. FIG. 11 is a diagram showing an example of point cloud data displayed on the screen. In the example of FIG. 11, ★ is used as an icon representing the specified portion.

[実施の形態における効果]
以上のように、実施の形態では、特徴点の組合せにおける誤差について複数の閾値が設定され、閾値毎に、物体の点群データの状況を示す指標が算出され、閾値毎の指標が画面に表示される。そして、ユーザが、いずれかの閾値を選択すると、点群データ上で、選択した閾値に応じて削除される部分が示される。つまり、実施の形態によれば、複数の画像から対応する特徴点の組合せを抽出して3次元形状を構築するに際して、誤りのある特徴点の組合せが3次元形状に与える影響が可視化されることになる。
[Effect in the embodiment]
As described above, in the embodiment, a plurality of threshold values are set for the error in the combination of feature points, an index indicating the status of the point cloud data of the object is calculated for each threshold value, and the index for each threshold value is displayed on the screen. Will be done. Then, when the user selects any of the threshold values, a portion to be deleted according to the selected threshold value is shown on the point cloud data. That is, according to the embodiment, when a combination of corresponding feature points is extracted from a plurality of images to construct a three-dimensional shape, the influence of the combination of feature points with an error on the three-dimensional shape is visualized. become.

[プログラム]
実施の形態におけるプログラムとしては、コンピュータに、図9に示すステップA1~A8を実行させるプログラムが挙げられる。このプログラムをコンピュータにインストールし、実行することによって、実施の形態における画像処理装置と画像処理方法とを実現することができる。この場合、コンピュータのプロセッサは、誤差算出部11、閾値設定部12、状態特定部13、状態表示部14、画像取得部15、特徴点抽出部16、3次元座標算出部17、及び3次元形状構築部18として機能し、処理を行なう。実施の形態では、データ格納部19は、コンピュータに備えられたハードディスク等の記憶装置によって実現できる。コンピュータとしては、汎用のPCの他に、スマートフォン、タブレット型端末装置が挙げられる。
[program]
Examples of the program in the embodiment include a program that causes a computer to execute steps A1 to A8 shown in FIG. By installing and executing this program on a computer, the image processing device and the image processing method according to the embodiment can be realized. In this case, the computer processor has an error calculation unit 11, a threshold setting unit 12, a state identification unit 13, a state display unit 14, an image acquisition unit 15, a feature point extraction unit 16, a three-dimensional coordinate calculation unit 17, and a three-dimensional shape. It functions as a construction unit 18 and performs processing. In the embodiment, the data storage unit 19 can be realized by a storage device such as a hard disk provided in the computer. Examples of computers include smartphones and tablet-type terminal devices in addition to general-purpose PCs.

また、実施の形態におけるプログラムは、複数のコンピュータによって構築されたコンピュータシステムによって実行されても良い。この場合は、例えば、各コンピュータが、それぞれ、誤差算出部11、閾値設定部12、状態特定部13、状態表示部14、画像取得部15、特徴点抽出部16、3次元座標算出部17、及び3次元形状構築部18のいずれかとして機能しても良い。 Further, the program in the embodiment may be executed by a computer system constructed by a plurality of computers. In this case, for example, each computer has an error calculation unit 11, a threshold value setting unit 12, a state specification unit 13, a state display unit 14, an image acquisition unit 15, a feature point extraction unit 16, and a three-dimensional coordinate calculation unit 17, respectively. And may function as any of the three-dimensional shape building units 18.

[物理構成]
ここで、実施の形態におけるプログラムを実行することによって、画像処理装置を実現するコンピュータについて図12を用いて説明する。図12は、実施の形態における画像処理装置を実現するコンピュータの一例を示すブロック図である。
[Physical configuration]
Here, a computer that realizes an image processing apparatus by executing the program in the embodiment will be described with reference to FIG. FIG. 12 is a block diagram showing an example of a computer that realizes the image processing device according to the embodiment.

図12に示すように、コンピュータ110は、CPU(CentralProcessing Unit)111と、メインメモリ112と、記憶装置113と、入力インターフェイス114と、表示コントローラ115と、データリーダ/ライタ116と、通信インターフェイス117とを備える。これらの各部は、バス121を介して、互いにデータ通信可能に接続される。 As shown in FIG. 12, the computer 110 includes a CPU (Central Processing Unit) 111, a main memory 112, a storage device 113, an input interface 114, a display controller 115, a data reader / writer 116, and a communication interface 117. To prepare for. Each of these parts is connected to each other via a bus 121 so as to be capable of data communication.

また、コンピュータ110は、CPU111に加えて、又はCPU111に代えて、GPU(Graphics Processing Unit)、又はFPGA(Field-ProgrammableGate Array)を備えていても良い。この態様では、GPU又はFPGAが、実施の形態におけるプログラムを実行することができる。 Further, the computer 110 may include a GPU (Graphics Processing Unit) or an FPGA (Field-ProgrammableGate Array) in addition to the CPU 111 or in place of the CPU 111. In this aspect, the GPU or FPGA can execute the program in the embodiment.

CPU111は、記憶装置113に格納された、コード群で構成された実施の形態におけるプログラムをメインメモリ112に展開し、各コードを所定順序で実行することにより、各種の演算を実施する。メインメモリ112は、典型的には、DRAM(Dynamic Random Access Memory)等の揮発性の記憶装置である。 The CPU 111 performs various operations by expanding the program in the embodiment composed of the code group stored in the storage device 113 into the main memory 112 and executing the codes in a predetermined order. The main memory 112 is typically a volatile storage device such as a DRAM (Dynamic Random Access Memory).

また、実施の形態におけるプログラムは、コンピュータ読み取り可能な記録媒体120に格納された状態で提供される。なお、本実施の形態におけるプログラムは、通信インターフェイス117を介して接続されたインターネット上で流通するものであっても良い。 Further, the program in the embodiment is provided in a state of being stored in a computer-readable recording medium 120. The program in the present embodiment may be distributed on the Internet connected via the communication interface 117.

また、記憶装置113の具体例としては、ハードディスクドライブの他、フラッシュメモリ等の半導体記憶装置が挙げられる。入力インターフェイス114は、CPU111と、キーボード及びマウスといった入力機器118との間のデータ伝送を仲介する。表示コントローラ115は、ディスプレイ装置119と接続され、ディスプレイ装置119での表示を制御する。 Further, specific examples of the storage device 113 include a semiconductor storage device such as a flash memory in addition to a hard disk drive. The input interface 114 mediates data transmission between the CPU 111 and an input device 118 such as a keyboard and mouse. The display controller 115 is connected to the display device 119 and controls the display on the display device 119.

データリーダ/ライタ116は、CPU111と記録媒体120との間のデータ伝送を仲介し、記録媒体120からのプログラムの読み出し、及びコンピュータ110における処理結果の記録媒体120への書き込みを実行する。通信インターフェイス117は、CPU111と、他のコンピュータとの間のデータ伝送を仲介する。 The data reader / writer 116 mediates the data transmission between the CPU 111 and the recording medium 120, reads the program from the recording medium 120, and writes the processing result in the computer 110 to the recording medium 120. The communication interface 117 mediates data transmission between the CPU 111 and another computer.

また、記録媒体120の具体例としては、CF(Compact Flash(登録商標))及びSD(Secure Digital)等の汎用的な半導体記憶デバイス、フレキシブルディスク(Flexible Disk)等の磁気記録媒体、又はCD-ROM(Compact DiskRead Only Memory)などの光学記録媒体が挙げられる。 Specific examples of the recording medium 120 include a general-purpose semiconductor storage device such as CF (Compact Flash (registered trademark)) and SD (Secure Digital), a magnetic recording medium such as a flexible disk, or a CD-. Examples include optical recording media such as ROM (Compact DiskRead Only Memory).

実施の形態における画像処理装置10は、プログラムがインストールされたコンピュータではなく、各部に対応したハードウェア(例えば、回路)を用いることによっても実現可能である。更に、画像処理装置10は、一部がプログラムで実現され、残りの部分がハードウェアで実現されていてもよい。 The image processing device 10 in the embodiment can also be realized by using hardware (for example, a circuit) corresponding to each part instead of the computer in which the program is installed. Further, the image processing apparatus 10 may be partially realized by a program and the rest may be realized by hardware.

上述した実施の形態の一部又は全部は、以下に記載する(付記1)~(付記18)によって表現することができるが、以下の記載に限定されるものではない。 A part or all of the above-described embodiments can be expressed by the following descriptions (Appendix 1) to (Appendix 18), but the present invention is not limited to the following description.

(付記1)
対象物の複数の画像それぞれから抽出された、対応する特徴点の組合せそれぞれについて、対応する前記対象物の3次元座標が算出されている場合に、前記特徴点の組合せ毎に、対応する前記3次元座標についての誤差を算出する、誤差算出部と、
前記特徴点の組合せそれぞれについて算出された前記誤差の中から最大値と最小値とを特定し、前記最小値から前記最大値までの間で、複数の閾値を設定する、閾値設定部と、
複数の前記閾値それぞれ毎に、誤差が当該閾値以上となる前記特徴点の組合せを除去した場合について、前記対象物の3次元形状の状態を特定する、状態特定部と、
複数の前記閾値それぞれ毎に、特定された前記状態を画面上に表示する、状態表示部と、
を備えている、
ことを特徴とする画像処理装置。
(Appendix 1)
When the three-dimensional coordinates of the corresponding object are calculated for each combination of the corresponding feature points extracted from each of the plurality of images of the object, the corresponding 3 is for each combination of the feature points. An error calculation unit that calculates errors in dimensional coordinates,
A threshold setting unit that specifies a maximum value and a minimum value from the errors calculated for each combination of the feature points and sets a plurality of threshold values between the minimum value and the maximum value.
A state specifying unit that specifies the state of the three-dimensional shape of the object when the combination of the feature points whose error is equal to or greater than the threshold is removed for each of the plurality of thresholds.
A status display unit that displays the specified status on the screen for each of the plurality of thresholds.
Is equipped with
An image processing device characterized by this.

(付記2)
付記1に記載の画像処理装置であって、
前記誤差算出部が、
前記特徴点の組合せ毎に、当該特徴点の組合せを構成する1つの特徴点の抽出元の画像に対応するカメラ行列を、当該組合せの前記3次元座標に適用することによって、当該組合せの前記3次元座標を前記1つの特徴点が抽出された画像上に投影した場合の2次元座標を算出し、算出した2次元座標と前記1つの特徴点の2次元座標との差分を、誤差として算出する、
ことを特徴とする画像処理装置。
(Appendix 2)
The image processing apparatus according to Appendix 1, wherein the image processing apparatus is described.
The error calculation unit
By applying the camera matrix corresponding to the image of the extraction source of one feature point constituting the combination of feature points to the three-dimensional coordinates of the combination for each combination of the feature points, the third of the combination. The two-dimensional coordinates when the dimensional coordinates are projected onto the image from which the one feature point is extracted are calculated, and the difference between the calculated two-dimensional coordinates and the two-dimensional coordinates of the one feature point is calculated as an error. ,
An image processing device characterized by this.

(付記3)
付記1または2に記載の画像処理装置であって、
前記対象物の複数の画像それぞれから、対応する特徴点の組合せを抽出する、特徴点抽出部と、
前記特徴点の組合せ毎に、当該組合せを構成する特徴点それぞれのカメラ行列を算出し、算出した前記カメラ行列を用いて、当該組合せの特徴点に対応する、前記対象物の3次元座標を算出する、3次元座標算出部と、
前記特徴点の組合せ毎に算出された前記3次元座標を用いて、前記対象物の3次元形状を構築する、3次元形状構築部と、
を更に備えている、
ことを特徴とする画像処理装置。
(Appendix 3)
The image processing apparatus according to Appendix 1 or 2.
A feature point extraction unit that extracts a combination of corresponding feature points from each of the plurality of images of the object,
For each combination of the feature points, the camera matrix of each feature point constituting the combination is calculated, and the calculated camera matrix is used to calculate the three-dimensional coordinates of the object corresponding to the feature points of the combination. 3D coordinate calculation unit and
Using the three-dimensional coordinates calculated for each combination of the feature points, a three-dimensional shape building unit that constructs the three-dimensional shape of the object, and a three-dimensional shape building unit.
Further equipped,
An image processing device characterized by this.

(付記4)
付記3に記載の画像処理装置であって、
前記3次元形状構築部が、前記対象物の3次元形状として、前記3次元座標に存在する点の集合で構成された点群データを構築し、
前記状態特定部が、複数の前記閾値それぞれ毎に、誤差が当該閾値以上となる前記特徴点の組合せを除去した場合について、前記点群データの状況を示す指標を算出することで、前記対象物の3次元形状の状態を特定し、
前記状態表示部が、複数の前記閾値それぞれ毎に、算出した前記指標を表示する、
ことを特徴とする画像処理装置。
(Appendix 4)
The image processing apparatus according to Appendix 3,
The three-dimensional shape construction unit constructs point cloud data composed of a set of points existing in the three-dimensional coordinates as the three-dimensional shape of the object.
When the state specifying unit removes a combination of the feature points whose error is equal to or greater than the threshold value for each of the plurality of threshold values, the object is calculated by calculating an index indicating the status of the point cloud data. Identify the state of the three-dimensional shape of
The state display unit displays the calculated index for each of the plurality of threshold values.
An image processing device characterized by this.

(付記5)
付記4に記載の画像処理装置であって、
前記状態特定部が、複数の前記閾値それぞれ毎に、前記指標として、
前記特徴点の組合せの除去後に前記点群データを構成している点の個数、除去されなかった前記特徴点の組合せにおける平均誤差、前記特徴点の組合せの除去後の前記点群データの点の個数と除去前における前記点群データの点の個数との比率、及び前記特徴点の組合せの除去後における平均誤差と除去前における平均誤差との比率のうち、少なくとも1つを算出する、
ことを特徴とする画像処理装置。
(Appendix 5)
The image processing apparatus according to Appendix 4, wherein the image processing apparatus is described.
The state specifying unit serves as the index for each of the plurality of threshold values.
The number of points constituting the point cloud data after the removal of the combination of feature points, the average error in the combination of the feature points that were not removed, and the points of the point cloud data after the combination of the feature points were removed. At least one of the ratio between the number of points and the number of points in the point cloud data before removal and the ratio between the average error after removal and the average error before removal of the combination of the feature points is calculated.
An image processing device characterized by this.

(付記6)
付記4または5に記載の画像処理装置であって、
前記状態表示部が、複数の前記閾値のうち1つが選択されると、前記点群データ上で、選択された前記閾値によって除去される前記特徴点の組合せが対応する部分を特定し、そして、前記点群データを表示すると共に、特定した前記部分を表すアイコンも表示する、
ことを特徴とする画像処理装置。
(Appendix 6)
The image processing apparatus according to Appendix 4 or 5.
When one of the plurality of threshold values is selected, the state display unit identifies a portion corresponding to the combination of the feature points removed by the selected threshold value on the point cloud data, and then Along with displaying the point cloud data, an icon representing the specified part is also displayed.
An image processing device characterized by this.

(付記7)
対象物の複数の画像それぞれから抽出された、対応する特徴点の組合せそれぞれについて、対応する前記対象物の3次元座標が算出されている場合に、前記特徴点の組合せ毎に、対応する前記3次元座標についての誤差を算出する、誤差算出ステップと、
前記特徴点の組合せそれぞれについて算出された前記誤差の中から最大値と最小値とを特定し、前記最小値から前記最大値までの間で、複数の閾値を設定する、閾値設定ステップと、
複数の前記閾値それぞれ毎に、誤差が当該閾値以上となる前記特徴点の組合せを除去した場合について、前記対象物の3次元形状の状態を特定する、状態特定ステップと、
複数の前記閾値それぞれ毎に、特定された前記状態を画面上に表示する、状態表示ステップと、
を有する、
ことを特徴とする画像処理方法。
(Appendix 7)
When the three-dimensional coordinates of the corresponding object are calculated for each combination of the corresponding feature points extracted from each of the plurality of images of the object, the corresponding 3 is for each combination of the feature points. An error calculation step that calculates an error in dimensional coordinates,
A threshold setting step for specifying a maximum value and a minimum value from the errors calculated for each combination of the feature points and setting a plurality of threshold values between the minimum value and the maximum value.
A state specifying step for specifying the state of the three-dimensional shape of the object when the combination of the feature points whose error is equal to or greater than the threshold value is removed for each of the plurality of threshold values.
A state display step that displays the specified state on the screen for each of the plurality of thresholds.
Have,
An image processing method characterized by that.

(付記8)
付記7に記載の画像処理方法であって、
前記誤差算出ステップにおいて、
前記特徴点の組合せ毎に、当該特徴点の組合せを構成する1つの特徴点の抽出元の画像に対応するカメラ行列を、当該組合せの前記3次元座標に適用することによって、当該組合せの前記3次元座標を前記1つの特徴点が抽出された画像上に投影した場合の2次元座標を算出し、算出した2次元座標と前記1つの特徴点の2次元座標との差分を、誤差として算出する、
ことを特徴とする画像処理方法。
(Appendix 8)
The image processing method described in Appendix 7
In the error calculation step,
By applying the camera matrix corresponding to the image of the extraction source of one feature point constituting the combination of feature points to the three-dimensional coordinates of the combination for each combination of the feature points, the third of the combination. The two-dimensional coordinates when the dimensional coordinates are projected onto the image from which the one feature point is extracted are calculated, and the difference between the calculated two-dimensional coordinates and the two-dimensional coordinates of the one feature point is calculated as an error. ,
An image processing method characterized by that.

(付記9)
付記7または8に記載の画像処理方法であって、
前記対象物の複数の画像それぞれから、対応する特徴点の組合せを抽出する、特徴点抽出ステップと、
前記特徴点の組合せ毎に、当該組合せを構成する特徴点それぞれのカメラ行列を算出し、算出した前記カメラ行列を用いて、当該組合せの特徴点に対応する、前記対象物の3次元座標を算出する、3次元座標算出ステップと、
前記特徴点の組合せ毎に算出された前記3次元座標を用いて、前記対象物の3次元形状を構築する、3次元形状構築ステップと、
を更に有する、
ことを特徴とする画像処理方法。
(Appendix 9)
The image processing method according to the appendix 7 or 8, wherein the image processing method is described.
A feature point extraction step that extracts a combination of corresponding feature points from each of the plurality of images of the object,
For each combination of the feature points, the camera matrix of each feature point constituting the combination is calculated, and the calculated camera matrix is used to calculate the three-dimensional coordinates of the object corresponding to the feature points of the combination. 3D coordinate calculation step and
Using the three-dimensional coordinates calculated for each combination of the feature points, a three-dimensional shape construction step for constructing a three-dimensional shape of the object, and a three-dimensional shape construction step.
Further have,
An image processing method characterized by that.

(付記10)
付記9に記載の画像処理方法であって、
前記3次元形状構築ステップにおいて、前記対象物の3次元形状として、前記3次元座標に存在する点の集合で構成された点群データを構築し、
前記状態特定ステップにおいて、複数の前記閾値それぞれ毎に、誤差が当該閾値以上となる前記特徴点の組合せを除去した場合について、前記点群データの状況を示す指標を算出することで、前記対象物の3次元形状の状態を特定し、
前記状態表示ステップにおいて、複数の前記閾値それぞれ毎に、算出した前記指標を表示する、
ことを特徴とする画像処理方法。
(Appendix 10)
The image processing method according to Appendix 9, wherein the image processing method is used.
In the three-dimensional shape construction step, as the three-dimensional shape of the object, a point cloud data composed of a set of points existing in the three-dimensional coordinates is constructed.
In the state specifying step, when the combination of the feature points whose error is equal to or greater than the threshold value is removed for each of the plurality of threshold values, an index indicating the status of the point cloud data is calculated to obtain the object. Identify the state of the three-dimensional shape of
In the state display step, the calculated index is displayed for each of the plurality of threshold values.
An image processing method characterized by that.

(付記11)
付記10に記載の画像処理方法であって、
前記状態特定ステップにおいて、複数の前記閾値それぞれ毎に、前記指標として、
前記特徴点の組合せの除去後に前記点群データを構成している点の個数、除去されなかった前記特徴点の組合せにおける平均誤差、前記特徴点の組合せの除去後の前記点群データの点の個数と除去前における前記点群データの点の個数との比率、及び前記特徴点の組合せの除去後における平均誤差と除去前における平均誤差との比率のうち、少なくとも1つを算出する、
ことを特徴とする画像処理方法。
(Appendix 11)
The image processing method according to Appendix 10, wherein the image processing method is used.
In the state specifying step, for each of the plurality of threshold values, as the index,
The number of points constituting the point cloud data after the removal of the combination of feature points, the average error in the combination of the feature points that were not removed, and the points of the point cloud data after the combination of the feature points were removed. At least one of the ratio between the number of points and the number of points in the point cloud data before removal and the ratio between the average error after removal and the average error before removal of the combination of the feature points is calculated.
An image processing method characterized by that.

(付記12)
付記10または11に記載の画像処理方法であって、
前記状態表示ステップにおいて、複数の前記閾値のうち1つが選択されると、前記点群データ上で、選択された前記閾値によって除去される前記特徴点の組合せが対応する部分を特定し、そして、前記点群データを表示すると共に、特定した前記部分を表すアイコンも表示する、
ことを特徴とする画像処理方法。
(Appendix 12)
The image processing method according to Appendix 10 or 11.
When one of the plurality of threshold values is selected in the state display step, a portion corresponding to the combination of the feature points removed by the selected threshold value is specified on the point cloud data, and the point cloud data is identified. Along with displaying the point cloud data, an icon representing the specified part is also displayed.
An image processing method characterized by that.

(付記13)
コンピュータに、
対象物の複数の画像それぞれから抽出された、対応する特徴点の組合せそれぞれについて、対応する前記対象物の3次元座標が算出されている場合に、前記特徴点の組合せ毎に、対応する前記3次元座標についての誤差を算出する、誤差算出ステップと、
前記特徴点の組合せそれぞれについて算出された前記誤差の中から最大値と最小値とを特定し、前記最小値から前記最大値までの間で、複数の閾値を設定する、閾値設定ステップと、
複数の前記閾値それぞれ毎に、誤差が当該閾値以上となる前記特徴点の組合せを除去した場合について、前記対象物の3次元形状の状態を特定する、状態特定ステップと、
複数の前記閾値それぞれ毎に、特定された前記状態を画面上に表示する、状態表示ステップと、
を実行させる、プログラム。
(Appendix 13)
On the computer
When the three-dimensional coordinates of the corresponding object are calculated for each combination of the corresponding feature points extracted from each of the plurality of images of the object, the corresponding 3 is for each combination of the feature points. An error calculation step that calculates an error in dimensional coordinates,
A threshold setting step for specifying a maximum value and a minimum value from the errors calculated for each combination of the feature points and setting a plurality of threshold values between the minimum value and the maximum value.
A state specifying step for specifying the state of the three-dimensional shape of the object when the combination of the feature points whose error is equal to or greater than the threshold value is removed for each of the plurality of threshold values.
A state display step that displays the specified state on the screen for each of the plurality of thresholds.
A program that runs.

(付記14)
付記13に記載のプログラムであって、
前記誤差算出ステップにおいて、
前記特徴点の組合せ毎に、当該特徴点の組合せを構成する1つの特徴点の抽出元の画像に対応するカメラ行列を、当該組合せの前記3次元座標に適用することによって、当該組合せの前記3次元座標を前記1つの特徴点が抽出された画像上に投影した場合の2次元座標を算出し、算出した2次元座標と前記1つの特徴点の2次元座標との差分を、誤差として算出する、
ことを特徴とするプログラム。
(Appendix 14)
The program described in Appendix 13
In the error calculation step,
By applying the camera matrix corresponding to the image of the extraction source of one feature point constituting the combination of feature points to the three-dimensional coordinates of the combination for each combination of the feature points, the third of the combination. The two-dimensional coordinates when the dimensional coordinates are projected onto the image from which the one feature point is extracted are calculated, and the difference between the calculated two-dimensional coordinates and the two-dimensional coordinates of the one feature point is calculated as an error. ,
A program characterized by that.

(付記15)
付記13または14に記載のプログラムであって、
前記コンピュータに、
前記対象物の複数の画像それぞれから、対応する特徴点の組合せを抽出する、特徴点抽出ステップと、
前記特徴点の組合せ毎に、当該組合せを構成する特徴点それぞれのカメラ行列を算出し、算出した前記カメラ行列を用いて、当該組合せの特徴点に対応する、前記対象物の3次元座標を算出する、3次元座標算出ステップと、
前記特徴点の組合せ毎に算出された前記3次元座標を用いて、前記対象物の3次元形状を構築する、3次元形状構築ステップと、
を更に実行させる、
ことを特徴とするプログラム。
(Appendix 15)
The program described in Appendix 13 or 14,
To the computer
A feature point extraction step that extracts a combination of corresponding feature points from each of the plurality of images of the object,
For each combination of the feature points, the camera matrix of each feature point constituting the combination is calculated, and the calculated camera matrix is used to calculate the three-dimensional coordinates of the object corresponding to the feature points of the combination. 3D coordinate calculation step and
Using the three-dimensional coordinates calculated for each combination of the feature points, a three-dimensional shape construction step for constructing a three-dimensional shape of the object, and a three-dimensional shape construction step.
To execute further,
A program characterized by that.

(付記16)
付記15に記載のプログラムであって、
前記3次元形状構築ステップにおいて、前記対象物の3次元形状として、前記3次元座標に存在する点の集合で構成された点群データを構築し、
前記状態特定ステップにおいて、複数の前記閾値それぞれ毎に、誤差が当該閾値以上となる前記特徴点の組合せを除去した場合について、前記点群データの状況を示す指標を算出することで、前記対象物の3次元形状の状態を特定し、
前記状態表示ステップにおいて、複数の前記閾値それぞれ毎に、算出した前記指標を表示する、
ことを特徴とするプログラム。
(Appendix 16)
The program described in Appendix 15
In the three-dimensional shape construction step, as the three-dimensional shape of the object, a point cloud data composed of a set of points existing in the three-dimensional coordinates is constructed.
In the state specifying step, when the combination of the feature points whose error is equal to or greater than the threshold value is removed for each of the plurality of threshold values, an index indicating the status of the point cloud data is calculated to obtain the object. Identify the state of the three-dimensional shape of
In the state display step, the calculated index is displayed for each of the plurality of threshold values.
A program characterized by that.

(付記17)
付記16に記載のプログラムであって、
前記状態特定ステップにおいて、複数の前記閾値それぞれ毎に、前記指標として、
前記特徴点の組合せの除去後に前記点群データを構成している点の個数、除去されなかった前記特徴点の組合せにおける平均誤差、前記特徴点の組合せの除去後の前記点群データの点の個数と除去前における前記点群データの点の個数との比率、及び前記特徴点の組合せの除去後における平均誤差と除去前における平均誤差との比率のうち、少なくとも1つを算出する、
ことを特徴とするプログラム。
(Appendix 17)
The program described in Appendix 16
In the state specifying step, for each of the plurality of threshold values, as the index,
The number of points constituting the point cloud data after the removal of the combination of feature points, the average error in the combination of the feature points that were not removed, and the points of the point cloud data after the combination of the feature points were removed. At least one of the ratio between the number of points and the number of points in the point cloud data before removal and the ratio between the average error after removal and the average error before removal of the combination of the feature points is calculated.
A program characterized by that.

(付記18)
付記16または17に記載のプログラムであって、
前記状態表示ステップにおいて、複数の前記閾値のうち1つが選択されると、前記点群データ上で、選択された前記閾値によって除去される前記特徴点の組合せが対応する部分を特定し、そして、前記点群データを表示すると共に、特定した前記部分を表すアイコンも表示する、
ことを特徴とするプログラム。
(Appendix 18)
The program described in Appendix 16 or 17, and
When one of the plurality of threshold values is selected in the state display step, a portion corresponding to the combination of the feature points removed by the selected threshold value is specified on the point cloud data, and the point cloud data is identified. Along with displaying the point cloud data, an icon representing the specified part is also displayed.
A program characterized by that.

以上のように本発明によれば、複数の画像から対応する特徴点の組合せを抽出して3次元形状を構築するに際して、誤りのある特徴点の組合せが3次元形状に与える影響を可視化することができる。本発明は、SfMといった複数の画像から三次元形状を構築する技術に有用である。 As described above, according to the present invention, when a combination of corresponding feature points is extracted from a plurality of images to construct a three-dimensional shape, the influence of an erroneous combination of feature points on the three-dimensional shape is visualized. Can be done. The present invention is useful in a technique for constructing a three-dimensional shape from a plurality of images such as SfM.

10 画像処理装置
11 誤差算出部
12 閾値設定部
13 状態特定部
14 状態表示部
15 画像取得部
16 特徴点抽出部
17 3次元座標算出部
18 3次元形状構築部
19 データ格納部
20 表示装置
110 コンピュータ
111 CPU
112 メインメモリ
113 記憶装置
114 入力インターフェイス
115 表示コントローラ
116 データリーダ/ライタ
117 通信インターフェイス
118 入力機器
119 ディスプレイ装置
120 記録媒体
121 バス
10 Image processing device 11 Error calculation unit 12 Threshold setting unit 13 State specification unit 14 State display unit 15 Image acquisition unit 16 Feature point extraction unit 17 3D coordinate calculation unit 18 3D shape construction unit 19 Data storage unit 20 Display device 110 Computer 111 CPU
112 Main memory 113 Storage device 114 Input interface 115 Display controller 116 Data reader / writer 117 Communication interface 118 Input device 119 Display device 120 Recording medium 121 Bus

Claims (18)

対象物の複数の画像それぞれから抽出された、対応する特徴点の組合せそれぞれについて、対応する前記対象物の3次元座標が算出されている場合に、前記特徴点の組合せ毎に、対応する前記3次元座標についての誤差を算出する、誤差算出部と、
前記特徴点の組合せそれぞれについて算出された前記誤差の中から最大値と最小値とを特定し、前記最小値から前記最大値までの間で、複数の閾値を設定する、閾値設定部と、
複数の前記閾値それぞれ毎に、誤差が当該閾値以上となる前記特徴点の組合せを除去した場合について、前記対象物の3次元形状の状態を特定する、状態特定部と、
複数の前記閾値それぞれ毎に、特定された前記状態を画面上に表示する、状態表示部と、
を備えている、
ことを特徴とする画像処理装置。
When the three-dimensional coordinates of the corresponding object are calculated for each combination of the corresponding feature points extracted from each of the plurality of images of the object, the corresponding 3 is for each combination of the feature points. An error calculation unit that calculates errors in dimensional coordinates,
A threshold setting unit that specifies a maximum value and a minimum value from the errors calculated for each combination of the feature points and sets a plurality of threshold values between the minimum value and the maximum value.
A state specifying unit that specifies the state of the three-dimensional shape of the object when the combination of the feature points whose error is equal to or greater than the threshold is removed for each of the plurality of thresholds.
A status display unit that displays the specified status on the screen for each of the plurality of thresholds.
Is equipped with
An image processing device characterized by this.
請求項1に記載の画像処理装置であって、
前記誤差算出部が、
前記特徴点の組合せ毎に、当該特徴点の組合せを構成する1つの特徴点の抽出元の画像に対応するカメラ行列を、当該組合せの前記3次元座標に適用することによって、当該組合せの前記3次元座標を前記1つの特徴点が抽出された画像上に投影した場合の2次元座標を算出し、算出した2次元座標と前記1つの特徴点の2次元座標との差分を、誤差として算出する、
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The error calculation unit
By applying the camera matrix corresponding to the image of the extraction source of one feature point constituting the combination of feature points to the three-dimensional coordinates of the combination for each combination of the feature points, the third of the combination. The two-dimensional coordinates when the dimensional coordinates are projected onto the image from which the one feature point is extracted are calculated, and the difference between the calculated two-dimensional coordinates and the two-dimensional coordinates of the one feature point is calculated as an error. ,
An image processing device characterized by this.
請求項1または2に記載の画像処理装置であって、
前記対象物の複数の画像それぞれから、対応する特徴点の組合せを抽出する、特徴点抽出部と、
前記特徴点の組合せ毎に、当該組合せを構成する特徴点それぞれのカメラ行列を算出し、算出した前記カメラ行列を用いて、当該組合せの特徴点に対応する、前記対象物の3次元座標を算出する、3次元座標算出部と、
前記特徴点の組合せ毎に算出された前記3次元座標を用いて、前記対象物の3次元形状を構築する、3次元形状構築部と、
を更に備えている、
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 1 or 2.
A feature point extraction unit that extracts a combination of corresponding feature points from each of the plurality of images of the object,
For each combination of the feature points, the camera matrix of each feature point constituting the combination is calculated, and the calculated camera matrix is used to calculate the three-dimensional coordinates of the object corresponding to the feature points of the combination. 3D coordinate calculation unit and
Using the three-dimensional coordinates calculated for each combination of the feature points, a three-dimensional shape building unit that constructs the three-dimensional shape of the object, and a three-dimensional shape building unit.
Further equipped,
An image processing device characterized by this.
請求項3に記載の画像処理装置であって、
前記3次元形状構築部が、前記対象物の3次元形状として、前記3次元座標に存在する点の集合で構成された点群データを構築し、
前記状態特定部が、複数の前記閾値それぞれ毎に、誤差が当該閾値以上となる前記特徴点の組合せを除去した場合について、前記点群データの状況を示す指標を算出することで、前記対象物の3次元形状の状態を特定し、
前記状態表示部が、複数の前記閾値それぞれ毎に、算出した前記指標を表示する、
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 3.
The three-dimensional shape construction unit constructs point cloud data composed of a set of points existing in the three-dimensional coordinates as the three-dimensional shape of the object.
When the state specifying unit removes a combination of the feature points whose error is equal to or greater than the threshold value for each of the plurality of threshold values, the object is calculated by calculating an index indicating the status of the point cloud data. Identify the state of the three-dimensional shape of
The state display unit displays the calculated index for each of the plurality of threshold values.
An image processing device characterized by this.
請求項4に記載の画像処理装置であって、
前記状態特定部が、複数の前記閾値それぞれ毎に、前記指標として、
前記特徴点の組合せの除去後に前記点群データを構成している点の個数、除去されなかった前記特徴点の組合せにおける平均誤差、前記特徴点の組合せの除去後の前記点群データの点の個数と除去前における前記点群データの点の個数との比率、及び前記特徴点の組合せの除去後における平均誤差と除去前における平均誤差との比率のうち、少なくとも1つを算出する、
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 4.
The state specifying unit serves as the index for each of the plurality of threshold values.
The number of points constituting the point cloud data after the removal of the combination of feature points, the average error in the combination of the feature points that were not removed, and the points of the point cloud data after the combination of the feature points were removed. At least one of the ratio between the number of points and the number of points in the point cloud data before removal and the ratio between the average error after removal and the average error before removal of the combination of the feature points is calculated.
An image processing device characterized by this.
請求項4または5に記載の画像処理装置であって、
前記状態表示部が、複数の前記閾値のうち1つが選択されると、前記点群データ上で、選択された前記閾値によって除去される前記特徴点の組合せが対応する部分を特定し、そして、前記点群データを表示すると共に、特定した前記部分を表すアイコンも表示する、
ことを特徴とする画像処理装置。
The image processing apparatus according to claim 4 or 5.
When one of the plurality of threshold values is selected, the state display unit identifies a portion corresponding to the combination of the feature points removed by the selected threshold value on the point cloud data, and then Along with displaying the point cloud data, an icon representing the specified part is also displayed.
An image processing device characterized by this.
対象物の複数の画像それぞれから抽出された、対応する特徴点の組合せそれぞれについて、対応する前記対象物の3次元座標が算出されている場合に、前記特徴点の組合せ毎に、対応する前記3次元座標についての誤差を算出する、誤差算出ステップと、
前記特徴点の組合せそれぞれについて算出された前記誤差の中から最大値と最小値とを特定し、前記最小値から前記最大値までの間で、複数の閾値を設定する、閾値設定ステップと、
複数の前記閾値それぞれ毎に、誤差が当該閾値以上となる前記特徴点の組合せを除去した場合について、前記対象物の3次元形状の状態を特定する、状態特定ステップと、
複数の前記閾値それぞれ毎に、特定された前記状態を画面上に表示する、状態表示ステップと、
を有する、
ことを特徴とする画像処理方法。
When the three-dimensional coordinates of the corresponding object are calculated for each combination of the corresponding feature points extracted from each of the plurality of images of the object, the corresponding 3 is for each combination of the feature points. An error calculation step that calculates an error in dimensional coordinates,
A threshold setting step for specifying a maximum value and a minimum value from the errors calculated for each combination of the feature points and setting a plurality of threshold values between the minimum value and the maximum value.
A state specifying step for specifying the state of the three-dimensional shape of the object when the combination of the feature points whose error is equal to or greater than the threshold value is removed for each of the plurality of threshold values.
A state display step that displays the specified state on the screen for each of the plurality of thresholds.
Have,
An image processing method characterized by that.
請求項7に記載の画像処理方法であって、
前記誤差算出ステップにおいて、
前記特徴点の組合せ毎に、当該特徴点の組合せを構成する1つの特徴点の抽出元の画像に対応するカメラ行列を、当該組合せの前記3次元座標に適用することによって、当該組合せの前記3次元座標を前記1つの特徴点が抽出された画像上に投影した場合の2次元座標を算出し、算出した2次元座標と前記1つの特徴点の2次元座標との差分を、誤差として算出する、
ことを特徴とする画像処理方法。
The image processing method according to claim 7.
In the error calculation step,
By applying the camera matrix corresponding to the image of the extraction source of one feature point constituting the combination of feature points to the three-dimensional coordinates of the combination for each combination of the feature points, the third of the combination. The two-dimensional coordinates when the dimensional coordinates are projected onto the image from which the one feature point is extracted are calculated, and the difference between the calculated two-dimensional coordinates and the two-dimensional coordinates of the one feature point is calculated as an error. ,
An image processing method characterized by that.
請求項7または8に記載の画像処理方法であって、
前記対象物の複数の画像それぞれから、対応する特徴点の組合せを抽出する、特徴点抽出ステップと、
前記特徴点の組合せ毎に、当該組合せを構成する特徴点それぞれのカメラ行列を算出し、算出した前記カメラ行列を用いて、当該組合せの特徴点に対応する、前記対象物の3次元座標を算出する、3次元座標算出ステップと、
前記特徴点の組合せ毎に算出された前記3次元座標を用いて、前記対象物の3次元形状を構築する、3次元形状構築ステップと、
を更に有する、
ことを特徴とする画像処理方法。
The image processing method according to claim 7 or 8.
A feature point extraction step that extracts a combination of corresponding feature points from each of the plurality of images of the object,
For each combination of the feature points, the camera matrix of each feature point constituting the combination is calculated, and the calculated camera matrix is used to calculate the three-dimensional coordinates of the object corresponding to the feature points of the combination. 3D coordinate calculation step and
Using the three-dimensional coordinates calculated for each combination of the feature points, a three-dimensional shape construction step for constructing a three-dimensional shape of the object, and a three-dimensional shape construction step.
Further have,
An image processing method characterized by that.
請求項9に記載の画像処理方法であって、
前記3次元形状構築ステップにおいて、前記対象物の3次元形状として、前記3次元座標に存在する点の集合で構成された点群データを構築し、
前記状態特定ステップにおいて、複数の前記閾値それぞれ毎に、誤差が当該閾値以上となる前記特徴点の組合せを除去した場合について、前記点群データの状況を示す指標を算出することで、前記対象物の3次元形状の状態を特定し、
前記状態表示ステップにおいて、複数の前記閾値それぞれ毎に、算出した前記指標を表示する、
ことを特徴とする画像処理方法。
The image processing method according to claim 9.
In the three-dimensional shape construction step, as the three-dimensional shape of the object, a point cloud data composed of a set of points existing in the three-dimensional coordinates is constructed.
In the state specifying step, when the combination of the feature points whose error is equal to or greater than the threshold value is removed for each of the plurality of threshold values, an index indicating the status of the point cloud data is calculated to obtain the object. Identify the state of the three-dimensional shape of
In the state display step, the calculated index is displayed for each of the plurality of threshold values.
An image processing method characterized by that.
請求項10に記載の画像処理方法であって、
前記状態特定ステップにおいて、複数の前記閾値それぞれ毎に、前記指標として、
前記特徴点の組合せの除去後に前記点群データを構成している点の個数、除去されなかった前記特徴点の組合せにおける平均誤差、前記特徴点の組合せの除去後の前記点群データの点の個数と除去前における前記点群データの点の個数との比率、及び前記特徴点の組合せの除去後における平均誤差と除去前における平均誤差との比率のうち、少なくとも1つを算出する、
ことを特徴とする画像処理方法。
The image processing method according to claim 10.
In the state specifying step, for each of the plurality of threshold values, as the index,
The number of points constituting the point cloud data after the removal of the combination of feature points, the average error in the combination of the feature points that were not removed, and the points of the point cloud data after the combination of the feature points were removed. At least one of the ratio between the number of points and the number of points in the point cloud data before removal and the ratio between the average error after removal and the average error before removal of the combination of the feature points is calculated.
An image processing method characterized by that.
請求項10または11に記載の画像処理方法であって、
前記状態表示ステップにおいて、複数の前記閾値のうち1つが選択されると、前記点群データ上で、選択された前記閾値によって除去される前記特徴点の組合せが対応する部分を特定し、そして、前記点群データを表示すると共に、特定した前記部分を表すアイコンも表示する、
ことを特徴とする画像処理方法。
The image processing method according to claim 10 or 11.
When one of the plurality of threshold values is selected in the state display step, a portion corresponding to the combination of the feature points removed by the selected threshold value is specified on the point cloud data, and the point cloud data is identified. Along with displaying the point cloud data, an icon representing the specified part is also displayed.
An image processing method characterized by that.
コンピュータに、
対象物の複数の画像それぞれから抽出された、対応する特徴点の組合せそれぞれについて、対応する前記対象物の3次元座標が算出されている場合に、前記特徴点の組合せ毎に、対応する前記3次元座標についての誤差を算出する、誤差算出ステップと、
前記特徴点の組合せそれぞれについて算出された前記誤差の中から最大値と最小値とを特定し、前記最小値から前記最大値までの間で、複数の閾値を設定する、閾値設定ステップと、
複数の前記閾値それぞれ毎に、誤差が当該閾値以上となる前記特徴点の組合せを除去した場合について、前記対象物の3次元形状の状態を特定する、状態特定ステップと、
複数の前記閾値それぞれ毎に、特定された前記状態を画面上に表示する、状態表示ステップと、
を実行させる、プログラム。
On the computer
When the three-dimensional coordinates of the corresponding object are calculated for each combination of the corresponding feature points extracted from each of the plurality of images of the object, the corresponding 3 is for each combination of the feature points. An error calculation step that calculates an error in dimensional coordinates,
A threshold setting step for specifying a maximum value and a minimum value from the errors calculated for each combination of the feature points and setting a plurality of threshold values between the minimum value and the maximum value.
A state specifying step for specifying the state of the three-dimensional shape of the object when the combination of the feature points whose error is equal to or greater than the threshold value is removed for each of the plurality of threshold values.
A state display step that displays the specified state on the screen for each of the plurality of thresholds.
A program that runs.
請求項13に記載のプログラムであって、
前記誤差算出ステップにおいて、
前記特徴点の組合せ毎に、当該特徴点の組合せを構成する1つの特徴点の抽出元の画像に対応するカメラ行列を、当該組合せの前記3次元座標に適用することによって、当該組合せの前記3次元座標を前記1つの特徴点が抽出された画像上に投影した場合の2次元座標を算出し、算出した2次元座標と前記1つの特徴点の2次元座標との差分を、誤差として算出する、
ことを特徴とするプログラム。
The program according to claim 13.
In the error calculation step,
By applying the camera matrix corresponding to the image of the extraction source of one feature point constituting the combination of feature points to the three-dimensional coordinates of the combination for each combination of the feature points, the third of the combination. The two-dimensional coordinates when the dimensional coordinates are projected onto the image from which the one feature point is extracted are calculated, and the difference between the calculated two-dimensional coordinates and the two-dimensional coordinates of the one feature point is calculated as an error. ,
A program characterized by that.
請求項13または14に記載のプログラムであって、
前記コンピュータに、
前記対象物の複数の画像それぞれから、対応する特徴点の組合せを抽出する、特徴点抽出ステップと、
前記特徴点の組合せ毎に、当該組合せを構成する特徴点それぞれのカメラ行列を算出し、算出した前記カメラ行列を用いて、当該組合せの特徴点に対応する、前記対象物の3次元座標を算出する、3次元座標算出ステップと、
前記特徴点の組合せ毎に算出された前記3次元座標を用いて、前記対象物の3次元形状を構築する、3次元形状構築ステップと、
を更に実行させる、
ことを特徴とするプログラム。
The program according to claim 13 or 14.
To the computer
A feature point extraction step that extracts a combination of corresponding feature points from each of the plurality of images of the object,
For each combination of the feature points, the camera matrix of each feature point constituting the combination is calculated, and the calculated camera matrix is used to calculate the three-dimensional coordinates of the object corresponding to the feature points of the combination. 3D coordinate calculation step and
Using the three-dimensional coordinates calculated for each combination of the feature points, a three-dimensional shape construction step for constructing a three-dimensional shape of the object, and a three-dimensional shape construction step.
To execute further,
A program characterized by that.
請求項15に記載のプログラムであって、
前記3次元形状構築ステップにおいて、前記対象物の3次元形状として、前記3次元座標に存在する点の集合で構成された点群データを構築し、
前記状態特定ステップにおいて、複数の前記閾値それぞれ毎に、誤差が当該閾値以上となる前記特徴点の組合せを除去した場合について、前記点群データの状況を示す指標を算出することで、前記対象物の3次元形状の状態を特定し、
前記状態表示ステップにおいて、複数の前記閾値それぞれ毎に、算出した前記指標を表示する、
ことを特徴とするプログラム。
The program according to claim 15.
In the three-dimensional shape construction step, as the three-dimensional shape of the object, a point cloud data composed of a set of points existing in the three-dimensional coordinates is constructed.
In the state specifying step, when the combination of the feature points whose error is equal to or greater than the threshold value is removed for each of the plurality of threshold values, an index indicating the status of the point cloud data is calculated to obtain the object. Identify the state of the three-dimensional shape of
In the state display step, the calculated index is displayed for each of the plurality of threshold values.
A program characterized by that.
請求項16に記載のプログラムであって、
前記状態特定ステップにおいて、複数の前記閾値それぞれ毎に、前記指標として、
前記特徴点の組合せの除去後に前記点群データを構成している点の個数、除去されなかった前記特徴点の組合せにおける平均誤差、前記特徴点の組合せの除去後の前記点群データの点の個数と除去前における前記点群データの点の個数との比率、及び前記特徴点の組合せの除去後における平均誤差と除去前における平均誤差との比率のうち、少なくとも1つを算出する、
ことを特徴とするプログラム。
The program according to claim 16.
In the state specifying step, for each of the plurality of threshold values, as the index,
The number of points constituting the point cloud data after the removal of the combination of feature points, the average error in the combination of the feature points that were not removed, and the points of the point cloud data after the combination of the feature points were removed. At least one of the ratio between the number of points and the number of points in the point cloud data before removal and the ratio between the average error after removal and the average error before removal of the combination of the feature points is calculated.
A program characterized by that.
請求項16または17に記載のプログラムであって、
前記状態表示ステップにおいて、複数の前記閾値のうち1つが選択されると、前記点群データ上で、選択された前記閾値によって除去される前記特徴点の組合せが対応する部分を特定し、そして、前記点群データを表示すると共に、特定した前記部分を表すアイコンも表示する、
ことを特徴とするプログラム。
The program according to claim 16 or 17.
When one of the plurality of threshold values is selected in the state display step, a portion corresponding to the combination of the feature points removed by the selected threshold value is specified on the point cloud data, and the point cloud data is identified. Along with displaying the point cloud data, an icon representing the specified part is also displayed.
A program characterized by that.
JP2020173185A 2020-10-14 2020-10-14 Image processing device, image processing method, and program Pending JP2022064506A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020173185A JP2022064506A (en) 2020-10-14 2020-10-14 Image processing device, image processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020173185A JP2022064506A (en) 2020-10-14 2020-10-14 Image processing device, image processing method, and program

Publications (1)

Publication Number Publication Date
JP2022064506A true JP2022064506A (en) 2022-04-26

Family

ID=81385938

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020173185A Pending JP2022064506A (en) 2020-10-14 2020-10-14 Image processing device, image processing method, and program

Country Status (1)

Country Link
JP (1) JP2022064506A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024024055A1 (en) * 2022-07-28 2024-02-01 富士通株式会社 Information processing method, device, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024024055A1 (en) * 2022-07-28 2024-02-01 富士通株式会社 Information processing method, device, and program

Similar Documents

Publication Publication Date Title
US10368062B2 (en) Panoramic camera systems
WO2020206903A1 (en) Image matching method and device, and computer readable storage medium
JP6716996B2 (en) Image processing program, image processing apparatus, and image processing method
TW201616451A (en) System and method for selecting point clouds using a free selection tool
KR102158390B1 (en) Method and apparatus for image processing
US11189053B2 (en) Information processing apparatus, method of controlling information processing apparatus, and non-transitory computer-readable storage medium
JP7003617B2 (en) Estimator, estimation method, and estimation program
JP2022064506A (en) Image processing device, image processing method, and program
JP6347610B2 (en) Image processing apparatus and three-dimensional spatial information acquisition method
JP6989153B2 (en) Image processing equipment, image processing methods, and programs
JP6156922B2 (en) Three-dimensional data generation apparatus, three-dimensional data generation method, and program
CN113592994B (en) Method, apparatus and storage medium for texture mapping
JP7276978B2 (en) Image processing device, image processing method, and program
CN114723796A (en) Three-dimensional point cloud generation method and device and electronic equipment
CN113167568B (en) Coordinate calculation device, coordinate calculation method, and computer-readable recording medium
JP7294702B2 (en) Image processing device, image processing method, and program
CN113436063A (en) Image processing method, image processing device, electronic equipment and storage medium
CN111369425A (en) Image processing method, image processing device, electronic equipment and computer readable medium
JP6586852B2 (en) Image processing device
CN112991451A (en) Image recognition method, related device and computer program product
JP2020187626A (en) Image processing device, image processing method, and program
CN117635875B (en) Three-dimensional reconstruction method, device and terminal
US20240029288A1 (en) Image processing apparatus, image processing method, and storage medium
JP5636966B2 (en) Error detection apparatus and error detection program
JP2023104399A (en) Image processing device, image processing method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20230904

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20240513

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240702