JP2012225888A - Position posture measurement device and position posture measurement method - Google Patents

Position posture measurement device and position posture measurement method Download PDF

Info

Publication number
JP2012225888A
JP2012225888A JP2011096370A JP2011096370A JP2012225888A JP 2012225888 A JP2012225888 A JP 2012225888A JP 2011096370 A JP2011096370 A JP 2011096370A JP 2011096370 A JP2011096370 A JP 2011096370A JP 2012225888 A JP2012225888 A JP 2012225888A
Authority
JP
Japan
Prior art keywords
image
orientation
distance
virtual object
feature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2011096370A
Other languages
Japanese (ja)
Inventor
Yusuke Nakazato
祐介 中里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2011096370A priority Critical patent/JP2012225888A/en
Publication of JP2012225888A publication Critical patent/JP2012225888A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To robustly measure a position posture at high speed even under a complicated background in comparison with a conventional position posture measurement technique in the case of using a two-dimensional image and a distance image in combination.SOLUTION: A two-dimensional image correspondence search section 140 makes a geometric feature of a virtual object in a picked-up image correspond to a feature part corresponding to the geometric feature in a real object which is reflected in the picked-up image. A correspondence search area setting section 150 projects the respective graphics constituting the virtual object on a distance image, and sets the remaining area obtained by excluding the circumference of a part in the distance image corresponding to the feature part from areas of the projected graphics as a correspondence search area. A position posture calculation section 170 repeatedly updates position posture information so as to minimize an evaluation function representing distance between a position shown by a depth value of a pixel in the correspondence search area and a position of the virtual object corresponding to the pixel in a three-dimensional space, and distance between the geometric feature and the feature part in the three-dimensional space.

Description

本発明は、3次元形状が既知である物体の位置及び姿勢の計測技術に関するものである。   The present invention relates to a technique for measuring the position and orientation of an object whose three-dimensional shape is known.

近年のロボット技術の発展とともに、工業製品の組立てのようなこれまで人間が行っていた複雑なタスクをロボットが代わりに行うようになりつつある。このようなロボットは、ハンドなどのエンドエフェクタによって部品を把持して組立を行う。ロボットが部品を把持するためには、把持の対象となる部品とロボット(ハンド)との間の相対的な位置及び姿勢を計測する必要がある。   Along with the development of robot technology in recent years, robots are instead performing complicated tasks that have been performed by humans, such as assembly of industrial products. Such a robot performs assembly by gripping a part with an end effector such as a hand. In order for the robot to grip the part, it is necessary to measure the relative position and orientation between the part to be gripped and the robot (hand).

対象物体の位置及び姿勢を計測する方法として、照射した光の反射光を解析することにより求めた画素毎の距離値が格納された距離画像から、物体の3次元モデルを利用して計測する方法がある。これは部品の形状情報であるCADモデルを利用することからモデルフィッティングと呼ばれている。モデルフィッティングによる位置姿勢計測手法では、距離画像から得られる計測点とモデル表面との対応を最近傍探索し、その対応間の距離を最小化することにより物体の位置姿勢を推定する(非特許文献1)。   As a method for measuring the position and orientation of a target object, a method for measuring using a three-dimensional model of an object from a distance image in which distance values for each pixel obtained by analyzing reflected light of irradiated light are stored There is. This is called model fitting because it uses a CAD model which is part shape information. In the position / orientation measurement method using model fitting, the nearest neighbor search is made for the correspondence between the measurement point obtained from the distance image and the model surface, and the position / orientation of the object is estimated by minimizing the distance between the correspondences (Non-Patent Document). 1).

距離画像を用いたモデルフィッティングでは、物体形状の稜線部や鏡面部のような物体表面の反射が乱れる箇所でアーティファクトと呼ばれるノイズが距離計測時に観測される。そこで距離画像と同時に取得される2次元画像を相補的に組み合わせて情報量を増やすことによって高精度に物体の位置姿勢を計測する手法が提案されている(特許文献1)。   In model fitting using a distance image, noise called artifact is observed at the time of distance measurement at a location where reflection of the object surface is disturbed, such as a ridge line portion or a mirror surface portion of the object shape. In view of this, there has been proposed a method for measuring the position and orientation of an object with high accuracy by increasing the amount of information by complementarily combining two-dimensional images acquired simultaneously with a distance image (Patent Document 1).

特願2009-175387号公報Japanese Patent Application No. 2009-175387 特開平07-287756号公報Japanese Unexamined Patent Publication No. 07-287756

P. J. Besl and N. D. McKay, "A method for registration of 3-D shapes," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.14, no.2, pp.239-256, 1992.P. J. Besl and N. D. McKay, "A method for registration of 3-D shapes," IEEE Transactions on Pattern Analysis and Machine Intelligence, vol.14, no.2, pp.239-256, 1992.

対象物体以外の物体が背景に散在する環境では、距離画像から対象物体に対応する計測点を選択するだけであっても多くの処理が必要となる。例えば非特許文献1で開示されている手法では、対称物体の位置及び姿勢の概略値に基づいて、距離画像上の計測点に最も近い形状モデルの点を探索する必要がある。そのため概略位置姿勢が真の位置姿勢から離れている際には、背景などに誤対応してしまい、正しい位置姿勢を求めることができない場合や反復計算の収束が遅くなる場合がある。そこで誤対応の影響を軽減するために、対応点間の距離に関する統計的な値に基づいて重み付けを行うロバスト推定がよく用いられる。しかしながら、多くの誤対応が発生する場合や概略位置姿勢が真値から大きく離れている場合では、統計的な値を用いて誤対応と正しい対応を見分けることが難しいため、失敗しやすいという問題がある。   In an environment where objects other than the target object are scattered in the background, a lot of processing is required even if a measurement point corresponding to the target object is only selected from the distance image. For example, in the method disclosed in Non-Patent Document 1, it is necessary to search for the point of the shape model closest to the measurement point on the distance image based on the approximate value of the position and orientation of the symmetrical object. For this reason, when the approximate position / posture is far from the true position / posture, it may correspond to the background or the like, and the correct position / posture may not be obtained or convergence of the iterative calculation may be delayed. Therefore, in order to reduce the influence of miscorrespondence, robust estimation that performs weighting based on a statistical value related to the distance between corresponding points is often used. However, when many incorrect responses occur, or when the approximate position and orientation is far from the true value, it is difficult to distinguish between the incorrect response and the correct response using statistical values. is there.

これに対し、距離画像と同時に撮影可能な2次元画像を利用する手法が提案されている。例えば特許文献2では、2次元画像から抽出した対象物体の領域に基づき、距離画像から物体の検出を行う方法が開示されている。この手法では、2次元画像からパターンやテクスチャを利用して対象物体の存在領域を限定し、その領域内の距離画像に対して処理を行う。これにより高速かつロバストに対象物体の検出が可能となる。しかしながら、対象物体と同じ物体や似た物体が複数存在するような複雑な背景下では、対象物体に対応する領域が多数発見されるため適用が難しいという問題がある。   On the other hand, a method using a two-dimensional image that can be taken simultaneously with a distance image has been proposed. For example, Patent Document 2 discloses a method of detecting an object from a distance image based on a target object region extracted from a two-dimensional image. In this method, a region where a target object exists is limited from a two-dimensional image using a pattern or texture, and a distance image in that region is processed. As a result, the target object can be detected at high speed and robustly. However, under a complicated background where there are a plurality of objects that are the same as or similar to the target object, there is a problem that many areas corresponding to the target object are found and application is difficult.

本発明はこのような問題に鑑みてなされたものであり、従来の2次元画像と距離画像を併用した場合の位置姿勢計測手法に比べて、複雑背景下であっても高速かつロバストに対象物体の位置姿勢を計測する為の技術を提供することを目的とする。   The present invention has been made in view of such a problem, and compared with a conventional position and orientation measurement method using a two-dimensional image and a distance image, the target object is fast and robust even under a complicated background. The purpose is to provide a technique for measuring the position and orientation of the camera.

本発明の目的を達成するために、例えば、本発明の位置姿勢計測装置は、現実物体の撮像画像、及び該撮像画像と同じ視点から撮像され且つ各画素が奥行き値を有する距離画像と、を取得する手段と、前記視点に対する前記現実物体の位置及び姿勢を示す位置姿勢情報を取得し、該取得した位置姿勢情報を用いて、複数の図形で構成され且つ前記現実物体の形状を模した仮想物体を前記撮像画像上に投影する手段と、前記撮像画像中における前記仮想物体の幾何特徴と、前記撮像画像中に映っている前記現実物体において該幾何特徴に対応する特徴部分と、の対応付けを行う手段と、前記仮想物体を構成するそれぞれの図形を、前記位置姿勢情報を用いて前記距離画像上に投影し、該投影された図形の領域から、前記特徴部分に対応する前記距離画像内の部分の周辺を省いた残りの領域を、対応探索領域として設定する設定手段と、前記仮想物体を構成するそれぞれの図形について求めた対応探索領域内の画素の奥行き値が示す位置と、該画素に対応する前記仮想物体上の位置と、の距離、前記幾何特徴と前記特徴部分との距離、を表す評価関数の値を小さくするように前記位置姿勢情報を繰り返し更新する更新手段と、前記更新手段により繰り返し更新された位置姿勢情報を出力する手段とを備えることを特徴とする。   In order to achieve the object of the present invention, for example, the position and orientation measurement apparatus of the present invention includes a captured image of a real object and a distance image captured from the same viewpoint as the captured image and each pixel having a depth value. And a position and orientation information indicating a position and orientation of the real object with respect to the viewpoint, and a virtual model configured by a plurality of figures and imitating the shape of the real object using the acquired position and orientation information Correspondence between means for projecting an object on the captured image, a geometric feature of the virtual object in the captured image, and a feature portion corresponding to the geometric feature in the real object reflected in the captured image And each figure constituting the virtual object is projected onto the distance image using the position and orientation information, and the region corresponding to the feature portion is projected from the projected figure area. Setting means for setting the remaining area excluding the periphery of the part in the separated image as the corresponding search area, and the position indicated by the depth value of the pixel in the corresponding search area obtained for each figure constituting the virtual object; Updating means for repeatedly updating the position and orientation information so as to reduce the value of the evaluation function representing the distance between the position on the virtual object corresponding to the pixel and the distance between the geometric feature and the feature portion; And means for outputting position and orientation information repeatedly updated by the updating means.

本発明の構成によれば、従来の2次元画像と距離画像を併用した場合の位置姿勢計測手法に比べて、複雑背景下であっても高速かつロバストに位置姿勢を計測することが可能になる。   According to the configuration of the present invention, it is possible to measure the position and orientation at high speed and robustly even under a complicated background as compared with the position and orientation measurement method in the case where the conventional two-dimensional image and the distance image are used together. .

3次元計測装置1の構成例を示すブロック図。FIG. 3 is a block diagram illustrating a configuration example of a three-dimensional measurement apparatus 1. 3次元計測装置1が行う処理のフローチャート。The flowchart of the process which the three-dimensional measuring device 1 performs. 幾何特徴と画像特徴との対応付けについて説明する図。The figure explaining matching with a geometric feature and an image feature. 対応探索領域Ω3の設定処理について説明する図。The figure explaining the setting process of corresponding | compatible search area | region Ω3. 対応探索領域Ω3の設定処理について説明する図。The figure explaining the setting process of corresponding | compatible search area | region Ω3. 対応探索領域Ω3の設定処理について説明する図。The figure explaining the setting process of corresponding | compatible search area | region Ω3.

以下、添付図面を参照し、本発明の好適な実施形態について説明する。なお、以下説明する実施形態は、本発明を具体的に実施した場合の一例を示すもので、特許請求の範囲に記載の構成の具体的な実施例の1つである。   Preferred embodiments of the present invention will be described below with reference to the accompanying drawings. The embodiment described below shows an example when the present invention is specifically implemented, and is one of the specific examples of the configurations described in the claims.

[第1の実施形態]
本実施形態では、2次元濃淡撮像画像と距離画像とに対して、複数の多角形で構成され且つ現実物体の形状を模した仮想物体をフィッティングし、この現実物体の位置及び姿勢を計測するのであるが、特に、その際に行う、対応付け方法について説明する。
[First Embodiment]
In the present embodiment, a virtual object composed of a plurality of polygons and imitating the shape of a real object is fitted to the two-dimensional grayscale image and the distance image, and the position and orientation of the real object are measured. In particular, the association method performed at that time will be described.

先ず、本実施形態に係る位置姿勢計測装置である3次元計測装置1の構成例について、図1のブロック図を用いて説明する。   First, a configuration example of a three-dimensional measurement apparatus 1 that is a position and orientation measurement apparatus according to the present embodiment will be described with reference to the block diagram of FIG.

画像取得部110は、現実物体の撮像画像、及び該撮像画像と同じ視点から撮像され且つ各画素が奥行き値を有する距離画像と、を取得する。距離画像は、距離センサで撮像されるものである。距離センサとしては、撮像対象に照射したレーザ光やスリット光、パターン光の反射光をカメラで撮影し、三角測量により距離を計測するアクティブ式のものを利用する。しかしながら、距離センサはこれに限るものではなく、光の飛行時間を利用するTime-of-flight方式であっても良い。また、撮像画像は、濃淡画像であってもカラー画像であっても良く、距離センサで利用したカメラによって撮影される。本実施形態では、撮像画像として濃淡画像を用いる。   The image acquisition unit 110 acquires a captured image of a real object and a distance image captured from the same viewpoint as the captured image and each pixel having a depth value. The distance image is captured by a distance sensor. As the distance sensor, an active sensor that captures the reflected light of the laser light, slit light, and pattern light irradiated to the imaging target with a camera and measures the distance by triangulation is used. However, the distance sensor is not limited to this, and may be a time-of-flight method using the flight time of light. The captured image may be a grayscale image or a color image, and is captured by a camera used with a distance sensor. In the present embodiment, a grayscale image is used as the captured image.

なお、レーザ光やパターン光などの反射光をカメラで撮影し距離を計測する距離センサのように通常の撮像画像も同時に撮影可能であるものであれば、撮像画像及び距離画像は同一視点から撮影した画像となる。ただし、撮像画像と距離画像の撮影位置姿勢が近く、かつ両者の撮影装置の幾何関係が既知であるならば、撮像画像及び距離画像のどちらか一方を幾何変換することで、同一視点から撮影した画像として扱っても良い。例えば、撮像画像と距離画像との間の対応する点を用いて基礎行列を求めておくことで、両者の画像座標系の相互変換が可能である。また、撮像画像及び距離画像は、予め記憶装置に保存しておいたものを取得しても良い。   If a normal captured image can be captured at the same time as a distance sensor that measures the distance by capturing reflected light such as laser light and pattern light with a camera, the captured image and the distance image are captured from the same viewpoint. The resulting image. However, if the shooting position and orientation of the captured image and the distance image are close and the geometrical relationship between the two imaging devices is known, the captured image and the distance image were captured from the same viewpoint by geometric transformation. It may be handled as an image. For example, by obtaining a basic matrix using corresponding points between a captured image and a distance image, mutual conversion between the image coordinate systems of both is possible. The captured image and the distance image may be acquired in advance stored in a storage device.

距離センサと撮像画像を撮像したカメラのカメラパラメータ(画角や解像度、焦点距離など)は既知とする。カメラの焦点距離や主点位置、レンズ歪みパラメータなどのカメラパラメータは、例えば[R. Y. Tsai, “A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf TV cameras and lenses, ” Proceedings of Computer Vision and Pattern Recognition, pp. 671-677, 1998.]で開示されている方法によって事前にキャリブレーションしておく。   The camera parameters (view angle, resolution, focal length, etc.) of the distance sensor and the camera that captured the captured image are known. Camera parameters such as camera focal length, principal point position, and lens distortion parameters are described in [RY Tsai, “A versatile camera calibration technique for high-accuracy 3D machine vision metrology using off-the-shelf TV cameras and lenses,” Proceedings of Computer Vision and Pattern Recognition, pp. 671-677, 1998.] in advance.

概略位置姿勢取得部120は、撮像画像の視点に対する現実物体の位置及び姿勢の概略値(概略位置姿勢)を取得する。「撮像画像の視点に対する現実物体の位置及び姿勢」とは、撮像画像の視点の位置及び姿勢を基準とする座標系における現実物体の位置及び姿勢を指す。本実施形態では、画像取得部110(撮像画像の視点を画像取得部110とした場合)の位置及び姿勢を基準とする座標系における現実物体の位置及び姿勢とする。しかしながら、画像取得部110を基準とする座標系に対する相対的な位置及び姿勢が既知であり、かつ変化しなければ、3次元計測装置1のいずれの部分を基準としても良い。   The approximate position and orientation acquisition unit 120 acquires approximate values (approximate position and orientation) of the position and orientation of the real object with respect to the viewpoint of the captured image. “The position and orientation of the real object relative to the viewpoint of the captured image” refers to the position and orientation of the real object in the coordinate system based on the position and orientation of the viewpoint of the captured image. In the present embodiment, the position and orientation of the real object in the coordinate system based on the position and orientation of the image acquisition unit 110 (when the viewpoint of the captured image is the image acquisition unit 110) are used. However, if the relative position and orientation with respect to the coordinate system with the image acquisition unit 110 as a reference are known and do not change, any part of the three-dimensional measurement apparatus 1 may be used as a reference.

本実施形態ではこの概略位置姿勢を後述する繰り返し計算により繰り返し更新して、最終的に出力する位置及び姿勢を求める。然るに概略位置姿勢取得部120は、繰り返し計算における現在のステップにて求まった概略位置姿勢を取得して記憶し、記憶した概略位置姿勢を次のステップに供給する。   In the present embodiment, the approximate position and orientation are repeatedly updated by repeated calculation to be described later to obtain the final output position and orientation. However, the approximate position and orientation acquisition unit 120 acquires and stores the approximate position and orientation obtained at the current step in the iterative calculation, and supplies the stored approximate position and orientation to the next step.

概略位置姿勢の初期値については特に限定するものではなく、予め定められたものであっても良いし、予め磁気式センサなどの他のセンサにより計測した現実物体の位置及び姿勢を概略位置姿勢の初期値としても良い。また、現実物体を含む情景を撮影した画像や距離画像から物体認識技術を利用して現実物体の位置及び姿勢の概略位置姿勢を推定しても良い。   The initial value of the approximate position and orientation is not particularly limited, and may be a predetermined value, or the position and orientation of the real object measured by another sensor such as a magnetic sensor in advance may be used as the approximate position and orientation. It is good also as an initial value. Further, the approximate position and orientation of the position and orientation of the real object may be estimated using an object recognition technique from an image obtained by photographing a scene including the real object or a distance image.

形状モデル保持部130には、仮想物体を構成する各多角形(面)に係る情報、例えば、各多角形(図形)の頂点の座標値、頂点間を結ぶ線分の両端の頂点を示す情報等、仮想物体を定義するために必要な情報を保持している。また、各面と各面に接する線分の対応関係も保持している。   In the shape model holding unit 130, information on each polygon (surface) constituting the virtual object, for example, coordinate values of vertices of each polygon (graphic), information indicating vertices at both ends of a line segment connecting the vertices And so on, which hold information necessary for defining a virtual object. Also, the correspondence relationship between each surface and the line segment in contact with each surface is maintained.

2次元画像対応探索部140は、概略位置姿勢取得部120から概略位置姿勢を取得し、取得した概略位置姿勢を用いて仮想物体を撮像画像上に投影する。厳密には、この投影には、上記のカメラパラメータも用いる。この投影は、概略位置姿勢取得部120から取得した概略位置姿勢を有する仮想物体を仮想空間中に配置し、配置した仮想物体を上記視点から場合に見える仮想物体画像を生成することに等価である。これは、後述する距離画像上への投影についても同様である。そして2次元画像対応探索部140は、撮像画像上に投影した仮想物体の幾何特徴(例えば多角形の一辺)と、撮像画像中に映っている現実物体においてこの幾何特徴に対応する特徴部分(画像特徴)と、の対応付けを行う。   The two-dimensional image correspondence search unit 140 acquires the approximate position and orientation from the approximate position and orientation acquisition unit 120, and projects a virtual object on the captured image using the acquired approximate position and orientation. Strictly speaking, the above camera parameters are also used for this projection. This projection is equivalent to placing a virtual object having the approximate position and orientation acquired from the approximate position and orientation acquisition unit 120 in the virtual space, and generating a virtual object image in which the placed virtual object can be seen from the viewpoint. . The same applies to the projection onto the distance image described later. Then, the two-dimensional image correspondence search unit 140 includes a geometric feature (for example, one side of a polygon) of the virtual object projected on the captured image and a feature portion (image) corresponding to this geometric feature in the real object reflected in the captured image. (Features) are associated with each other.

概略位置姿勢に基づいて投影した仮想物体の幾何特徴の撮像画像上における位置は、ほとんどの場合、該幾何特徴に対応する画像特徴の位置からはずれている。そこで、撮像画像上に投影された幾何特徴の周辺領域を探索領域Ω2とし、この探索領域Ω2内で、この幾何特徴に対応する画像特徴を探索する。このように、周辺領域のみを探索することにより、任意の幾何特徴に対応する画像特徴を高速に探索することが可能となる。   In most cases, the position of the geometric feature of the virtual object projected based on the approximate position and orientation on the captured image deviates from the position of the image feature corresponding to the geometric feature. Therefore, a peripheral region of the geometric feature projected on the captured image is set as a search region Ω2, and an image feature corresponding to the geometric feature is searched in the search region Ω2. As described above, by searching only the peripheral region, it is possible to search for an image feature corresponding to an arbitrary geometric feature at high speed.

対応探索領域設定部150は、2次元画像対応探索部140により対応付けが行われた「撮像画像上に投影した仮想物体の幾何特徴」と「撮像画像中に映っている現実物体においてこの幾何特徴に対応する画像特徴」の組を用いて、対応探索領域Ω3を設定する。   The correspondence search area setting unit 150 performs the “geometric feature of the virtual object projected on the captured image” and the “geometric feature of the real object reflected in the captured image” that are associated by the two-dimensional image correspondence search unit 140. Corresponding search region Ω3 is set using a set of “image features corresponding to”.

撮像画像において画像特徴が存在する領域に対応する距離画像上の領域は不安定になりやすく、距離画像上で安定して奥行き値が測定できる領域に対応する撮像画像上の領域では画像特徴は検出されにくい。そのため、仮想物体を構成するそれぞれの多角形を、概略位置姿勢を用いて距離画像上に投影し、該投影された多角形の領域から、撮像画像上の画像特徴に対応する距離画像内の領域の周辺を省いた残りの領域を、対応探索領域Ω3として設定する。なお「投影された多角形の領域」は、この多角形についての幾何特徴を撮像画像上に投影した位置同士を結んだ多角形領域である。これにより、距離計測が不安定な画像特徴周辺の距離画像領域を位置合わせに利用しないため、位置合わせが安定化する。   The area on the distance image corresponding to the area where the image feature exists in the captured image tends to be unstable, and the image feature is detected in the area on the captured image corresponding to the area where the depth value can be measured stably on the distance image. It is hard to be done. Therefore, each polygon forming the virtual object is projected on the distance image using the approximate position and orientation, and the region in the distance image corresponding to the image feature on the captured image is projected from the projected polygon region. The remaining area excluding the periphery of is set as the corresponding search area Ω3. The “projected polygonal area” is a polygonal area that connects the positions where the geometric features of the polygon are projected on the captured image. This stabilizes the alignment because the distance image area around the image feature where the distance measurement is unstable is not used for the alignment.

距離画像対応探索部160は、上記の設定された対応探索領域Ω3内の各画素について、該画素に対応する仮想物体上の点(3次元点)を探索する。距離計測が不安定であると考えられる領域を除いた対応探索領域内のみから、仮想物体上の対応する3次元点を探索するため、高速かつロバストに対応探索が可能となる。ただし距離画像上の特徴は3次元点に限るものではない。例えば、距離画像から得られる3次元点群に対し、面当てはめを行って生成した平面や曲面であっても良い。   The distance image correspondence search unit 160 searches for a point (three-dimensional point) on the virtual object corresponding to each pixel in the set correspondence search region Ω3. Since the corresponding three-dimensional point on the virtual object is searched only from the corresponding search area excluding the area where the distance measurement is considered to be unstable, the corresponding search can be performed at high speed and robustly. However, the feature on the distance image is not limited to the three-dimensional point. For example, a plane or curved surface generated by performing surface fitting on a three-dimensional point group obtained from a distance image may be used.

位置姿勢算出部170は、以下に示す評価関数を最小化するように、概略位置姿勢を繰り返し更新する。   The position and orientation calculation unit 170 repeatedly updates the approximate position and orientation so as to minimize the evaluation function shown below.

評価関数=仮想物体を構成するそれぞれの多角形について求めた対応探索領域Ω3内の画素の奥行き値が示す位置と、該画素に対応する仮想物体上の(上記3次元点の)位置と、の間の3次元空間における距離、幾何特徴と特徴部分との間の3次元空間における距離、を表す評価関数
なお、幾何特徴と撮像画像上の特徴との間の距離と、幾何特徴と距離画像上の特徴との間の距離と、に基づく評価関数を用いて現実物体の位置及び姿勢を推定するのであれば、如何なる方法を用いても良い。
Evaluation function = the position indicated by the depth value of the pixel in the corresponding search region Ω3 obtained for each polygon constituting the virtual object, and the position (of the three-dimensional point) on the virtual object corresponding to the pixel An evaluation function that represents the distance in the three-dimensional space between the geometric feature and the distance in the three-dimensional space between the feature and the feature portion. The distance between the geometric feature and the feature on the captured image, and the geometric feature on the distance image Any method may be used as long as the position and orientation of the real object are estimated using an evaluation function based on the distance between the feature and the feature.

次に、3次元計測装置1が現実物体の位置及び姿勢を求めるために行う処理について、同処理のフローチャートを示す図2を用いて説明する。この処理では、上記の概略位置姿勢を示す位置姿勢情報を、上記評価関数を最小化するように、繰り返し計算(反復演算)により繰り返し補正することにより、最終的な位置及び姿勢を求める。   Next, a process performed by the three-dimensional measurement apparatus 1 for obtaining the position and orientation of the real object will be described with reference to FIG. 2 showing a flowchart of the process. In this process, the final position and orientation are obtained by repeatedly correcting the position and orientation information indicating the approximate position and orientation by repeated calculation (repetitive calculation) so as to minimize the evaluation function.

<ステップS1010>
ステップS1010では、画像取得部110は、現実物体の撮像画像、該撮像画像と同じ視点から撮像され且つ各画素が奥行き値を有する距離画像と、を取得する。
<Step S1010>
In step S1010, the image acquisition unit 110 acquires a captured image of a real object and a distance image captured from the same viewpoint as the captured image and each pixel having a depth value.

<ステップS1020>
ステップS1020では、概略位置姿勢取得部120は、上記の概略位置姿勢の初期値を取得する。なお、ステップS1010における処理とステップS1020における処理の順序は逆でも良い。
<Step S1020>
In step S1020, the approximate position and orientation acquisition unit 120 acquires initial values of the approximate position and orientation. Note that the order of the processing in step S1010 and the processing in step S1020 may be reversed.

<ステップS1030>
ステップS1030では、2次元画像対応探索部140は、概略位置姿勢取得部120から概略位置姿勢を取得し、取得した概略位置姿勢を用いて仮想物体を撮像画像上に投影する。厳密には、この投影には、上記のカメラパラメータも用いる。そして2次元画像対応探索部140は、撮像画像上に投影した仮想物体の幾何特徴(例えば多角形の一辺)と、撮像画像中に映っている現実物体においてこの幾何特徴に対応する特徴部分(画像特徴)と、の対応付けを行う。
<Step S1030>
In step S1030, the two-dimensional image correspondence search unit 140 acquires the approximate position and orientation from the approximate position and orientation acquisition unit 120, and projects a virtual object on the captured image using the acquired approximate position and orientation. Strictly speaking, the above camera parameters are also used for this projection. Then, the two-dimensional image correspondence search unit 140 includes a geometric feature (for example, one side of a polygon) of the virtual object projected on the captured image and a feature portion (image) corresponding to this geometric feature in the real object reflected in the captured image. (Features) are associated with each other.

以下の式は、焦点距離がfである場合に、仮想物体における幾何特徴の3次元座標(x,y,z)を2次元平面(投影面=撮像画像)上の座標(u,v)に透視投影変換する式である。ただし投影方法は視点と現実物体との間の距離が十分に遠ければ弱透視投影であっても良いし、平行投影であっても良い。   In the following equation, when the focal length is f, the three-dimensional coordinates (x, y, z) of the geometric feature in the virtual object are changed to coordinates (u, v) on the two-dimensional plane (projection plane = captured image). This is a formula for perspective projection conversion. However, the projection method may be weak perspective projection or parallel projection if the distance between the viewpoint and the real object is sufficiently long.

(u,v)=(f×x/z,f×y/z)
ここで、本ステップにおいて2次元画像対応探索部140が行う、幾何特徴と画像特徴との対応付けについて、図3を用いて説明する。図3に示す如く、撮像画像230の視点260を基準とする現実物体210の概略位置姿勢に基づいて、現実物体210の幾何特徴(ここでは点線で示す線分)220を撮像画像230上に投影したものが投影幾何特徴290である。この投影幾何特徴290に対応する画像特徴250を探索すべく、この投影幾何特徴290の周辺領域240を探索領域Ω2として設定する。図3では、投影幾何特徴290の方向ベクトル方向とは直交する両方向に数画素分広げた領域を探索領域Ω2としている。
(U, v) T = (f × x / z, f × y / z) T
Here, the correspondence between the geometric feature and the image feature performed by the two-dimensional image correspondence search unit 140 in this step will be described with reference to FIG. As shown in FIG. 3, based on the approximate position and orientation of the real object 210 with respect to the viewpoint 260 of the captured image 230, the geometric feature (here, a line segment indicated by a dotted line) 220 of the real object 210 is projected onto the captured image 230. This is the projection geometric feature 290. In order to search for an image feature 250 corresponding to the projected geometric feature 290, a peripheral region 240 of the projected geometric feature 290 is set as a search region Ω2. In FIG. 3, a region expanded by several pixels in both directions orthogonal to the direction vector direction of the projection geometric feature 290 is set as a search region Ω2.

なお、幾何特徴220としての線分の長さは、現実物体210を撮像画像230上に投影したときの物体全長の10%とする。しかしながら探索領域の長さはこれに限るものではなく、固定長であっても良いし、位置姿勢推定の残差に応じて大きくしても良い。また、前フレームの情報や磁気センサなどの情報から分かる現実物体210の撮像画像230上での動きベクトルと上記線分の内積をとり、動き方向に対して探索範囲を広くしても良い。   The length of the line segment as the geometric feature 220 is 10% of the total length of the object when the real object 210 is projected onto the captured image 230. However, the length of the search area is not limited to this, and may be a fixed length or may be increased according to the residual of position and orientation estimation. In addition, the motion vector on the captured image 230 of the real object 210 that can be known from the information of the previous frame or the information of the magnetic sensor and the inner product of the line segment may be taken to widen the search range with respect to the motion direction.

そして次に、探索領域Ω2内の各画素に対してエッジ検出を行うことで、画像特徴250を探索し、探索した画像特徴250を投影幾何特徴290と対応付ける。なお、探索領域Ω2の設定方法はこれに限るものではない。例えば、幾何特徴は角などの画像特徴として検出しやすいものであっても良く、その場合、探索領域Ω2を矩形や楕円領域など任意の領域とし、投影幾何特徴周辺から2次元探索を行って画像特徴を探索するようにしても良い。   Next, edge detection is performed on each pixel in the search region Ω 2 to search the image feature 250, and the searched image feature 250 is associated with the projection geometric feature 290. Note that the method of setting the search region Ω2 is not limited to this. For example, the geometric feature may be easily detected as an image feature such as a corner. In this case, the search region Ω2 is an arbitrary region such as a rectangle or an ellipse region, and the image is obtained by performing a two-dimensional search from around the projected geometric feature. A feature may be searched for.

<ステップS1040>
ステップS1040では対応探索領域設定部150は、2次元画像対応探索部140により対応付けが行われた「投影幾何特徴」と「投影幾何特徴に対応する特徴部分」の組を用いて、距離画像上に対応探索領域Ω3を設定する。
<Step S1040>
In step S1040, the correspondence search area setting unit 150 uses the set of “projection geometric feature” and “feature part corresponding to the projection geometric feature” associated with each other by the two-dimensional image correspondence search unit 140 to display the distance image on the distance image. Is set to the corresponding search region Ω3.

ここで、本ステップにおいて、対応探索領域設定部150が行う、対応探索領域Ω3の設定処理について、図4を用いて説明する。画像特徴と対応付けられた幾何特徴(線分)と投影した各面との対応関係は既知である。   Here, the setting process of the corresponding search area Ω3 performed by the corresponding search area setting unit 150 in this step will be described with reference to FIG. The correspondence between the geometric feature (line segment) associated with the image feature and each projected surface is known.

図4(a)において点線で示す枠320は、投影幾何特徴同士を結ぶことで形成される枠であり、1つの多角形を、概略位置姿勢を用いて距離画像上に投影したものである。実線で示す枠310は、撮像画像上の画像特徴に対応する距離画像上の位置同士を結ぶことで形成される枠である。   A frame 320 indicated by a dotted line in FIG. 4A is a frame formed by connecting projection geometric features to each other, and is obtained by projecting one polygon on a distance image using the approximate position and orientation. A frame 310 indicated by a solid line is a frame formed by connecting positions on the distance image corresponding to the image feature on the captured image.

上記の通り、画像特徴周辺は距離画像としては計測が不安定となる領域である。また、投影幾何特徴から画像特徴に向かうベクトルを太らせた領域330は対応する領域でない可能性がある。そこで、枠320内の領域を初期の対応探索領域Ω3−0とする。そして、図4(b)に示す如く、画像特徴250から投影幾何特徴290に向かう線分390を求め、求めた線分390を囲む領域330を求める。そして、対応探索領域Ω3−0から領域330を除外した残りの領域340を、対応探索領域Ω3とする。   As described above, the area around the image feature is an area where measurement is unstable as a distance image. In addition, the region 330 in which the vector from the projected geometric feature to the image feature is thickened may not be a corresponding region. Therefore, an area in the frame 320 is set as an initial corresponding search area Ω3-0. Then, as shown in FIG. 4B, a line segment 390 from the image feature 250 to the projected geometric feature 290 is obtained, and an area 330 surrounding the obtained line segment 390 is obtained. Then, the remaining area 340 excluding the area 330 from the corresponding search area Ω3-0 is set as the corresponding search area Ω3.

なお、領域330の形状は矩形に限るものではなく、求めた線分を囲むことができるのであれば、如何なる形状であっても良い。ただし、画像特徴上の奥行き値はノイズが多いため、画像特徴は除外領域に含まれるようにする。   Note that the shape of the region 330 is not limited to a rectangle, and may be any shape as long as the obtained line segment can be surrounded. However, since the depth value on the image feature is noisy, the image feature is included in the excluded region.

また、対応探索領域Ω3の求め方は上記の方法に限定するものではなく、多角形を距離画像上に投影した領域を、対応付けられた画像特徴に基づいて縮小した領域であればよい。例えば図5に示す如く対応探索領域Ω3を求めても良い。即ち、対応探索領域を設定する多角形を撮像画像上に投影した領域(枠320内の領域)と、その多角形に接する多角形に対応付いた撮像画像上の画像特徴(エッジや角等)を結んだ領域410と、の重複領域440を対応探索領域Ω3としても良い。   In addition, the method of obtaining the correspondence search region Ω3 is not limited to the above method, and may be a region obtained by reducing a region obtained by projecting a polygon on a distance image based on the associated image feature. For example, the corresponding search area Ω3 may be obtained as shown in FIG. That is, a region (a region in the frame 320) obtained by projecting a polygon for setting a corresponding search region on the captured image, and an image feature (edge, corner, etc.) on the captured image associated with the polygon that touches the polygon. The overlapping region 440 with the region 410 connecting the two may be set as the corresponding search region Ω3.

また、画像特徴上は距離画像の奥行き値が不安定であるため、領域410を収縮した領域と、枠320内の領域との重複領域を対応探索領域Ω3として出力しても良い。さらに、対応探索領域Ω3は2次元平面に限るものではなく、3次元領域であっても良い。例えば図6に示す如く、対応探索領域Ω3を設定しても良い。即ち多角形を撮像画像上に投影した領域530とその多角形に接する多角形に対応付いた撮像画像上の画像特徴を結んだ枠310内の領域との重複領域Ω3p(540)を底面とし、視点260を頂点とする3次元領域を対応探索領域Ω3(550)としても良い。以上の様々な方法により、距離画像対応探索部160は後述の処理において、奥行き値も考慮して対応付けを行うことが可能となる。   In addition, since the depth value of the distance image is unstable in terms of image characteristics, an overlapping area between the area contracted from the area 410 and the area in the frame 320 may be output as the corresponding search area Ω3. Further, the correspondence search region Ω3 is not limited to a two-dimensional plane, and may be a three-dimensional region. For example, as shown in FIG. 6, a corresponding search area Ω3 may be set. In other words, the overlapping region Ω3p (540) between the region 530 in which the polygon is projected on the captured image and the region in the frame 310 connecting the image features on the captured image corresponding to the polygon that touches the polygon is used as the bottom surface. A three-dimensional region having the viewpoint 260 as a vertex may be set as the corresponding search region Ω3 (550). By the various methods described above, the distance image correspondence search unit 160 can perform association in consideration of the depth value in the processing described later.

<ステップS1050>
ステップS1050では、距離画像対応探索部160は、上記の設定された対応探索領域Ω3内の各画素について、該画素に対応する仮想物体上の点(3次元点)を探索する。そして距離画像対応探索部160は、対応探索領域Ω3内の各画素と、該画素に対応する仮想物体上の点(3次元点)と、を対応付ける。
<Step S1050>
In step S1050, the distance image correspondence search unit 160 searches for a point (three-dimensional point) on the virtual object corresponding to the pixel in the set correspondence search region Ω3. Then, the distance image correspondence search unit 160 associates each pixel in the correspondence search region Ω3 with a point (three-dimensional point) on the virtual object corresponding to the pixel.

<ステップS1060>
ステップS1060では位置姿勢算出部170は、上記の評価関数を最小化するように、非線型最適化手法により概略位置姿勢を更新する。この処理では、仮想物体の幾何特徴と対応付けた画像特徴および3次元点の3次元空間中での距離をGauss-Newton法により最小化する。なお、本ステップにて更新した概略位置姿勢は、概略位置姿勢取得部120にて記憶される。
<Step S1060>
In step S1060, the position / orientation calculation unit 170 updates the approximate position / orientation by the nonlinear optimization method so as to minimize the evaluation function. In this processing, the image feature associated with the geometric feature of the virtual object and the distance of the three-dimensional point in the three-dimensional space are minimized by the Gauss-Newton method. The approximate position and orientation updated in this step is stored in the approximate position and orientation acquisition unit 120.

なお、位置姿勢の算出方法はこれに限るものではない。例えば、Levenberg-Marquardt法や最急降下法などの最適化手法を採用しても良い。また、共役勾配法など、他の非線型最適化計算手法を用いても良い。   Note that the position and orientation calculation method is not limited to this. For example, an optimization method such as the Levenberg-Marquardt method or the steepest descent method may be employed. Also, other nonlinear optimization calculation methods such as a conjugate gradient method may be used.

<ステップS1070>
ステップS1070では、位置姿勢算出部170は、ステップS1060の計算の終了条件が満たされたか否かを判断する。終了条件には様々なものが考え得る。例えば、概略位置姿勢の更新前後の誤差ベクトルの二乗和の差がほぼ0となった場合には、終了条件が満たされたと判断する。また、概略位置姿勢の更新量がほぼ0である場合に、終了条件が満たされたと判断しても良い。
<Step S1070>
In step S1070, the position / orientation calculation unit 170 determines whether or not the calculation end condition in step S1060 is satisfied. Various termination conditions can be considered. For example, when the difference between the square sums of the error vectors before and after the update of the approximate position and orientation is almost zero, it is determined that the termination condition is satisfied. Further, when the update amount of the approximate position and orientation is almost zero, it may be determined that the end condition is satisfied.

そしてこの判断の結果、終了条件が満たされたと判断した場合、位置姿勢算出部170は、この時点で求まっている概略位置姿勢を最終的な位置及び姿勢として出力する。出力先については特に限定するものではなく、適当なメモリに出力しても良いし、外部の装置に対して出力しても良い。また、何らかの処理に対して供給するようにしても良い。   If it is determined that the end condition is satisfied as a result of the determination, the position / orientation calculation unit 170 outputs the approximate position / orientation obtained at this time as the final position and orientation. The output destination is not particularly limited and may be output to an appropriate memory or output to an external device. Moreover, you may make it supply with respect to a certain process.

一方、この判断の結果、終了条件は満たされていないと判断した場合、処理はステップS1030に戻り、ステップS1060にて更新された概略位置姿勢を用いて以降の処理を行う。   On the other hand, if it is determined that the end condition is not satisfied as a result of this determination, the process returns to step S1030, and the subsequent processes are performed using the approximate position and orientation updated in step S1060.

なお、本実施形態は、ロボットの自己位置推定や、ロボットと現実物体との間の相対的な位置及び姿勢を推定することにも利用できるものであり、その応用については様々なものが考え得る。   This embodiment can also be used to estimate the robot's own position and the relative position and orientation between the robot and the real object, and various applications can be considered. .

[第2の実施形態]
図1に示した3次元計測装置1を構成する各部はハードウェアで実装しても良いが、形状モデル保持部130をRAMなどのメモリとして実装し、その他の各部をソフトウェア(コンピュータプログラム)として実装しても良い。この場合、このメモリを有すると共に、このソフトウェアを格納する為のメモリと、このソフトウェアを実行するためのCPUと、を有するコンピュータは、3次元計測装置1として機能することができる。この場合、このCPUは、このソフトウェアを実行することで、第1の実施形態で説明した各処理を実行することができる。また、画像取得部110を上記の撮像画像を撮像すると共に、距離画像をも生成するハードウェアとして実装しても良い。
[Second Embodiment]
1 may be implemented by hardware, but the shape model holding unit 130 is implemented as a memory such as a RAM, and the other units are implemented as software (computer program). You may do it. In this case, a computer having the memory, a memory for storing the software, and a CPU for executing the software can function as the three-dimensional measuring apparatus 1. In this case, the CPU can execute each process described in the first embodiment by executing the software. Further, the image acquisition unit 110 may be mounted as hardware that captures the above-described captured image and also generates a distance image.

(その他の実施例)
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
(Other examples)
The present invention can also be realized by executing the following processing. That is, software (program) that realizes the functions of the above-described embodiments is supplied to a system or apparatus via a network or various storage media, and a computer (or CPU, MPU, or the like) of the system or apparatus reads the program. It is a process to be executed.

Claims (5)

現実物体の撮像画像、及び該撮像画像と同じ視点から撮像され且つ各画素が奥行き値を有する距離画像と、を取得する手段と、
前記視点に対する前記現実物体の位置及び姿勢を示す位置姿勢情報を取得し、該取得した位置姿勢情報を用いて、複数の図形で構成され且つ前記現実物体の形状を模した仮想物体を前記撮像画像上に投影する手段と、
前記撮像画像中における前記仮想物体の幾何特徴と、前記撮像画像中に映っている前記現実物体において該幾何特徴に対応する特徴部分と、の対応付けを行う手段と、
前記仮想物体を構成するそれぞれの図形を、前記位置姿勢情報を用いて前記距離画像上に投影し、該投影された図形の領域から、前記特徴部分に対応する前記距離画像内の部分の周辺を省いた残りの領域を、対応探索領域として設定する設定手段と、
前記仮想物体を構成するそれぞれの図形について求めた対応探索領域内の画素の奥行き値が示す位置と、該画素に対応する前記仮想物体上の位置と、の距離、前記幾何特徴と前記特徴部分との距離、を表す評価関数の値を小さくするように前記位置姿勢情報を繰り返し更新する更新手段と、
前記更新手段により繰り返し更新された位置姿勢情報を出力する手段と
を備えることを特徴とする位置姿勢計測装置。
Means for acquiring a captured image of a real object, and a distance image captured from the same viewpoint as the captured image and each pixel having a depth value;
Acquires position and orientation information indicating the position and orientation of the real object with respect to the viewpoint, and uses the acquired position and orientation information to capture a virtual object composed of a plurality of figures and imitating the shape of the real object Means for projecting above;
Means for associating a geometric feature of the virtual object in the captured image with a feature portion corresponding to the geometric feature in the real object reflected in the captured image;
Each figure constituting the virtual object is projected onto the distance image using the position and orientation information, and the periphery of the part in the distance image corresponding to the feature part is projected from the area of the projected figure. Setting means for setting the remaining area as a corresponding search area;
The distance between the position indicated by the depth value of the pixel in the corresponding search area obtained for each figure constituting the virtual object and the position on the virtual object corresponding to the pixel, the geometric feature, and the feature portion Updating means for repeatedly updating the position and orientation information so as to reduce the value of the evaluation function representing the distance of
Means for outputting position and orientation information repeatedly updated by the updating means.
前記設定手段は、前記投影された図形の領域と、前記特徴部分に対応する前記距離画像内の位置同士を繋いだ領域と、の重複領域を、前記対応探索領域として設定することを特徴とする請求項1に記載の位置姿勢計測装置。   The setting means sets an overlapping area between the projected figure area and an area connecting positions in the distance image corresponding to the feature portion as the corresponding search area. The position and orientation measurement apparatus according to claim 1. 前記設定手段は、前記投影された図形の領域と、前記仮想物体において該図形に接する図形に対応付いた画像特徴を結んだ領域と、の重複領域を底面とし、前記視点を頂点とする3次元領域を、前記対応探索領域として設定することを特徴とする請求項1に記載の位置姿勢計測装置。   The setting means has a three-dimensional structure in which an overlapping area between the projected figure area and an area connecting image features corresponding to the figure in contact with the figure in the virtual object is a bottom surface and the viewpoint is a vertex. The position / orientation measurement apparatus according to claim 1, wherein an area is set as the corresponding search area. 位置姿勢計測装置が行う位置姿勢計測方法であって、
前記位置姿勢計測装置の取得手段が、現実物体の撮像画像、及び該撮像画像と同じ視点から撮像され且つ各画素が奥行き値を有する距離画像と、を取得する工程と、
前記位置姿勢計測装置の投影手段が、前記視点に対する前記現実物体の位置及び姿勢を示す位置姿勢情報を取得し、該取得した位置姿勢情報を用いて、複数の図形で構成され且つ前記現実物体の形状を模した仮想物体を前記撮像画像上に投影する工程と、
前記位置姿勢計測装置の対応付け手段が、前記撮像画像中における前記仮想物体の幾何特徴と、前記撮像画像中に映っている前記現実物体において該幾何特徴に対応する特徴部分と、の対応付けを行う工程と、
前記位置姿勢計測装置の設定手段が、前記仮想物体を構成するそれぞれの図形を、前記位置姿勢情報を用いて前記距離画像上に投影し、該投影された図形の領域から、前記特徴部分に対応する前記距離画像内の部分の周辺を省いた残りの領域を、対応探索領域として設定する設定工程と、
前記位置姿勢計測装置の更新手段が、前記仮想物体を構成するそれぞれの図形について求めた対応探索領域内の画素の奥行き値が示す位置と、該画素に対応する前記仮想物体上の位置と、の距離、前記幾何特徴と前記特徴部分との距離、を表す評価関数の値を小さくするように前記位置姿勢情報を繰り返し更新する更新工程と、
前記位置姿勢計測装置の出力手段が、前記更新工程で繰り返し更新された位置姿勢情報を出力する工程と
を備えることを特徴とする位置姿勢計測方法。
A position and orientation measurement method performed by a position and orientation measurement apparatus,
The acquisition unit of the position and orientation measurement apparatus acquires a captured image of a real object, and a distance image captured from the same viewpoint as the captured image and each pixel having a depth value;
Projection means of the position and orientation measurement apparatus acquires position and orientation information indicating the position and orientation of the real object with respect to the viewpoint, and uses the acquired position and orientation information to form a plurality of figures and the real object Projecting a virtual object imitating a shape on the captured image;
The association unit of the position / orientation measurement apparatus associates the geometric feature of the virtual object in the captured image with the feature portion corresponding to the geometric feature in the real object reflected in the captured image. A process of performing;
The setting means of the position / orientation measurement apparatus projects each figure constituting the virtual object onto the distance image using the position / orientation information, and corresponds to the feature portion from the projected figure area. A setting step of setting the remaining area excluding the periphery of the part in the distance image as a corresponding search area;
The position indicated by the depth value of the pixel in the corresponding search area obtained by the updating means of the position / orientation measurement apparatus for each figure constituting the virtual object, and the position on the virtual object corresponding to the pixel An update step of repeatedly updating the position and orientation information so as to reduce a value of an evaluation function representing a distance, a distance between the geometric feature and the feature portion;
The position / orientation measurement method comprising: an output unit of the position / orientation measurement apparatus outputting the position / orientation information updated repeatedly in the updating step.
コンピュータを、請求項1乃至3の何れか1項に記載の位置姿勢計測装置の各手段として機能させるためのコンピュータプログラム。   A computer program for causing a computer to function as each unit of the position and orientation measurement apparatus according to any one of claims 1 to 3.
JP2011096370A 2011-04-22 2011-04-22 Position posture measurement device and position posture measurement method Withdrawn JP2012225888A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011096370A JP2012225888A (en) 2011-04-22 2011-04-22 Position posture measurement device and position posture measurement method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011096370A JP2012225888A (en) 2011-04-22 2011-04-22 Position posture measurement device and position posture measurement method

Publications (1)

Publication Number Publication Date
JP2012225888A true JP2012225888A (en) 2012-11-15

Family

ID=47276208

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011096370A Withdrawn JP2012225888A (en) 2011-04-22 2011-04-22 Position posture measurement device and position posture measurement method

Country Status (1)

Country Link
JP (1) JP2012225888A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN105758339A (en) * 2016-03-17 2016-07-13 中国计量学院 Optical axis and object plane verticality detection method based on geometric error correction technology
JP2017075891A (en) * 2015-10-16 2017-04-20 キヤノン株式会社 Measuring device, measuring method, and method for manufacturing article
CN111971523A (en) * 2018-05-29 2020-11-20 欧姆龙株式会社 Vision sensor system, control method, and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017075891A (en) * 2015-10-16 2017-04-20 キヤノン株式会社 Measuring device, measuring method, and method for manufacturing article
CN105758339A (en) * 2016-03-17 2016-07-13 中国计量学院 Optical axis and object plane verticality detection method based on geometric error correction technology
CN111971523A (en) * 2018-05-29 2020-11-20 欧姆龙株式会社 Vision sensor system, control method, and program
CN111971523B (en) * 2018-05-29 2022-06-10 欧姆龙株式会社 Vision sensor system, control method, and storage medium
US11745352B2 (en) 2018-05-29 2023-09-05 Omron Corporation Vision sensor system, control method, and non-transitory computer readable storage medium

Similar Documents

Publication Publication Date Title
US20200096317A1 (en) Three-dimensional measurement apparatus, processing method, and non-transitory computer-readable storage medium
JP5839929B2 (en) Information processing apparatus, information processing system, information processing method, and program
JP6324025B2 (en) Information processing apparatus and information processing method
JP5567908B2 (en) Three-dimensional measuring apparatus, measuring method and program
US9279661B2 (en) Information processing apparatus and information processing method
JP6271953B2 (en) Image processing apparatus and image processing method
JP5393318B2 (en) Position and orientation measurement method and apparatus
JP6370038B2 (en) Position and orientation measurement apparatus and method
JP6067175B2 (en) Position measuring apparatus and position measuring method
JP5615055B2 (en) Information processing apparatus and processing method thereof
JP2018144144A (en) Image processing device, image processing method and computer program
JP6626338B2 (en) Information processing apparatus, control method for information processing apparatus, and program
JP5698815B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP6066562B2 (en) Measuring device, measuring method and program
JP6040264B2 (en) Information processing apparatus, information processing apparatus control method, and program
JP2012225888A (en) Position posture measurement device and position posture measurement method
JP2015132523A (en) Position/attitude measurement apparatus, position/attitude measurement method, and program
JP6890422B2 (en) Information processing equipment, control methods and programs for information processing equipment
JP6285765B2 (en) Information processing apparatus and information processing method
JP5938201B2 (en) Position / orientation measuring apparatus, processing method thereof, and program
JP2017156968A (en) Information processing device, information processing method, program
Joubert et al. Scene reconstruction from uncontrolled motion using a low cost 3D sensor
JP2021043075A (en) Information processing device, control method therefor, and program
JP2019168473A (en) Position and orientation measurement device and method

Legal Events

Date Code Title Description
A300 Application deemed to be withdrawn because no request for examination was validly filed

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20140701