JP5088186B2 - Robot apparatus and control method of robot apparatus - Google Patents
Robot apparatus and control method of robot apparatus Download PDFInfo
- Publication number
- JP5088186B2 JP5088186B2 JP2008069510A JP2008069510A JP5088186B2 JP 5088186 B2 JP5088186 B2 JP 5088186B2 JP 2008069510 A JP2008069510 A JP 2008069510A JP 2008069510 A JP2008069510 A JP 2008069510A JP 5088186 B2 JP5088186 B2 JP 5088186B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- robot apparatus
- manipulator
- imaging means
- calculated
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Manipulator (AREA)
Description
本発明は、対象物に対し所望の操作を行うマニピュレータを有するロボット装置に関し、また、このようなロボット装置を制御するためのロボット装置の制御方法に関する。 The present invention relates to a robot apparatus having a manipulator that performs a desired operation on an object, and also relates to a robot apparatus control method for controlling such a robot apparatus.
従来、精密部品の搬送や組立を行うため、対象物に対し所望の操作を行うマニピュレータを有するロボット装置が提案されている。このようなロボット装置の制御においては、マニピュレータの先端部に設けられた先端ツール機構(把持機構等)を対象物に向けて迅速に移動させることが求められる。 2. Description of the Related Art Conventionally, a robot apparatus having a manipulator that performs a desired operation on an object has been proposed in order to carry and assemble precision parts. In the control of such a robot apparatus, it is required to quickly move the tip tool mechanism (gripping mechanism or the like) provided at the tip of the manipulator toward the object.
このような制御方法として、特許文献1には、基準画像として対象物を複数の方向から撮像した複数の画像を予め用意しておき、これら基準画像から、マニピュレータに取り付けたカメラにより対象物を撮像した撮像画像に最も近接した画像を検索し、検索された画像に基づいて、カメラと対象物との位置関係を計算する方法が記載されている。
As such a control method, in
また、特許文献2には、対象物の基準画像を予め用意しておき、カメラが取付けられたマニピュレータを移動させながら、このカメラにより対象物を撮像し、基準画像に近い画像が撮像される位置を探すことによって、カメラと対象物との位置関係を求める方法が記載されている。
In
さらに、対象物の画像から、位置が既知の特徴点を複数抽出し、これら特徴点間の位置関係に基づいて、カメラと対象物との位置関係を計算する方法も提案されている。 Further, a method has been proposed in which a plurality of feature points whose positions are known are extracted from the image of the target object, and the positional relationship between the camera and the target object is calculated based on the positional relationship between these feature points.
ところで、前述の特許文献1に記載されたロボット装置の制御方法においては、一つの対象物について多数の基準画像を用意しておく必要があるため煩雑であり、また、カメラにより撮像された画像と多数の基準画像との比較を行う必要があるため、カメラと対象物との位置関係を計算する処理に長時間を要するという問題がある。
By the way, in the control method of the robot apparatus described in the above-mentioned
また、特許文献2に記載されたロボット装置の制御方法においては、カメラが取付けられたマニピュレータを移動させながら撮像し、画像処理を繰り返さなければならないため、カメラと対象物との位置関係を求めるのに長時間を要するという問題がある。
Further, in the control method of the robot apparatus described in
さらに、対象物の画像から複数の特徴点を抽出する方法においては、対象物の形状が複雑である場合、特徴点の抽出が困難であるという問題がある。また、一つのカメラにより撮像した画像に基づいて、特徴点間の位置関係により全6自由度の位置姿勢を計測しても、高精度の計測は行えない。計測の精度を上げるために、対象物にマーカを設けることが考えられるが、対象物によってはマーカを設けることができない場合もある。 Furthermore, the method for extracting a plurality of feature points from the image of the object has a problem that it is difficult to extract the feature points when the shape of the object is complicated. Further, even if the position and orientation of all six degrees of freedom are measured based on the positional relationship between the feature points based on an image captured by one camera, high-precision measurement cannot be performed. In order to increase the accuracy of measurement, it is conceivable to provide a marker on the object. However, depending on the object, the marker may not be provided.
そこで、本発明は、前記の実情に鑑みてなされたものであり、その目的は、対象物について多数の基準画像を用意する必要がなく、また、撮像手段が取付けられたマニピュレータを移動させながら撮像する必要がなく、撮像手段と対象物との位置関係を迅速に求めることができるロボット装置及びロボット装置の制御方法を提供することにある。 Therefore, the present invention has been made in view of the above circumstances, and the object thereof is not to prepare a large number of reference images for an object, and imaging is performed while moving a manipulator to which an imaging means is attached. It is an object of the present invention to provide a robot apparatus and a control method for the robot apparatus that can quickly determine the positional relationship between the imaging means and the object.
前述の課題を解決し、前記目的を達成するため、本発明は、以下の構成のいずれか一を有するものである。 In order to solve the above-described problems and achieve the object, the present invention has any one of the following configurations.
〔構成1〕
対象物に対し所望の操作を行うマニピュレータを有するロボット装置において、対象物を含む領域の撮像を行う撮像手段と、撮像手段により得られた画像に基づく演算を行うとともにこの演算結果に応じてマニピュレータを制御する制御手段とを備え、撮像手段は、マニピュレータに取付けられており、制御手段は、対象物の外形形状及びこの対象物における2個以上の穴の位置を記憶しており、撮像手段により対象物の画像を一度撮像し、この画像と記憶された対象物の外形形状及び穴位置とのパターンマッチングを行い、画像における穴位置を推定し、穴位置を精密計測することで対象物の特徴点とし、特徴点の円抽出によって算出した円の中心位置をマッピングして、この結果に対して実際の寸法との倍率より距離を算出し、幾何的な位置関係から回転角を算出し、特徴点より対象物と撮像手段との平行移動及び光軸周りの回転を計算し、この計算結果に応じてマニピュレータを制御して、目的の位置まで移動させることを特徴とするものである。
[Configuration 1]
In a robot apparatus having a manipulator that performs a desired operation on an object, an imaging unit that images an area including the object, an operation based on an image obtained by the imaging unit, and a manipulator according to the operation result Control means for controlling, the imaging means is attached to the manipulator, the control means stores the outer shape of the object and the positions of two or more holes in the object, and the imaging means Once the image of the object is captured, pattern matching between the image and the external shape and hole position of the stored object is performed, the hole position in the image is estimated, and the feature point of the object is measured accurately. and then, by mapping the center position of the circle calculated by circles extracting feature points, and calculates the distance from the magnification of the actual dimensions for this result, a geometric Calculating a rotation angle from the location relation, the rotation about parallel movement and the optical axis between the object and the imaging means from the feature points calculated, by controlling the manipulator according to the calculation result, moving to the desired position It is characterized by.
〔構成2〕
構成1を有するロボット装置において、撮像手段は、照明手段を備えており、対象物の画像を撮像するときに、照明手段により、対象物を照明することを特徴とするものである。
[Configuration 2 ]
In the robot apparatus having the
〔構成3〕
対象物に対し所望の操作を行うマニピュレータを有するロボット装置を制御するロボット装置の制御方法であって、対象物の外形形状及びこの対象物における2個以上の穴の位置を記憶しておき、マニピュレータに取付けた撮像手段により対象物の画像を一度撮像し、撮像された画像と記憶された対象物の外形形状及び穴位置とのパターンマッチングを行って画像における穴位置を推定し、穴位置を精密計測することで対象物の特徴点とし、特徴点の円抽出によって算出した円の中心位置をマッピングして、この結果に対して実際の寸法との倍率より距離を算出し、幾何的な位置関係から回転角を算出し、特徴点より対象物と撮像手段との平行移動及び光軸周りの回転を計算し、計算結果に応じてマニピュレータを制御して、目的の位置まで移動させることを特徴とするものである。
[Configuration 3 ]
A control method of a robot apparatus for controlling a robot apparatus having a manipulator that performs a desired operation on an object, the outer shape of the object and the positions of two or more holes in the object are stored, and the manipulator The image of the object is captured once by the imaging means attached to the sensor, and the hole position in the image is estimated by performing pattern matching between the captured image and the external shape and hole position of the stored object. The feature point of the target object is measured, and the center position of the circle calculated by extracting the circle of the feature point is mapped. The distance is calculated from the magnification with the actual dimension for this result, and the geometric positional relationship from calculating the rotation angle, to calculate the rotation about parallel movement and the optical axis between the object and the imaging means from the feature points, and controls the manipulator according to the calculated result, to the desired location It is characterized in that to the dynamic.
〔構成4〕
構成3を有するロボット装置の制御方法において、対象物の画像を撮像するときに、所定の照明状態により対象物を照明することを特徴とするものである。
[Configuration 4 ]
In the control method of the robot apparatus having the
構成1を有するロボット装置においては、制御手段は、構成3を有するロボット装置の制御方法を実施することにより、対象物の外形形状及びこの対象物における2個以上の穴の位置を記憶しており、撮像手段により対象物の画像を一度撮像し、この画像と記憶された対象物の外形形状及び穴位置とのパターンマッチングを行い、画像における穴位置を推定する。
In the robot apparatus having the
したがって、このロボット装置及びロボット装置の制御方法においては、一つの対象物について多数の基準画像を用意する必要がなく、新規の対象物にも容易に対応することができる。また、一度の撮像のみによって計測を行うことができるので、迅速な処理を行うことができる。さらに、長時間を要するパターンマッチングを低精度で打ち切ることができるので、処理の高速化が可能である。 Therefore, in this robot apparatus and the control method of the robot apparatus, it is not necessary to prepare a large number of reference images for one object, and it is possible to easily cope with a new object. In addition, since measurement can be performed by only one imaging, rapid processing can be performed. Furthermore, since pattern matching that requires a long time can be terminated with low accuracy, the processing speed can be increased.
そして、このロボット装置及びロボット装置の制御方法においては、穴位置を精密計測することで対象物の特徴点とし、特徴点の円抽出によって算出した円の中心位置をマッピングして、この結果に対して実際の寸法との倍率より距離を算出し、幾何的な位置関係から回転角を算出し、特徴点より対象物と撮像手段との平行移動及び光軸周りの回転を計算する。 In this robot apparatus and the control method of the robot apparatus, the hole position is precisely measured as a feature point of the object, and the center position of the circle calculated by extracting the circle of the feature point is mapped. Then, the distance is calculated from the magnification with the actual dimension, the rotation angle is calculated from the geometric positional relationship, and the translation between the object and the imaging means and the rotation around the optical axis are calculated from the feature points.
したがって、このロボット装置及びロボット装置の制御方法においては、対象物にあけられているネジ穴や軸穴を特徴点とすることができるため、対象物に特殊なマーカ等を設ける必要がなく、多くの機械部品等に適用可能である。また、穴位置の精密計測は、推定した穴位置に基づいて実施するので、短時間でも精度の高い計測を行うことができる。そして、誤差の出やすい回転2自由度については計測対象にしないため、一つの撮像手段により撮像した画像に基づく計測であっても、必要な精度を確保することができる。 Therefore, in this robot apparatus and the control method of the robot apparatus, a screw hole or a shaft hole formed in the object can be used as a feature point, so there is no need to provide a special marker or the like on the object. It can be applied to other machine parts. Further, since the precise measurement of the hole position is performed based on the estimated hole position, it is possible to perform highly accurate measurement even in a short time. In addition, since the two degrees of freedom of rotation that are likely to cause errors are not measured, even if measurement is based on an image captured by one imaging unit, the required accuracy can be ensured.
構成1を有するロボット装置においては、撮像手段は、マニピュレータに取付けられているので、構成3を有するロボット装置の制御方法を実施することにより、対象物の画像を撮像するときに、マニピュレータの位置に対応した範囲を撮像することができる。
In the robot apparatus having the
構成2を有するロボット装置においては、撮像手段は、照明手段を備えており、構成4を有するロボット装置の制御方法を実施することにより、対象物の画像を撮像するときに、照明手段により対象物を照明するので、不要な輪郭が取り除かれ、常に一定条件での計測が可能になる。
In the robot apparatus having the
すなわち、本発明は、対象物について多数の基準画像を用意する必要がなく、また、撮像手段が取付けられたマニピュレータを移動させながら撮像する必要がなく、撮像手段と対象物との位置関係を迅速に求めることができるロボット装置及びロボット装置の制御方法を提供することができるものである。 That is, according to the present invention, it is not necessary to prepare a large number of reference images for an object, and it is not necessary to take an image while moving a manipulator to which an imaging means is attached, and the positional relationship between the imaging means and the object can be quickly determined. It is possible to provide a robot apparatus and a control method of the robot apparatus that can be obtained.
以下、本発明を実施するための最良の形態について図面を参照して説明する。 The best mode for carrying out the present invention will be described below with reference to the drawings.
〔本発明に係るロボット装置の構成〕
図1は、本発明に係るロボット装置の構成を示す模式的な側面図である。
[Configuration of Robot Device According to the Present Invention]
FIG. 1 is a schematic side view showing a configuration of a robot apparatus according to the present invention.
本発明に係るロボット装置は、図1に示すように、マニピュレータ1を有し、このマニピュレータ1により、対象物101の把持、運搬及び他の部材への組立や加工などの操作が可能となされているものである。
As shown in FIG. 1, the robot apparatus according to the present invention has a
マニピュレータ1は、複数のアクチュエータ(駆動装置)とリンク(剛体の構造物)とによって構成されており、6自由度を有している。すなわち、各リンク間は、回動(屈曲)、または、旋回可能な関節2a,2b,2c,2d,2e,2fを介して接続されており、それぞれアクチュエータによって相対駆動されるようになっている。各アクチュエータは、制御手段となるコンピュータ3によって制御される。
The
このマニピュレータ1において、第1のリンク(基端部のリンク)1aは、基台部4に対し、基端側を第1の関節2aを介して接続されて設置されている。第1の関節2aは、鉛直軸(z軸)回りに旋回可能な関節である。この第1のリンク1aの先端側には、第2の関節2bを介して、第2のリンク1bの基端側が接続されている。第2の関節2bは、水平な軸回りに第2のリンク1bを回動可能とする関節である。第2のリンク1bの先端側には、第3の関節2cを介して、第3のリンク1cの基端側が接続されている。第3の関節2cは、水平な軸回りに第3のリンク1cを回動可能とする関節である。
In the
そして、第3のリンク1cの先端側には、第4の関節2dを介して、第4のリンク1dの基端側が接続されている。第4の関節2dは、第3のリンク1cの軸回りに第4のリンク1dを旋回可能とする関節である。第4のリンク1dの先端側には、第5の関節2eを介して、第5のリンク1eの基端側が接続されている。第5の関節2eは、第4のリンク1dの軸に直交する軸回りに第5のリンク1eを回動可能とする関節である。第5のリンク1eの先端側には、第6の関節2fを介して、第6のリンク1fの基端側が接続されている。第6の関節2fは、第5のリンク1eの軸回りに第6のリンク1fを旋回可能とする関節である。
And the base end side of the
このように、マニピュレータ1においては、回動可能な関節と、旋回可能な関節とが、交互に計6個設けられていることにより、6自由度が確保されている。
As described above, in the
第6のリンク1fの先端側(以下、「手先」という。)には、対象物101を把持したり加工したりする先端ツール機構5が設けられている。この先端ツール機構5は、コンピュータ3や図示しないその他の制御装置によって制御される。
A
図2は、本発明に係るロボット装置のカメラの構成を示す模式的な側面図である。 FIG. 2 is a schematic side view showing the configuration of the camera of the robot apparatus according to the present invention.
また、手先の近傍には、図2に示すように、撮像レンズ及びCCD(固体撮像素子)からなる撮像手段となるカメラ6が取付けられている。また、カメラ6には、光源として、LED照明からなるカメラ照明7が取り付けられている。
Further, as shown in FIG. 2, a
図3は、画像特徴データテーブルに記憶された画像データ及び数値データの例を示す図表である。 FIG. 3 is a chart showing an example of image data and numerical data stored in the image feature data table.
コンピュータ3は、画像特徴データテーブル3aを有している。この画像特徴データテーブル3aには、図3に示すように、複数の対象物101の形状を示す画像データ及び数値データが記憶されている。対象物101には、他の部材への組立てのための軸穴やねじ穴があけられており、記憶されている数値データには、対象物101にあけられた穴の位置及び半径が含まれている。また、コンピュータ3は、画像処理部3bを有しており、カメラ6から送られる画像信号から対象物101の形状を抽出し、この形状と、画像特徴データテーブル3aに記憶された画像データ及び数値データとの照合を行う。そして、コンピュータ3は、動作指令生成部3cを有している。この動作指令生成部3cは、画像処理部3bにおける画像信号と画像特徴データテーブル3a内のデータとの照合結果に応じて、マニピュレータ1の各アクチュエータに対する動作指令信号を生成し、各アクチュエータに送る。
The
そして、マニピュレータ1においては、第1のリンク1aに対する第2のリンク1bの位置、第2のリンク1bに対する第3のリンク1cの位置、第3のリンク1cに対する第4のリンク1dの位置と、順次先端側のリンクの位置が制御されることにより、手先の位置が制御され、この手先において先端ツール機構5によって対象物101に対して所定の操作を実行することができる。
In the
このロボット装置は、作業台上に対象物101が平置きされているものとして動作する。
This robot apparatus operates on the assumption that the
〔本発明に係るロボット装置の制御方法〕
前述のように構成された本発明に係るロボット装置は、以下に説明する本発明に係るロボット装置の制御方法を実行する。
[Control Method of Robot Device According to the Present Invention]
The robot apparatus according to the present invention configured as described above executes the robot apparatus control method according to the present invention described below.
すなわち、このロボット装置は、マニピュレータ1の手先の近傍に取付けられたカメラ6を対象物101が置かれている作業台と、カメラ6の画像面が平行となるように移動させ、このカメラ6によって対象物101を撮像する。そして、画像処理部3bにより、対象物101における穴位置の推定した後、高精度計測を実施して、対象物101の位置を計測する。この計測結果に基づいて、対象物101に向けて先端ツール機構5を移動させ、対象物101に対して所定の操作を実行する。以下に、これらの動作について詳述する。
That is, this robot apparatus moves the
〔1〕画像計測アルゴリズムの概要
本発明に係るロボット装置の制御方法においては、対象物101をカメラ6により撮像し、撮像された画像を用いた計測により、位置姿勢計測を行う。計測する位置姿勢は、並進3自由度と、Z軸(鉛直軸)周りの回転で、計4自由度である。この計測は、以下の手順で行う。
[1] Outline of Image Measurement Algorithm In the control method of the robot apparatus according to the present invention, the
図4は、本発明に係るロボット装置の制御方法の手順を示すフローチャートである。 FIG. 4 is a flowchart showing the procedure of the control method of the robot apparatus according to the present invention.
本発明に係るロボット装置の制御方法における計測アルゴリズムは、図4に示すように、粗探索、円抽出、位置姿勢計算の3段階に分かれている。 As shown in FIG. 4, the measurement algorithm in the robot apparatus control method according to the present invention is divided into three stages: rough search, circle extraction, and position and orientation calculation.
すなわち、S1で計測を開始すると、S2に進み、粗探索として、撮像された画像と画像特徴データテーブル3aに記憶された画像データとの形状べースパターンマッチングを行う。この形状べースパターンマッチングにより、対象物101の大まかな位置を推定する。この処理によって、軸穴やねじ穴の中心位置や半径を見積もることができる。
That is, when measurement is started in S1, the process proceeds to S2, and shape-based pattern matching between the captured image and the image data stored in the image feature data table 3a is performed as a rough search. A rough position of the
次に、S3からS7の円抽出では、粗探索で見積もった穴位置に基づいて、探索範囲を絞り込み、エッジ抽出と円フィッティングにより、穴の中心位置を計算する。 Next, in the circle extraction from S3 to S7, the search range is narrowed down based on the hole position estimated by the rough search, and the center position of the hole is calculated by edge extraction and circle fitting.
そして、S8の位置姿勢計算では、算出された穴の位置関係より、対象物101の位置姿勢を計算する。
In the position / orientation calculation in S8, the position / orientation of the
〔2〕粗探索
図4のS2の粗探索では、抽出すべきねじ穴、軸穴の位置を見積もるために、形状べースパターンマッチングを行う。この粗探索における探索手法としては、形状ベースパターンマッチングの他にも、2値化による探索が考えられるが、照明や背景などの条件変化に対してロバストであり、テンプレートを変更するだけで他の対象物にも適用可能であることから、形状ベースパターンマッチングが好ましい。なお、計測時間は2値化のほうが短いが、形状ベースパターンマッチングにおいても、計測時間の長さは許容範囲内である。
[2] Coarse search In the coarse search of S2 in FIG. 4, shape base pattern matching is performed in order to estimate the positions of screw holes and shaft holes to be extracted. As a search method in this rough search, a search based on binarization can be considered in addition to shape-based pattern matching. However, it is robust against changes in conditions such as illumination and background. Shape-based pattern matching is preferable because it can be applied to an object. In addition, although the measurement time is shorter in the binarization, the length of the measurement time is within an allowable range even in shape-based pattern matching.
この粗探索は、対象物101における穴位置及び半径を見積もるためのもので、精度はそれほど必要ではない。そのため、粗いレベルのみで探索することで、計算時間を節約することができる。
This rough search is for estimating the hole position and radius in the
〔3〕円抽出
並進3自由度と鉛直軸周り回転の計4自由度を位置姿勢計算するには少なくとも2個の特徴点が必要である。また、より多くの特徴点を使用することで計測精度を向上させることが可能である。たとえば、対象物101には図3に示すように3個の穴があけられており、これらを位置姿勢計算のための特徴点とするために円抽出を行う。この円抽出では、図4のS3に示すように、これらの穴を順に選択し、円フィッティングにより抽出する。
[3] Circle Extraction At least two feature points are required to calculate the position and orientation of 3 degrees of freedom of translation and 4 degrees of freedom of rotation around the vertical axis. Moreover, it is possible to improve measurement accuracy by using more feature points. For example, the
S4では、実際の寸法とマッチング結果より、画像上での穴位置及び穴径を推定する。S5で、この推定値をもとに領域を絞り込み、S6で、円フィッティングを行って円抽出を行う。この円抽出にあたっては、S7で、他に抽出すべき円があるかを判別し、他に抽出すべき円がある場合にはS3に戻る。対象物にあけられた3個の穴を全て抽出した段階で、次の位置姿勢計算(S8)に進む。 In S4, the hole position and hole diameter on the image are estimated from the actual dimensions and the matching result. In S5, the region is narrowed down based on the estimated value, and in S6, circle fitting is performed to extract a circle. In this circle extraction, it is determined in S7 whether there are other circles to be extracted, and if there are other circles to be extracted, the process returns to S3. When all three holes formed in the object are extracted, the process proceeds to the next position / orientation calculation (S8).
〔4〕位置姿勢計算
S8では、位置姿勢計算を行う。この計測アルゴリズムでは、画像面と計測面が平行であると仮定して位置姿勢計算を行っている。まず、円抽出によって算出した円の中心位置をカメラ6から距離1mの平面にマッピングする。この結果に対して実際の寸法との倍率より距離を算出し、幾何的な位置関係から回転角を算出する。
[4] Position / orientation calculation In S8, position / orientation calculation is performed. In this measurement algorithm, the position and orientation calculation is performed on the assumption that the image plane and the measurement plane are parallel. First, the center position of the circle calculated by the circle extraction is mapped to a plane having a distance of 1 m from the
通常、位置姿勢計算には多くの特徴点を必要とするが、画像面と計測面が平行となるように撮像することによって、少ない特徴点からでも十分な精度での位置姿勢計算が可能となるようにしている。 Normally, many feature points are required for position and orientation calculations, but by capturing images so that the image plane and measurement plane are parallel, position and orientation calculations can be performed with sufficient accuracy even from a small number of feature points. I am doing so.
1 マニピュレータ
1a 第1のリンク
1b 第2のリンク
1c 第3のリンク
1d 第4のリンク
1e 第5のリンク
1f 第6のリンク
2a 第1の関節
2b 第2の関節
2c 第3の関節
2d 第4の関節
2e 第5の関節
2f 第6の関節
3 コンピュータ
5 先端ツール機構
6 カメラ
101 対象物
DESCRIPTION OF
Claims (4)
前記対象物を含む領域の撮像を行う撮像手段と、
前記撮像手段により得られた画像に基づく演算を行うとともに、この演算結果に応じて前記マニピュレータを制御する制御手段と
を備え、
前記撮像手段は、前記マニピュレータに取付けられており、
前記制御手段は、前記対象物の外形形状及びこの対象物における2個以上の穴の位置を記憶しており、前記撮像手段により前記対象物の画像を一度撮像し、この画像と記憶された前記対象物の外形形状及び穴位置とのパターンマッチングを行い、前記画像における穴位置を推定し、穴位置を精密計測することで前記対象物の特徴点とし、前記特徴点の円抽出によって算出した円の中心位置をマッピングして、この結果に対して実際の寸法との倍率より距離を算出し、幾何的な位置関係から回転角を算出し、前記特徴点より前記対象物と前記撮像手段との平行移動及び光軸周りの回転を計算し、この計算結果に応じて前記マニピュレータを制御して、目的の位置まで移動させる
ことを特徴とするロボット装置。 In a robot apparatus having a manipulator that performs a desired operation on an object,
Imaging means for imaging a region including the object;
And performing a calculation based on the image obtained by the imaging means, and a control means for controlling the manipulator according to the calculation result,
The imaging means is attached to the manipulator,
The control means stores the outer shape of the object and the positions of two or more holes in the object, and once captures an image of the object by the imaging means, the image stored as the image Performing pattern matching with the outer shape and hole position of the object, estimating the hole position in the image, and accurately measuring the hole position as a feature point of the object, and a circle calculated by extracting the circle of the feature point The center position is mapped, the distance is calculated from the magnification with the actual dimension for this result, the rotation angle is calculated from the geometric positional relationship , and the object and the imaging means are calculated from the feature points. A robot apparatus which calculates parallel movement and rotation around an optical axis, and controls the manipulator according to the calculation result to move it to a target position.
ことを特徴とする請求項1記載のロボット装置。 The imaging means comprises illumination means, when capturing an image of the object, by said illumination means, the robot apparatus according to claim 1, wherein the illuminating the object.
前記対象物の外形形状及びこの対象物における2個以上の穴の位置を記憶しておき、
前記マニピュレータに取付けた撮像手段により前記対象物の画像を一度撮像し、
撮像された画像と記憶された前記対象物の外形形状及び穴位置とのパターンマッチングを行って前記画像における穴位置を推定し、
穴位置を精密計測することで前記対象物の特徴点とし、前記特徴点の円抽出によって算出した円の中心位置をマッピングして、この結果に対して実際の寸法との倍率より距離を算出し、幾何的な位置関係から回転角を算出し、前記特徴点より前記対象物と前記撮像手段との平行移動及び光軸周りの回転を計算し、
前記計算結果に応じて前記マニピュレータを制御して、目的の位置まで移動させる
ことを特徴とするロボット装置の制御方法。 A control method of a robot apparatus for controlling a robot apparatus having a manipulator that performs a desired operation on an object,
Store the outer shape of the object and the positions of two or more holes in the object;
Taking an image of the object once by imaging means attached to the manipulator ,
Performing pattern matching between the captured image and the stored outer shape and hole position of the object to estimate the hole position in the image,
The hole position is accurately measured as the feature point of the object, the center position of the circle calculated by extracting the circle of the feature point is mapped, and the distance is calculated from the magnification with the actual dimension for this result. Calculating the rotation angle from the geometric positional relationship, calculating the translation and rotation around the optical axis of the object and the imaging means from the feature points,
A control method of a robot apparatus, wherein the manipulator is controlled according to the calculation result and moved to a target position.
ことを特徴とする請求項3記載のロボット装置の制御方法。 The method for controlling a robotic device according to claim 3, wherein when the image of the object is captured, the object is illuminated in a predetermined illumination state.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008069510A JP5088186B2 (en) | 2008-03-18 | 2008-03-18 | Robot apparatus and control method of robot apparatus |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008069510A JP5088186B2 (en) | 2008-03-18 | 2008-03-18 | Robot apparatus and control method of robot apparatus |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009220247A JP2009220247A (en) | 2009-10-01 |
JP5088186B2 true JP5088186B2 (en) | 2012-12-05 |
Family
ID=41237596
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008069510A Active JP5088186B2 (en) | 2008-03-18 | 2008-03-18 | Robot apparatus and control method of robot apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5088186B2 (en) |
Families Citing this family (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012098430A1 (en) * | 2011-01-19 | 2012-07-26 | Vistek Isra Vision Yapay Gorme Ve Otomasyon Sanayi Ve Ticaret Anonim Sirketi | A transparent object positioning system |
JP6336742B2 (en) * | 2013-11-29 | 2018-06-06 | 公益財団法人鉄道総合技術研究所 | Method to detect the installation object from the concrete surface image |
JP6308423B2 (en) * | 2014-02-26 | 2018-04-11 | 株式会社Ihi | Holding method and holding device |
JP6628994B2 (en) * | 2015-07-03 | 2020-01-15 | 三菱重工業株式会社 | Structure |
JP6044681B1 (en) * | 2015-07-14 | 2016-12-14 | 株式会社リコー | Illumination device, image acquisition system, and illumination control method |
JP2015214022A (en) * | 2015-09-02 | 2015-12-03 | セイコーエプソン株式会社 | robot |
WO2023233613A1 (en) * | 2022-06-02 | 2023-12-07 | 株式会社ニコン | Measurement system, processing system, measurement method, and processing method |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS60123974A (en) * | 1983-12-09 | 1985-07-02 | Hitachi Ltd | Multistage visual field recognizing system |
JP2680298B2 (en) * | 1986-02-19 | 1997-11-19 | 神鋼電機 株式会社 | Position correction method for robot equipped with automatic guided vehicle |
JPH07112383A (en) * | 1993-08-23 | 1995-05-02 | Mazda Motor Corp | Position recognizing method for article, transfer control method for article and transfer control device for article |
JPH1166321A (en) * | 1997-08-13 | 1999-03-09 | Ntn Corp | Method for detecting work position |
JP2000263482A (en) * | 1999-03-17 | 2000-09-26 | Denso Corp | Attitude searching method and attitude searching device of work, and work grasping method and work grasping device by robot |
JP2003231078A (en) * | 2002-02-14 | 2003-08-19 | Denso Wave Inc | Position control method for robot arm and robot device |
JP3930490B2 (en) * | 2004-04-23 | 2007-06-13 | ファナック株式会社 | Article take-out device |
-
2008
- 2008-03-18 JP JP2008069510A patent/JP5088186B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2009220247A (en) | 2009-10-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5088186B2 (en) | Robot apparatus and control method of robot apparatus | |
JP6490037B2 (en) | Robot system comprising a robot supported by a movable carriage | |
US10551821B2 (en) | Robot, robot control apparatus and robot system | |
JP6429473B2 (en) | Robot system, robot system calibration method, program, and computer-readable recording medium | |
JP5561260B2 (en) | Robot system and imaging method | |
JP6855492B2 (en) | Robot system, robot system control device, and robot system control method | |
JP5292998B2 (en) | Robot apparatus control method and robot apparatus | |
JP5272617B2 (en) | Robot apparatus and control method of robot apparatus | |
JP6489776B2 (en) | Coordinate system calibration method, robot system, program, and recording medium | |
KR102091917B1 (en) | Gear mechanism assembly and assembly method | |
JP3754402B2 (en) | Industrial robot control method and control apparatus | |
JP6869159B2 (en) | Robot system | |
JP6855491B2 (en) | Robot system, robot system control device, and robot system control method | |
JP2019049467A (en) | Distance measurement system and distance measurement method | |
JP2017100202A (en) | Robot system, control device, control method, and program | |
JP2018094653A (en) | Control device, robot, and robot system | |
JP6621351B2 (en) | Image processing apparatus and image processing method for laser processing | |
JP7502003B2 (en) | Apparatus and method for acquiring deviation of moving trajectory of moving machine | |
JP2008168372A (en) | Robot device and shape recognition method | |
JP2006297559A (en) | Calibration system and robot's calibration method | |
JP2013173191A (en) | Robot apparatus, robot control apparatus, robot control method, and robot control program | |
JP6565367B2 (en) | Position correction system | |
CN113733078B (en) | Method for interpreting fine control quantity of mechanical arm and computer-readable storage medium | |
CN115397634A (en) | Device for acquiring position of visual sensor in robot control coordinate system, robot system, method, and computer program | |
JP2010214546A (en) | Device and method for assembling |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110126 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110801 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120410 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120611 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120814 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120827 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150921 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 5088186 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150921 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |