JP2021010994A - Sensor position attitude calibration apparatus and sensor position attitude calibration method - Google Patents

Sensor position attitude calibration apparatus and sensor position attitude calibration method Download PDF

Info

Publication number
JP2021010994A
JP2021010994A JP2019127572A JP2019127572A JP2021010994A JP 2021010994 A JP2021010994 A JP 2021010994A JP 2019127572 A JP2019127572 A JP 2019127572A JP 2019127572 A JP2019127572 A JP 2019127572A JP 2021010994 A JP2021010994 A JP 2021010994A
Authority
JP
Japan
Prior art keywords
sensor
posture
information
sensor data
moving body
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019127572A
Other languages
Japanese (ja)
Other versions
JP7249221B2 (en
Inventor
亮祐 三木
Ryosuke MIKI
亮祐 三木
誠也 伊藤
Seiya Ito
誠也 伊藤
聡 笹谷
So Sasatani
聡 笹谷
良輔 藪
Ryosuke Yabu
良輔 藪
英男 高橋
Hideo Takahashi
英男 高橋
大輝 阿部
Daiki Abe
大輝 阿部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2019127572A priority Critical patent/JP7249221B2/en
Publication of JP2021010994A publication Critical patent/JP2021010994A/en
Application granted granted Critical
Publication of JP7249221B2 publication Critical patent/JP7249221B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

To provide an apparatus capable of detecting the degradation of the accuracy of attitude determination when converting a coordinate system configured at an arbitrary point of a sensor to a coordinate system of a mobile object.SOLUTION: An apparatus includes: a relative position attitude parameter acquisition unit for acquiring a relative position attitude between a mobile object and a sensor; a geometry information acquisition unit for acquiring geometry information of the mobile object; a virtual sensor data generation unit for generating virtual sensor data that is obtained by virtually reproducing data acquired by the sensor on the basis of the information acquired by the parameter acquisition unit and the geometry acquisition unit; a sensing unit for outputting sensor data acquired by the sensor; and a matching unit for comparing the virtual sensor data with the sensor data and determines whether or not any difference exists.SELECTED DRAWING: Figure 1

Description

本発明は、センサ位置姿勢キャリブレーション装置及びセンサ位置姿勢キャリブレーション方法に関する。 The present invention relates to a sensor position / orientation calibration device and a sensor position / orientation calibration method.

近年、労働人口の減少によって、人作業の代替や自動化へのニーズが高まっている。これらのニーズに適合する機器として、ロボットなどの移動体と、それらの移動体に取り付けられたセンサ(例えば、カメラ)を組み合わせて様々なタスクに取り組む機器がある。ロボットを例にとると、物流倉庫にてピッキング作業を自動化する産業用ロボットアームが挙げられる。 In recent years, due to the decrease in the working population, there is an increasing need for alternatives and automation of human work. As a device that meets these needs, there is a device that works on various tasks by combining a moving body such as a robot and a sensor (for example, a camera) attached to the moving body. Taking a robot as an example, there is an industrial robot arm that automates picking work in a distribution warehouse.

産業用ロボットアームでは、ロボットに取り付けられたセンサによってピッキング対象物の位置を認識し、認識した位置にロボットアームを移動させることで、ピッキング作業を実現している。このとき、ピッキング対象物の位置は、カメラで認識したカメラ座標系上の位置と、ロボットアームの移動先であるロボットアーム座標系上の位置との2つの表現が混在している。 In an industrial robot arm, a picking operation is realized by recognizing the position of a picking object by a sensor attached to the robot and moving the robot arm to the recognized position. At this time, the position of the picking object is a mixture of two expressions, that is, the position on the camera coordinate system recognized by the camera and the position on the robot arm coordinate system to which the robot arm is moved.

ロボットアームが正しくピッキング作業を実現するには、カメラ座標系とロボットアーム座標系の相対位置姿勢を表す変換パラメータ(以下、相対位置姿勢パラメータと称する)を用いて、双方の座標系における表現の位置に変換する必要がある。移動体とセンサの相対位置を推定する技術は、様々な分野で活用されている。例えば先に例を記載した、産業分野で活用されるピッキング用ロボットや、自動運転・運転者支援を目的にセンサを搭載した自動車などが挙げられる。 In order for the robot arm to correctly perform picking work, the position of the expression in both coordinate systems is used by using a conversion parameter (hereinafter referred to as the relative position / orientation parameter) that represents the relative position / orientation of the camera coordinate system and the robot arm coordinate system. Need to be converted to. Technology for estimating the relative position of a moving object and a sensor is used in various fields. For example, the picking robots used in the industrial field and the automobiles equipped with sensors for the purpose of autonomous driving and driver support, which are described above, can be mentioned.

相対位置を推定する一般的な手法としては、例えば、ロボットとセンサの設定データから算出する手法がある。あるいは、予め形状やアピアランス情報が既知な撮影対象物(例えばチェッカーパターンを印刷した板)を、ロボットアームに取り付けられたカメラで様々な姿勢で撮影し、撮影された複数の画像と、ロボットアームのモータの指令値などにより計算されたロボットの位置、姿勢から推定する方法がある。これらの相対位置を推定する手法をキャリブレーションと総称する。 As a general method for estimating the relative position, for example, there is a method for calculating from the setting data of the robot and the sensor. Alternatively, a shooting object whose shape and appearance information is known in advance (for example, a board on which a checker pattern is printed) is shot in various postures with a camera attached to the robot arm, and a plurality of shot images and the robot arm There is a method of estimating from the position and orientation of the robot calculated from the command value of the motor. The method of estimating these relative positions is collectively called calibration.

従来のキャリブレーションでは、移動体の形状の歪みやたわみなどの影響により、移動体の位置、姿勢の算出精度が悪い場合には、キャリブレーションに失敗、もしくは相対位置姿勢パラメータの推定精度の低下を招くことがある。これらの精度低下を招く要因は検出することが困難なため、対策に多くの時間を要するという問題がある。
そこで、移動体の位置精度の低下に伴うキャリブレーション結果の精度低下を検知、修正する技術が求められる。
In the conventional calibration, if the calculation accuracy of the position and posture of the moving body is poor due to the influence of distortion or deflection of the shape of the moving body, the calibration fails or the estimation accuracy of the relative position / posture parameter is lowered. May be invited. Since it is difficult to detect these factors that cause a decrease in accuracy, there is a problem that it takes a lot of time to take countermeasures.
Therefore, there is a need for a technique for detecting and correcting a decrease in the accuracy of the calibration result due to a decrease in the position accuracy of the moving body.

特許文献1には、移動先である目標物の位置を検出するセンサと、ロボットアームの手先部の位置を検出するセンサを用いて、手先部と目標物との誤差を計測することで目標物へ手先部を移動させる技術が記載されている。 Patent Document 1 describes a target object by measuring an error between the hand portion and the target object by using a sensor that detects the position of the target object that is the movement destination and a sensor that detects the position of the hand portion of the robot arm. The technique of moving the hand part to is described.

特開2016−52699号公報Japanese Unexamined Patent Publication No. 2016-52699

特許文献1に記載の技術では、ロボットアームと目標物の位置を検出するセンサを新たに導入する必要があり、構成が複雑化するという問題がある。また、特許文献1に記載の技術では、手先部と目標物の位置の誤差を計測しながら、ロボットの位置をフィードバック方式による制御で移動させるようにしているが、ロボットアームの位置、姿勢の設定精度が一様ではなく、動的に変化する場合に対応できないという問題がある。
このように、従来のキャリブレーションでは、キャリブレーション結果の精度が適切でない場合が多々あるが、精度の低下を検出することは困難であった。
In the technique described in Patent Document 1, it is necessary to newly introduce a sensor that detects the position of the robot arm and the target object, and there is a problem that the configuration becomes complicated. Further, in the technique described in Patent Document 1, the position of the robot is moved by the control by the feedback method while measuring the error between the position of the hand and the target, but the position and posture of the robot arm are set. There is a problem that the accuracy is not uniform and cannot be dealt with when it changes dynamically.
As described above, in the conventional calibration, the accuracy of the calibration result is often not appropriate, but it is difficult to detect the decrease in accuracy.

本発明は、移動体の位置、姿勢の決定精度の低下を検出可能なセンサ位置姿勢キャリブレーション装置及びセンサ位置姿勢キャリブレーション方法を提供することを目的とする。 An object of the present invention is to provide a sensor position / orientation calibration device and a sensor position / orientation calibration method capable of detecting a decrease in accuracy in determining the position and orientation of a moving body.

上記課題を解決するために、例えば特許請求の範囲に記載の構成を採用する。
本願は、上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、センサの任意の点に設定された座標系を、移動体の座標系に変換するセンサ位置姿勢キャリブレーション装置であって、移動体とセンサの相対位置姿勢を取得する相対位置姿勢パラメータ取得部と、移動体の形状情報を取得する形状情報取得部と、パラメータ取得部と形状取得部が取得する情報に基づいて、センサで取得するデータを仮想的に再現した仮想センサデータを生成する仮想センサデータ生成部と、センサによって取得されたセンサデータを出力するセンシング部と、仮想センサデータとセンサデータを比較して差異の有無を判定するマッチング部と、を備える。
In order to solve the above problems, for example, the configuration described in the claims is adopted.
The present application includes a plurality of means for solving the above problems, and to give an example thereof, a sensor position / orientation calibration device that converts a coordinate system set at an arbitrary point of a sensor into a moving body coordinate system. Based on the relative position / orientation parameter acquisition unit that acquires the relative position / orientation of the moving body and the sensor, the shape information acquisition unit that acquires the shape information of the moving body, and the information acquired by the parameter acquisition unit and the shape acquisition unit. Then, the virtual sensor data generator that generates virtual sensor data that virtually reproduces the data acquired by the sensor, the sensing unit that outputs the sensor data acquired by the sensor, and the virtual sensor data and the sensor data are compared. A matching unit for determining the presence or absence of a difference is provided.

本発明によれば、移動体の位置、姿勢の決定精度の低下を検出することが可能になる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
According to the present invention, it is possible to detect a decrease in the accuracy of determining the position and posture of a moving body.
Issues, configurations and effects other than those described above will be clarified by the following description of the embodiments.

本発明の第1の実施の形態例によるロボットアームの構成、及びロボットアームでの相対位置姿勢パラメータを説明するための図である。It is a figure for demonstrating the structure of the robot arm according to the 1st Embodiment of this invention, and the relative position-posture parameter in a robot arm. 本発明の第1の実施の形態例によるセンサ位置姿勢キャリブレーション装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the sensor position | posture calibration apparatus according to 1st Embodiment of this invention. 本発明の第1の実施の形態例によるセンサ位置姿勢キャリブレーション装置のハードウェアの例を示すブロック図である。It is a block diagram which shows the example of the hardware of the sensor position-posture calibration apparatus according to the 1st Embodiment example of this invention. 本発明の第1の実施の形態例による形状情報の例を示す図である。It is a figure which shows the example of the shape information by the 1st Embodiment example of this invention. 本発明の第1の実施の形態例による仮想センサデータ生成部の構成図である。It is a block diagram of the virtual sensor data generation part by the 1st Embodiment example of this invention. 本発明の第1の実施の形態例による移動体形状シミュレート部の処理例を示すフローチャートである。It is a flowchart which shows the processing example of the moving body shape simulation part by the 1st Embodiment of this invention. 本発明の第1の実施の形態例による移動体姿勢形状情報の生成手順の例を説明するための図である。It is a figure for demonstrating the example of the procedure for generating the moving body posture shape information by the example of 1st Embodiment of this invention. 本発明の第1の実施の形態例によるセンサ視点生成部の処理例を示すフローチャートである。It is a flowchart which shows the processing example of the sensor viewpoint generation part by the 1st Embodiment example of this invention. 本発明の第1の実施の形態例によるセンサ視点形状情報の例を示す図である。It is a figure which shows the example of the sensor viewpoint shape information by the 1st Embodiment example of this invention. 本発明の第1の実施の形態例による生成部が仮想センサデータを画像として生成する例を示す図である。It is a figure which shows the example which the generation part by the 1st Embodiment of this invention generates virtual sensor data as an image. 本発明の第1の実施の形態例による生成部が仮想センサデータを座標として生成する例を示す図である。It is a figure which shows the example which the generation part by the 1st Embodiment of this invention generates virtual sensor data as coordinates. 本発明の第2の実施の形態例によるセンサ位置姿勢キャリブレーション装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of the sensor position attitude calibration apparatus according to the 2nd Embodiment of this invention. 本発明の第2の実施の形態例によるマッチング結果評価部の処理例を示すフローチャートである。It is a flowchart which shows the processing example of the matching result evaluation part by the 2nd Embodiment example of this invention. 本発明の第2の実施の形態例によるマッチング結果評価部を説明するための図である。It is a figure for demonstrating the matching result evaluation part by the 2nd Embodiment of this invention. 本発明の第2の実施の形態例によるマッチング結果評価部を説明するための図である。It is a figure for demonstrating the matching result evaluation part by the 2nd Embodiment of this invention. 本発明の第2の実施の形態例によるマッチング結果評価部を用いた評価方法を説明するための図である。It is a figure for demonstrating the evaluation method using the matching result evaluation part by the 2nd Embodiment of this invention. 本発明の第2の実施の形態例によるマッチング結果評価部が記録するデータの例を示す図である。It is a figure which shows the example of the data recorded by the matching result evaluation part by the example of the 2nd Embodiment of this invention. 本発明の第2の実施の形態例によるマッチング結果評価部が記録するデータの例を示す図である。It is a figure which shows the example of the data recorded by the matching result evaluation part by the example of the 2nd Embodiment of this invention.

<1.第1の実施の形態例>
以下、本発明の第1の実施の形態例を、図1〜図11を参照して説明する。
[1−1.ロボットアームの構成]
まず、図1を参照して、本発明の第1の実施の形態例によるセンサ位置姿勢キャリブレーション装置1の適用例であるロボットアーム100の構成について説明する。本実施の形態例ではロボットアームに適用した例を説明するが、本実施の形態例のセンサ位置姿勢キャリブレーション装置1は、双腕ロボットや自動車など、位置姿勢情報を取得可能な移動体であれば、様々なものに適用が可能である。
<1. Example of the first embodiment>
Hereinafter, examples of the first embodiment of the present invention will be described with reference to FIGS. 1 to 11.
[1-1. Robot arm configuration]
First, with reference to FIG. 1, the configuration of the robot arm 100, which is an application example of the sensor position / orientation calibration device 1 according to the first embodiment of the present invention, will be described. An example applied to the robot arm will be described in the example of the present embodiment, but the sensor position / posture calibration device 1 of the example of the present embodiment may be a moving body capable of acquiring position / posture information such as a dual-arm robot or an automobile. For example, it can be applied to various things.

ロボットアーム100は、ベース111、ジョイント112a,112b,112c、リンク113a,113b、アーム114、及びハンド115を備える。
ベース111には、ジョイント112aを介してリンク113aの一端が接続され、リンク113aの他端には、ジョイント112bを介してリンク113bの一端が接続される。また、リンク113bの他端には、ジョイント112cを介してアーム114の一端が接続され、アーム114の先端にはハンド115が取り付けられる。各ジョイント112a,112b,112cは、接続されたリンク113a,113bまたはアーム114の角度を自在に調整でき、先端のハンド115が可動範囲内の任意の位置に移動できる。
ハンド115は、エンドエフェクタと称され、物体を挟み込む機構を有する。但し、ハンド115として、図1に示すような物体を挟み込む機構とするのは一例であり、例えば吸盤状の部品を用いて空気圧によりものを吸着する機構でもよい。あるいは、ロボットアーム100として、エンドエフェクタを備えないものでもよい。
The robot arm 100 includes a base 111, joints 112a, 112b, 112c, links 113a, 113b, arms 114, and a hand 115.
One end of the link 113a is connected to the base 111 via the joint 112a, and one end of the link 113b is connected to the other end of the link 113a via the joint 112b. Further, one end of the arm 114 is connected to the other end of the link 113b via a joint 112c, and a hand 115 is attached to the tip of the arm 114. The joints 112a, 112b, 112c can freely adjust the angle of the connected links 113a, 113b or arm 114, and the hand 115 at the tip can move to an arbitrary position within the movable range.
The hand 115 is called an end effector and has a mechanism for sandwiching an object. However, as the hand 115, a mechanism for sandwiching an object as shown in FIG. 1 is an example, and for example, a mechanism for sucking an object by air pressure using a suction cup-shaped part may be used. Alternatively, the robot arm 100 may not be provided with an end effector.

ここで、アーム114には、画像を取得するセンサであるカメラ22が取り付けられ、カメラ22がハンド115の近傍を撮像して、センサ出力としてのカメラ画像を出力する。図1では、アーム114上のカメラ22とハンド115の周辺の範囲A1を、拡大範囲A2として詳細に示す。
図1の拡大範囲A2に示すように、ハンド115は、点115aを原点(ハンド座標系原点)としたハンド座標系115bを持つ。ハンド座標系115bは、x軸、y軸、z軸の3軸で示される。ロボットアーム100のハンド115が物体を掴む等の動作は、このハンド座標系115bを基準にして行われる。
Here, a camera 22 which is a sensor for acquiring an image is attached to the arm 114, and the camera 22 images the vicinity of the hand 115 and outputs a camera image as a sensor output. In FIG. 1, the range A1 around the camera 22 and the hand 115 on the arm 114 is shown in detail as an enlarged range A2.
As shown in the enlarged range A2 of FIG. 1, the hand 115 has a hand coordinate system 115b with the point 115a as the origin (the origin of the hand coordinate system). The hand coordinate system 115b is represented by three axes of x-axis, y-axis, and z-axis. Operations such as the hand 115 of the robot arm 100 grasping an object are performed with reference to the hand coordinate system 115b.

一方、カメラ22は、点22aを原点(カメラ座標系原点)としたカメラ座標系(センサ座標系)22bを持つ。カメラ座標系22bも、x軸、y軸、z軸の3軸で示される。カメラ座標系22bのz軸は、カメラ22に装着されたレンズの光軸と一致させてある。
なお、図1ではハンド座標原点115aは、ハンド115の頂点に設定されているが、ロボットアーム100の移動に連動して動く点をハンド座標原点115aにとれば、ハンド座標系115bは任意に設定することができる。また、カメラ座標原点22aも、図1ではカメラ22の光学中心に設定した例を示しているが、カメラ22との相対位置姿勢が不変な点であれば、カメラ座標原点22aは任意に設定可能である。
On the other hand, the camera 22 has a camera coordinate system (sensor coordinate system) 22b with the point 22a as the origin (camera coordinate system origin). The camera coordinate system 22b is also indicated by three axes of x-axis, y-axis, and z-axis. The z-axis of the camera coordinate system 22b is aligned with the optical axis of the lens mounted on the camera 22.
In FIG. 1, the hand coordinate origin 115a is set at the apex of the hand 115, but if the point that moves in conjunction with the movement of the robot arm 100 is set to the hand coordinate origin 115a, the hand coordinate system 115b is arbitrarily set. can do. Further, although the camera coordinate origin 22a is also set at the optical center of the camera 22 in FIG. 1, the camera coordinate origin 22a can be arbitrarily set as long as the relative position / orientation with the camera 22 is unchanged. Is.

カメラ座標系22bは、相対位置姿勢パラメータ情報2aによって、ハンド座標系115bに変換することができる。本実施の形態例のセンサ位置姿勢キャリブレーション装置1は、この相対位置姿勢パラメータ情報2aを持つ。 The camera coordinate system 22b can be converted into the hand coordinate system 115b by the relative position / orientation parameter information 2a. The sensor position / orientation calibration device 1 of the embodiment of the present embodiment has this relative position / orientation parameter information 2a.

[1−2.センサ位置姿勢キャリブレーション装置の構成]
図2は、本発明の第1の実施の形態例のセンサ位置姿勢キャリブレーション装置1の構成例を示す。
センサ位置姿勢キャリブレーション装置1は、センサにより取得されるデータを仮想的に生成し、それを実際にセンサから取得されるデータと比較することで移動体の位置、姿勢の決定精度の低下を検出するものである。本実施の形態例では、後述する図3に示すロボットアーム100を移動体とし、そのロボットアーム100に取り付けたカメラ22をセンサとしている。
[1-2. Configuration of sensor position / orientation calibration device]
FIG. 2 shows a configuration example of the sensor position / orientation calibration device 1 of the first embodiment of the present invention.
The sensor position / orientation calibration device 1 virtually generates data acquired by the sensor and compares it with the data actually acquired from the sensor to detect a decrease in the accuracy of determining the position and orientation of the moving body. To do. In the example of the present embodiment, the robot arm 100 shown in FIG. 3 described later is used as a moving body, and the camera 22 attached to the robot arm 100 is used as a sensor.

センサ位置姿勢キャリブレーション装置1は、相対位置姿勢パラメータ取得部2、形状情報取得部3、仮想センサデータ生成部4、センシング部5、及びマッチング部6を備える。
相対位置姿勢パラメータ取得部2は、ロボットアーム100の位置、姿勢を表現可能なハンド座標系115bと、カメラ22の位置、姿勢を表現可能なカメラ座標系22bの取得処理を行う(相対位置姿勢パラメータ取得処理)。この相対位置姿勢パラメータ取得処理で得られるパラメータが、図1に示す相対位置姿勢パラメータ情報2aである。
The sensor position / orientation calibration device 1 includes a relative position / attitude parameter acquisition unit 2, a shape information acquisition unit 3, a virtual sensor data generation unit 4, a sensing unit 5, and a matching unit 6.
The relative position / posture parameter acquisition unit 2 acquires a hand coordinate system 115b capable of expressing the position and posture of the robot arm 100 and a camera coordinate system 22b capable of expressing the position and posture of the camera 22 (relative position / posture parameter). Acquisition process). The parameter obtained by this relative position / attitude parameter acquisition process is the relative position / attitude parameter information 2a shown in FIG.

形状情報取得部3は、3次元センサやカメラなどで計測した移動体の形状情報、アピアランス情報やCAD(Computer Aided Design)などの一般的な3次元モデル生成ツールで作成した移動体の形状情報を取得する(形状情報取得処理)。
仮想センサデータ生成部4は、ロボットアーム100とカメラ22の相対位置姿勢パラメータ情報2aと、ロボットアーム100の形状情報を受け取り、ロボットアーム100の位置姿勢情報を用いて、カメラ22の撮影画像を、ハンド座標系115bの画像に変換する。仮想センサデータ生成部4は、変換されたハンド座標系115bの画像を、仮想センサデータとして出力する(仮想センサデータ生成処理)。仮想センサデータ生成部4がカメラ22の撮影画像からハンド座標系115bの画像を生成する際には、例えば一般的な透視投影手法が利用される。
The shape information acquisition unit 3 obtains the shape information of the moving body measured by a 3D sensor or a camera, the appearance information, and the shape information of the moving body created by a general 3D model generation tool such as CAD (Computer Aided Design). Acquire (shape information acquisition process).
The virtual sensor data generation unit 4 receives the relative position / orientation parameter information 2a of the robot arm 100 and the camera 22 and the shape information of the robot arm 100, and uses the position / orientation information of the robot arm 100 to obtain a captured image of the camera 22. Convert to an image of the hand coordinate system 115b. The virtual sensor data generation unit 4 outputs the converted image of the hand coordinate system 115b as virtual sensor data (virtual sensor data generation process). When the virtual sensor data generation unit 4 generates an image of the hand coordinate system 115b from an image captured by the camera 22, for example, a general perspective projection method is used.

センシング部5は、ロボットアーム100に取り付けられたカメラ22から、センサ出力である撮影画像を取得する(センシング処理)。
マッチング部6は、仮想センサデータ生成部4が生成する仮想センサデータと、センシング部5が出力する撮影画像を受け取り、両データの差異を評価する。
図2に示すセンサ位置姿勢キャリブレーション装置1は、コンピュータにより構成することができる。
The sensing unit 5 acquires a captured image, which is a sensor output, from the camera 22 attached to the robot arm 100 (sensing process).
The matching unit 6 receives the virtual sensor data generated by the virtual sensor data generation unit 4 and the captured image output by the sensing unit 5, and evaluates the difference between the two data.
The sensor position / orientation calibration device 1 shown in FIG. 2 can be configured by a computer.

図3は、センサ位置姿勢キャリブレーション装置1をコンピュータで構成した場合のハードウェア構成例を示す。
図3に示すコンピュータ10は、バスにそれぞれ接続されたCPU(Central Processing Unit:中央処理装置)11、ROM(Read Only Memory)12、及びRAM(Random Access Memory)13を備える。さらに、コンピュータ10は、不揮発性ストレージ14、ネットワークインタフェース15、入力装置16、表示装置17、ロボットインタフェース18、及び画像インタフェース19を備える。
FIG. 3 shows an example of hardware configuration when the sensor position / orientation calibration device 1 is configured by a computer.
The computer 10 shown in FIG. 3 includes a CPU (Central Processing Unit) 11, a ROM (Read Only Memory) 12, and a RAM (Random Access Memory) 13 connected to the bus, respectively. Further, the computer 10 includes a non-volatile storage 14, a network interface 15, an input device 16, a display device 17, a robot interface 18, and an image interface 19.

CPU11は、センサ位置姿勢キャリブレーション装置1の処理を実行するソフトウェアのプログラムコードをROM12から読み出して実行する演算処理部である。
RAM13には、演算処理の途中に発生した変数やパラメータ等が一時的に書き込まれる。
The CPU 11 is an arithmetic processing unit that reads out the program code of the software that executes the processing of the sensor position / orientation calibration device 1 from the ROM 12 and executes it.
Variables, parameters and the like generated during the arithmetic processing are temporarily written in the RAM 13.

不揮発性ストレージ14には、例えば、HDD(Hard Disk Drive)、SSD(Solid State Drive)などの大容量情報記憶媒体が用いられる。不揮発性ストレージ14には、センサ位置姿勢キャリブレーション装置1が実行する機能についてのプログラムが記録される。 For the non-volatile storage 14, for example, a large-capacity information storage medium such as an HDD (Hard Disk Drive) or an SSD (Solid State Drive) is used. The non-volatile storage 14 records a program about the function executed by the sensor position / orientation calibration device 1.

ネットワークインタフェース15には、例えば、NIC(Network Interface Card)などが用いられる。ネットワークインタフェース15は、無線LAN(Local Area Network)などを介して外部と各種情報の送受信を行う。 For the network interface 15, for example, a NIC (Network Interface Card) or the like is used. The network interface 15 transmits and receives various information to and from the outside via a wireless LAN (Local Area Network) or the like.

入力装置16には、例えば、キーボード、マウスなどが用いられる。
表示装置17は、例えば、液晶ディスプレイモニタであり、この表示装置17によりコンピュータ10で実行される結果、つまりセンサ位置姿勢キャリブレーション装置1でのキャリブレーション結果が表示される。
For the input device 16, for example, a keyboard, a mouse, or the like is used.
The display device 17 is, for example, a liquid crystal display monitor, and the result executed by the computer 10 by the display device 17, that is, the calibration result by the sensor position / orientation calibration device 1 is displayed.

ロボットインタフェース18は、ロボットアーム100の制御装置(ロボットアーム制御装置21)から、ロボットアーム100の姿勢のデータを取得する。画像インタフェース19は、カメラ22が撮影した画像データを取得する。 The robot interface 18 acquires the posture data of the robot arm 100 from the control device (robot arm control device 21) of the robot arm 100. The image interface 19 acquires image data taken by the camera 22.

なお、センサ位置姿勢キャリブレーション装置1を図3に示すコンピュータ10で構成するのは一例であり、コンピュータ以外のその他の演算処理装置で構成してもよい。例えば、センサ位置姿勢キャリブレーション装置1が行う機能の一部または全部を、FPGA(Field Programmable Gate Array)やASIC(Application Specific Integrated Circuit)などのハードウェアによって実現してもよい。 The sensor position / orientation calibration device 1 is configured by the computer 10 shown in FIG. 3 as an example, and may be configured by other arithmetic processing devices other than the computer. For example, a part or all of the functions performed by the sensor position / orientation calibration device 1 may be realized by hardware such as FPGA (Field Programmable Gate Array) or ASIC (Application Specific Integrated Circuit).

[1−3.相対位置姿勢パラメータ]
次に、再び図1を参照して、相対位置姿勢パラメータ取得部2が取得する相対位置姿勢パラメータ情報2aについて説明する。
図1に示すロボットアーム100のジョイント112a,112b,112cは、サーボモータなどのアクチュエータを備える。ロボットアーム100のジョイント112a,112b,112cの制御値は、各ジョイント112a,112b,112cの回転角度などを表す。但し、制御値として回転角度を使用するのは一例であり、ジョイント112a,112b,112cの状態を表現可能なものであれば、他の形式の値を制御値としてもよい。
ロボットアーム100の姿勢は、全てのジョイント112a,112b,112cのアクチュエータの制御値の組み合わせによって決定される。
[1-3. Relative Position Posture Parameter]
Next, the relative position / orientation parameter information 2a acquired by the relative position / attitude parameter acquisition unit 2 will be described with reference to FIG. 1 again.
The joints 112a, 112b, 112c of the robot arm 100 shown in FIG. 1 include an actuator such as a servomotor. The control values of the joints 112a, 112b, 112c of the robot arm 100 represent the rotation angles of the joints 112a, 112b, 112c and the like. However, the use of the rotation angle as the control value is an example, and a value of another form may be used as the control value as long as the state of the joints 112a, 112b, 112c can be expressed.
The posture of the robot arm 100 is determined by the combination of the control values of the actuators of all the joints 112a, 112b, 112c.

相対位置姿勢パラメータ情報2aは、ハンド座標系115bとカメラ座標系22bの相対的な位置姿勢を表すパラメータである。相対位置姿勢パラメータ情報2aの表現方法は一般的なアフィン変換や、各軸の回転角を表現するオイラー角、回転軸とその回転軸を中心とした回転角で表現されるクォータニオンなどであり、座標系の位置、姿勢を表現可能なものであればよい。
また、相対位置姿勢パラメータ情報2aは、例えばハンド座標系115bからカメラ座標系22bへの変換の方向を決定するパラメータ情報であるが、変換の方向は任意であり、逆にカメラ座標系22bからハンド座標系115bへの方向でもよい。
The relative position / orientation parameter information 2a is a parameter representing the relative position / orientation of the hand coordinate system 115b and the camera coordinate system 22b. The expression method of the relative position / orientation parameter information 2a is general affine transformation, Euler angles expressing the rotation angles of each axis, quaternions expressed by the rotation axes and the rotation angles around the rotation axes, and coordinates. Anything that can express the position and orientation of the system will do.
Further, the relative position / orientation parameter information 2a is, for example, parameter information for determining the direction of conversion from the hand coordinate system 115b to the camera coordinate system 22b, but the conversion direction is arbitrary, and conversely, the hand from the camera coordinate system 22b. The direction to the coordinate system 115b may be used.

図4は、形状情報取得部3が取得する形状情報3aを説明する図である。
図4の例では、形状情報3aとして、4つの筐体構成要素3a−1〜3a−4が登録されている。すなわち、ベース111で構成された筐体構成要素3a−1と、リンク113aとジョイント112aで構成された筐体構成要素3a−2と、リンク113bとジョイント112bで構成された筐体構成要素3a−3と、リンク113cとアーム114とハンド115で構成された筐体構成要素3a−4とを備える。これらの筐体構成要素3a−1〜3a−4の組み合わせにより、ロボットアーム100全体の姿勢を表現することができる。
FIG. 4 is a diagram for explaining the shape information 3a acquired by the shape information acquisition unit 3.
In the example of FIG. 4, four housing components 3a-1 to 3a-4 are registered as shape information 3a. That is, the housing component 3a-1 composed of the base 111, the housing component 3a-2 composed of the link 113a and the joint 112a, and the housing component 3a-consisting of the link 113b and the joint 112b. 3. The housing component 3a-4 including the link 113c, the arm 114, and the hand 115 is provided. By combining these housing components 3a-1 to 3a-4, the posture of the entire robot arm 100 can be expressed.

本実施の形態例では、形状情報3aは、ロボットアーム100の3次元モデルであるが、形状情報3aは、ロボットアーム100の形状を表現可能な情報を含んでいればよい。また、形状情報3aは、ロボットアーム100についての色情報やテクスチャ情報を含んでもよい。
形状情報3aは、レーザセンサやステレオカメラなど、一般的な3次元センサ及び計測手法を用いて計測した3次元モデルや、CADなどの一般的な3次元モデル作成ツール、URDF(Unified Robot Description Format)などの記述フォーマットで作成したロボットアーム100の形状を表す3次元モデルである。
In the embodiment of the present embodiment, the shape information 3a is a three-dimensional model of the robot arm 100, but the shape information 3a may include information capable of expressing the shape of the robot arm 100. Further, the shape information 3a may include color information and texture information about the robot arm 100.
The shape information 3a is a 3D model measured using a general 3D sensor such as a laser sensor or a stereo camera and a measurement method, a general 3D model creation tool such as CAD, or a URDF (Unified Robot Description Format). It is a three-dimensional model representing the shape of the robot arm 100 created in the description format such as.

[1−4.仮想センサデータ生成部の処理]
図5は、仮想センサデータ生成部4を示す。
仮想センサデータ生成部4は、ロボットアーム100とそれに取り付けられたカメラ22を仮想的に再現し、カメラ22から得られる撮影画像を生成する機能を持っている。
仮想センサデータ生成部4は、移動体姿勢形状シミュレート部4aを備える。移動体姿勢形状シミュレート部4aは、形状情報取得部3が取得する形状情報3aと、ロボットアーム100の姿勢情報4bを入力として、姿勢情報4bが示す姿勢を仮想的に再現した移動体姿勢形状情報4cを出力する。
[1-4. Processing of virtual sensor data generator]
FIG. 5 shows a virtual sensor data generation unit 4.
The virtual sensor data generation unit 4 has a function of virtually reproducing the robot arm 100 and the camera 22 attached to the robot arm 100 and generating a captured image obtained from the camera 22.
The virtual sensor data generation unit 4 includes a moving body posture shape simulation unit 4a. The moving body posture shape simulating unit 4a receives the shape information 3a acquired by the shape information acquisition unit 3 and the posture information 4b of the robot arm 100 as inputs, and virtually reproduces the posture indicated by the posture information 4b. Information 4c is output.

また、仮想センサデータ生成部4は、センサ視点生成部4dを備える。センサ視点生成部4dは、相対位置姿勢パラメータ情報2aを入力として、移動体姿勢形状情報4cを回転、平行移動することで、仮想的に取り付けられたカメラ22の視点から観測したものに変換し、センサ視点形状情報4eを生成する。
さらに、仮想センサデータ生成部4は、生成部4gを備える。生成部4gは、センサパラメータ情報4fを入力として、センサ視点形状情報4eをカメラ22の画像面に投影することによって、仮想的に配置された画像を生成する。
Further, the virtual sensor data generation unit 4 includes a sensor viewpoint generation unit 4d. The sensor viewpoint generation unit 4d receives the relative position / orientation parameter information 2a as an input, rotates and translates the moving body / posture shape information 4c, and converts it into what is observed from the viewpoint of the virtually attached camera 22. The sensor viewpoint shape information 4e is generated.
Further, the virtual sensor data generation unit 4 includes a generation unit 4g. The generation unit 4g generates a virtually arranged image by projecting the sensor viewpoint shape information 4e onto the image plane of the camera 22 with the sensor parameter information 4f as an input.

以下、移動体姿勢形状シミュレート部4a、センサ視点生成部4d、及び生成部4gについてさらに詳細に説明する。
移動体姿勢形状シミュレート部4aに供給される姿勢情報4bは、ロボットアーム100の姿勢を決定するためのパラメータであって、ロボットアーム100のそれぞれの筐体構成要素3a−1〜3a−4の任意の座標系における三次元位置座標である。
あるいは、姿勢情報4bは、ロボットアーム100のジョイント112a〜112cが備えるアクチュエータの制御値でもよい。以下の説明では、姿勢情報4bで示される三次元位置座標を示す任意の座標系を、ロボット座標系と称する。このロボット座標系は、例えば図7に示すロボット座標系100aに相当する。
Hereinafter, the moving body posture shape simulating unit 4a, the sensor viewpoint generation unit 4d, and the generation unit 4g will be described in more detail.
The posture information 4b supplied to the moving body posture shape simulating unit 4a is a parameter for determining the posture of the robot arm 100, and is a parameter of each housing component 3a-1 to 3a-4 of the robot arm 100. Three-dimensional position coordinates in an arbitrary coordinate system.
Alternatively, the posture information 4b may be a control value of an actuator included in the joints 112a to 112c of the robot arm 100. In the following description, an arbitrary coordinate system indicating the three-dimensional position coordinates represented by the posture information 4b is referred to as a robot coordinate system. This robot coordinate system corresponds to, for example, the robot coordinate system 100a shown in FIG. 7.

[1−5.移動体姿勢形状シミュレート部の処理]
図6は、移動体姿勢形状シミュレート部4aの処理を示すフローチャートである。
まず、移動体姿勢形状シミュレート部4aは、任意の空間にロボット座標系を設定し(ステップS11)、形状情報3aを受け付ける(ステップS12)と共に、姿勢情報4bを受け付ける(ステップS13)。
[1-5. Processing of moving body posture shape simulation part]
FIG. 6 is a flowchart showing the processing of the moving body posture shape simulating unit 4a.
First, the moving body posture shape simulating unit 4a sets the robot coordinate system in an arbitrary space (step S11), receives the shape information 3a (step S12), and receives the posture information 4b (step S13).

そして、移動体姿勢形状シミュレート部4aは、形状情報3aに含まれる筐体構成要素を、姿勢情報4bが示すロボット座標系に配置する(ステップS14)。その後、移動体姿勢形状シミュレート部4aは、形状情報3aが含む筐体構成要素をすべて、もしくは形状情報3aのうち予め設定した必要な筐体構成要素を配置し終えたか否かを確認する(ステップS15)。このステップS15で、未配置の筐体構成要素があると判断された場合には(ステップS15のno)、移動体姿勢形状シミュレート部4aは、ステップS14の処理に戻る。そして、ステップS15で、全ての筐体構成要素を配置し終えたと判断した場合には(ステップS15のyes)、移動体姿勢形状シミュレート部4aは、移動体姿勢形状情報4cを得る。 Then, the moving body posture shape simulating unit 4a arranges the housing component included in the shape information 3a in the robot coordinate system indicated by the posture information 4b (step S14). After that, the moving body posture shape simulating unit 4a confirms whether or not all the housing components included in the shape information 3a or the necessary housing components preset in the shape information 3a have been arranged ( Step S15). If it is determined in step S15 that there is an unarranged housing component (no in step S15), the moving body posture shape simulating unit 4a returns to the process of step S14. Then, when it is determined in step S15 that all the housing components have been arranged (yes in step S15), the moving body posture shape simulating unit 4a obtains the moving body posture shape information 4c.

次に、ステップS14で行われる、筐体構成要素を姿勢情報4bが示すロボット座標系に配置する処理の詳細を、図4及び図7を用いて説明する。
ステップS14では、移動体姿勢形状シミュレート部4aは、形状情報3aに登録されている筐体構成要素をロボット座標系に配置する。筐体構成要素を配置する場所は姿勢情報4bを参照して得る。図4の例では、形状情報3aとして筐体構成要素3a−1〜3a−4の4つが登録されており、これらの組み合わせによってロボットアーム100の姿勢が表現可能となる。筐体構成要素3a−1〜3a−4の構成数、及び構成の内容はロボットアーム100の形状を表現可能なものであればよく、必ずしも図4の例に限定されるものではない。
Next, the details of the process of arranging the housing components in the robot coordinate system indicated by the posture information 4b, which is performed in step S14, will be described with reference to FIGS. 4 and 7.
In step S14, the moving body posture shape simulating unit 4a arranges the housing component registered in the shape information 3a in the robot coordinate system. The place where the housing component is arranged is obtained by referring to the posture information 4b. In the example of FIG. 4, four housing components 3a-1 to 3a-4 are registered as shape information 3a, and the posture of the robot arm 100 can be expressed by combining these four. The number of components of the housing components 3a to 1 to 3a-4 and the contents of the components may be any as long as they can express the shape of the robot arm 100, and are not necessarily limited to the example of FIG.

図7(a)は、筐体構成要素3a−1〜3a−4の内の筐体構成要素3a−2の位置、姿勢を変更して得られる移動体姿勢形状情報4cを示している。
図7(a)は、筐体構成要素3a−1〜3a−4の内の筐体構成要素3a−3と3a−4の位置、姿勢を変更して得られる移動体姿勢形状情報4cを示している。
FIG. 7A shows the moving body posture shape information 4c obtained by changing the position and posture of the housing component 3a-2 among the housing components 3a-1 to 3a-4.
FIG. 7A shows the moving body posture shape information 4c obtained by changing the positions and postures of the housing components 3a-3 and 3a-4 among the housing components 3a-1 to 3a-4. ing.

図7の例では、姿勢情報4bは筐体構成要素3a−1〜3a−4のうち、可動部である3つのジョイント112a〜112cの回転角度θ1、θ2、θ3が設定されている。そして、ステップS14では、例えばアクチュエータの初期値が示す姿勢から各ジョイント112a〜112cを姿勢情報4bに従って回転、移動することで、移動体姿勢形状シミュレート部4aは移動体姿勢形状情報4cを生成する。 In the example of FIG. 7, the posture information 4b is set to the rotation angles θ1, θ2, and θ3 of the three joints 112a to 112c, which are movable parts, among the housing components 3a to 1 to 3a-4. Then, in step S14, for example, the moving body posture shape simulating unit 4a generates the moving body posture shape information 4c by rotating and moving the joints 112a to 112c according to the posture information 4b from the posture indicated by the initial value of the actuator. ..

この姿勢情報4bは、ロボットアーム100のジョイント112a〜112cが備えるアクチュエータの制御値でもよいが、その場合には、移動体姿勢形状シミュレート部4aは、各アクチュエータの制御地を変位量(例えば、回転角度)に変換するシミュレータを備える。そして、移動体姿勢形状シミュレート部4aは、このシミュレータを用いて移動体姿勢形状情報4cを作成してもよい。
あるいは、姿勢情報4bは、筐体構成要素3a−1〜3a−4のロボット座標系における位置、姿勢を直接表現する情報として登録されていてもよい。
The posture information 4b may be a control value of the actuators included in the joints 112a to 112c of the robot arm 100. In that case, the moving body posture shape simulating unit 4a displaces the control ground of each actuator (for example,). It is equipped with a simulator that converts the rotation angle). Then, the moving body posture shape simulating unit 4a may create the moving body posture shape information 4c using this simulator.
Alternatively, the posture information 4b may be registered as information that directly expresses the position and posture of the housing components 3a-1 to 3a-4 in the robot coordinate system.

相対位置姿勢パラメータ情報2aと移動体姿勢形状情報4cが入力されるセンサ視点生成部4dは、観測した移動体姿勢形状情報4cがもつ3次元モデルを視点変換する。そして、カメラ座標系22bの視点から観測したものに変換してセンサ視点形状情報4eを出力する。 The sensor viewpoint generation unit 4d, in which the relative position / orientation parameter information 2a and the moving body posture / shape information 4c are input, converts the viewpoint of the three-dimensional model of the observed moving body / posture shape information 4c. Then, it is converted into what is observed from the viewpoint of the camera coordinate system 22b and the sensor viewpoint shape information 4e is output.

[1−6.センサ視点生成部の処理]
図8は、センサ視点生成部4dの処理を示すフローチャートである。
まず、センサ視点生成部4dは、移動体姿勢形状情報4cを受付ける(ステップS21)と共に、相対位置姿勢パラメータ情報2aを受付ける(ステップS22)。そして、センサ視点生成部4dは、移動体姿勢形状情報4cにハンド座標系115bを設定する(ステップS23)。
[1-6. Processing of sensor viewpoint generator]
FIG. 8 is a flowchart showing the processing of the sensor viewpoint generation unit 4d.
First, the sensor viewpoint generation unit 4d receives the moving body posture shape information 4c (step S21) and also receives the relative position / posture parameter information 2a (step S22). Then, the sensor viewpoint generation unit 4d sets the hand coordinate system 115b in the moving body posture shape information 4c (step S23).

その後、センサ視点生成部4dは、ハンド座標系115bからの相対位置として表現される相対位置姿勢パラメータ情報2aを用いて、カメラ座標系22bを設定する(ステップS24)。
そして、センサ視点生成部4dは、移動体姿勢形状情報4cを回転、平行移動して始点をカメラ座標原点22aと一致させ、センサ視点形状情報4eを取得する(ステップS25)。
After that, the sensor viewpoint generation unit 4d sets the camera coordinate system 22b using the relative position / orientation parameter information 2a expressed as a relative position from the hand coordinate system 115b (step S24).
Then, the sensor viewpoint generation unit 4d rotates and translates the moving body posture shape information 4c so that the start point coincides with the camera coordinate origin 22a and acquires the sensor viewpoint shape information 4e (step S25).

次に、図8のフローチャートのステップS23、S24、S25での処理を詳しく説明する。
ステップS23では、ハンド座標原点115a及びハンド座標系115bを、移動体姿勢形状情報4c上に設定する。ロボットアーム100の移動と連動して動く点をハンド座標原点115aとしたハンド座標系115bは、ロボット座標系100aにおいてはロボットアーム100の姿勢によって位置が変動するものの、エンドエフェクタとの相対位置姿勢は不変であるため、移動体姿勢形状情報4c上に一意に設定することができる。
Next, the processes in steps S23, S24, and S25 of the flowchart of FIG. 8 will be described in detail.
In step S23, the hand coordinate origin 115a and the hand coordinate system 115b are set on the moving body posture shape information 4c. In the robot coordinate system 100a, the position of the hand coordinate system 115b with the point that moves in conjunction with the movement of the robot arm 100 as the hand coordinate origin 115a changes depending on the posture of the robot arm 100, but the relative position and orientation with the end effector is Since it is immutable, it can be uniquely set on the moving body posture shape information 4c.

ステップS24では、移動体姿勢形状情報4c上にカメラ座標原点22a及びカメラ座標系22bを設定する。
相対位置姿勢パラメータ情報2aは、ハンド座標系115bとカメラ座標系22bの相対的な位置、姿勢を表すパラメータである。この相対位置姿勢パラメータ情報2aは、予め設定されたハンド座標系115bからの幾何的な位置姿勢は一意に求まるため、カメラ座標原点22a及びカメラ座標系22bを設定することができる。
In step S24, the camera coordinate origin 22a and the camera coordinate system 22b are set on the moving body posture shape information 4c.
The relative position / orientation parameter information 2a is a parameter representing the relative position / orientation of the hand coordinate system 115b and the camera coordinate system 22b. Since the geometric position / orientation from the preset hand coordinate system 115b can be uniquely obtained from the relative position / orientation parameter information 2a, the camera coordinate origin 22a and the camera coordinate system 22b can be set.

相対位置姿勢パラメータが表すハンド座標系115bとカメラ座標系22bの相対位置関係の表現の方向は、ハンド座標系115bからカメラ座標系22bの方向と、カメラ座標系22bからハンド座標系115bの方向の2通りが考えられる。いずれの方向であっても、カメラ座標原点22a及びカメラ座標系22bの位置、姿勢は同様であり一意に求まるため、相対位置姿勢パラメータ情報2aの表現の方向はいずれであってもよい。 The directions of expressing the relative positional relationship between the hand coordinate system 115b and the camera coordinate system 22b represented by the relative position / orientation parameters are the direction from the hand coordinate system 115b to the camera coordinate system 22b and the direction from the camera coordinate system 22b to the hand coordinate system 115b. There are two possibilities. In any direction, the positions and orientations of the camera coordinate origin 22a and the camera coordinate system 22b are the same and can be uniquely obtained. Therefore, the relative position / orientation parameter information 2a may be expressed in any direction.

図9は、ステップS25での処理を説明するための図である。
ステップS25では、移動体姿勢形状情報4cにカメラ座標系22bが設定されている。移動体姿勢形状情報4cは3次元モデルであるため、回転と平行移動の組み合わせによって、移動体姿勢形状情報4cを任意の視点から観測したモデルに容易に変換することができ、センサ視点形状情報を得ることができる。
FIG. 9 is a diagram for explaining the process in step S25.
In step S25, the camera coordinate system 22b is set in the moving body posture shape information 4c. Since the moving body posture shape information 4c is a three-dimensional model, the moving body posture shape information 4c can be easily converted into a model observed from an arbitrary viewpoint by combining rotation and translation, and the sensor viewpoint shape information can be obtained. Obtainable.

図9は、図8のステップS24の右側に示す例のように設定されたカメラ座標系22bに視点を移動して得られるセンサ視点形状情報の例を示している。図8に示す例では、筐体構成要素3a−4はロボット座標系100aの原点方向を向く姿勢をとっており、カメラ座標系22bは筐体構成要素3a−4の上部に、筐体構成要素3a−4と同様の方向を向く姿勢で設定されている。 FIG. 9 shows an example of sensor viewpoint shape information obtained by moving the viewpoint to the camera coordinate system 22b set as in the example shown on the right side of step S24 in FIG. In the example shown in FIG. 8, the housing component 3a-4 is in a posture of facing the origin of the robot coordinate system 100a, and the camera coordinate system 22b is placed on the housing component 3a-4 above the housing component. It is set in a posture facing the same direction as 3a-4.

このとき、カメラ座標原点22aの位置でカメラ座標系22bが示す方向に視点変換することで得られるセンサ視点形状情報4eは、図9に示すように、筐体構成要素3a−1の上面と筐体構成要素3a−2の一部が観測される視点となる。図9に示す例ではカメラ座標系22bの軸について、ロボット座標系100aの原点の方向に向いている軸をZ軸として、Z軸が遠方方向となるようにセンサ視点形状情報4eを作成している。
但し、この図9に示すセンサ視点形状情報4eは一例であり、視点変換する際の方向は実際に取り付けられるカメラ22と同様であればよい。例えば一般的な光学カメラの場合、視点の方向は光軸方向となる。
At this time, as shown in FIG. 9, the sensor viewpoint shape information 4e obtained by converting the viewpoint in the direction indicated by the camera coordinate system 22b at the position of the camera coordinate origin 22a is the upper surface of the housing component 3a-1 and the housing. This is the viewpoint at which a part of the body component 3a-2 is observed. In the example shown in FIG. 9, with respect to the axis of the camera coordinate system 22b, the sensor viewpoint shape information 4e is created so that the axis oriented toward the origin of the robot coordinate system 100a is the Z axis and the Z axis is in the distant direction. There is.
However, the sensor viewpoint shape information 4e shown in FIG. 9 is an example, and the direction when the viewpoint is changed may be the same as that of the camera 22 actually attached. For example, in the case of a general optical camera, the direction of the viewpoint is the direction of the optical axis.

[1−7.生成部が仮想センサデータを生成する処理]
図5に示す生成部4gは、センサ視点形状情報4eとセンサパラメータ情報4fを入力として、カメラ22が取得する画像を、仮想センサデータ4hとして生成する。仮想センサデータ4hは、ロボットアーム100が姿勢情報4bに従った姿勢をとったときに生成されるデータである。つまり、ロボットアーム100に相対位置姿勢パラメータ情報2aが表す位置に取り付けられたカメラ22が取得するセンサデータを仮想的に生成したものである。この仮想センサデータ4hは、入力された各情報についての理想的なセンサデータである。
[1-7. Process in which the generator generates virtual sensor data]
The generation unit 4g shown in FIG. 5 receives the sensor viewpoint shape information 4e and the sensor parameter information 4f as inputs, and generates an image acquired by the camera 22 as virtual sensor data 4h. The virtual sensor data 4h is data generated when the robot arm 100 takes a posture according to the posture information 4b. That is, the sensor data acquired by the camera 22 attached to the robot arm 100 at the position represented by the relative position / orientation parameter information 2a is virtually generated. The virtual sensor data 4h is ideal sensor data for each input information.

図10は、生成部4gが仮想センサデータを生成する処理を説明する図である。
図10の例では、透視投影モデルを用いることで、図10(a)に示すカメラ座標系22bの3次元空間の被写体を、図10(b)に示す画像面4g−1に投影する。
この図10では、カメラ22の光学中心をカメラ座標原点22aとするカメラ座標系22bに対して、センサ視点形状情報4eが配置されている。カメラ22が取得する仮想センサデータ4hは、画像面4g−1にセンサ視点形状情報を投影することによって得られる。
カメラ22の透視投影モデルには、[数1]に示すパラメータを用いる。
FIG. 10 is a diagram illustrating a process in which the generation unit 4g generates virtual sensor data.
In the example of FIG. 10, by using the perspective projection model, the subject in the three-dimensional space of the camera coordinate system 22b shown in FIG. 10A is projected onto the image plane 4g-1 shown in FIG. 10B.
In FIG. 10, the sensor viewpoint shape information 4e is arranged with respect to the camera coordinate system 22b whose optical center of the camera 22 is the camera coordinate origin 22a. The virtual sensor data 4h acquired by the camera 22 is obtained by projecting the sensor viewpoint shape information onto the image surface 4g-1.
The parameters shown in [Equation 1] are used for the perspective projection model of the camera 22.

Figure 2021010994
Figure 2021010994

この[数1]に示すパラメータは、一般的にカメラ22の内部パラメータと称される。
この内部パラメータのうち、(fx,fy)は画素あたりの焦点距離を表しており、カメラ22の焦点距離をカメラ22の画素の縦、横の物理的な間隔で割った値である。
また、[数1]に示す内部パラメータのうち、(cu、cv)は、画像面4g−1内の仮想センサデータ座標系4iにおいて、カメラ22の光軸と画像面4g−1の交点、画像中心4jの座標を表す。
The parameters shown in [Equation 1] are generally referred to as internal parameters of the camera 22.
Of these internal parameters, (fx, fy) represents the focal length per pixel, which is a value obtained by dividing the focal length of the camera 22 by the vertical and horizontal physical intervals of the pixels of the camera 22.
Further, among the internal parameters shown in [Equation 1], (cu, cv) is the intersection of the optical axis of the camera 22 and the image surface 4g-1 and the image in the virtual sensor data coordinate system 4i in the image surface 4g-1. Represents the coordinates of the center 4j.

カメラ座標系22b上の点(x,y,z)を、画像面4g−1に投影する方法は、例えば[数2]式に示す計算によるものである。 The method of projecting the points (x, y, z) on the camera coordinate system 22b onto the image plane 4g-1 is, for example, the calculation shown in the equation [Equation 2].

Figure 2021010994
Figure 2021010994

図10に示す例では、仮想センサデータ4hはカメラ22が撮影する画像を先に述べた透視投影モデルによって、センサ視点形状情報の可能な限りすべての領域を画像面に投影して仮想的に生成したものである。あるいは、仮想センサデータ4hはセンサ視点形状情報4eの特定の一部領域のみを画像面4g−1に投影したものでもよく、画像面4g−1に投影するセンサ視点形状情報の領域はいずれでもよい。
あるいは、図11に示すように、仮想センサデータは、少なくとも1点の特定の点を画像面4g−1に投影した際の座標値もしくは座標値の集合でもよい。すなわち、図11(a)に示すカメラ座標系22bの3次元空間の被写体を、図11(b)に示すように、それぞれの点1〜点nの座標位置の値の集合としてもよい。
In the example shown in FIG. 10, the virtual sensor data 4h is virtually generated by projecting the image captured by the camera 22 onto the image plane as much as possible of the sensor viewpoint shape information by the perspective projection model described above. It was done. Alternatively, the virtual sensor data 4h may be one in which only a specific partial region of the sensor viewpoint shape information 4e is projected on the image surface 4g-1, and any region of the sensor viewpoint shape information projected on the image surface 4g-1 may be used. ..
Alternatively, as shown in FIG. 11, the virtual sensor data may be a coordinate value or a set of coordinate values when at least one specific point is projected on the image surface 4g-1. That is, the subject in the three-dimensional space of the camera coordinate system 22b shown in FIG. 11A may be a set of the values of the coordinate positions of the respective points 1 to n as shown in FIG. 11B.

なお、本実施の形態例では、センサがカメラ22である例を示しているが、センサは一般的なビジュアルセンサでもよい。仮想センサデータ4hはセンサの種類とそのセンサのセンサデータの出力形式にならって、例えば動画や3次元データなどに置き換えてもよい。 Although the example of the present embodiment shows an example in which the sensor is the camera 22, the sensor may be a general visual sensor. The virtual sensor data 4h may be replaced with, for example, moving images or three-dimensional data according to the type of sensor and the output format of the sensor data of the sensor.

[1−8.センシング部の処理]
図2に示すセンシング部5は、実際にロボットアーム100に取り付けられたカメラ22からセンサデータを取得する。ロボットアーム100は、仮想センサデータ生成部4が入力として受け付ける姿勢情報4bが示す姿勢をとり、この状態で、センシング部5はカメラ22からセンサデータを取得する。
あるいは、センシング部5は、センサデータに対して各種演算処理を行う機能を有していて、センサデータから特定の領域や点、例えばマーカなどを検出し、その座標値もしくは座標値の集合を出力してもよい。センサとしては、カメラ22の他、一般的なビジュアルセンサを用いてもよい。また、センシング部5が取得するセンサデータは、例えば動画や3次元データでもよい。さらに、センシング部5が取得するセンサデータは、予め取得されたものでもよい。例えば、ハードディスクなどの記憶装置に保存されたものを取得してもよく、あるいは通信手法によって外部から取得したものでもよい。
[1-8. Sensing unit processing]
The sensing unit 5 shown in FIG. 2 actually acquires sensor data from the camera 22 attached to the robot arm 100. The robot arm 100 takes the posture indicated by the posture information 4b received by the virtual sensor data generation unit 4 as an input, and in this state, the sensing unit 5 acquires the sensor data from the camera 22.
Alternatively, the sensing unit 5 has a function of performing various arithmetic processes on the sensor data, detects a specific area or point, for example, a marker, etc. from the sensor data, and outputs the coordinate value or the set of the coordinate values. You may. As the sensor, a general visual sensor may be used in addition to the camera 22. Further, the sensor data acquired by the sensing unit 5 may be, for example, moving image or three-dimensional data. Further, the sensor data acquired by the sensing unit 5 may be acquired in advance. For example, it may be acquired from a storage device such as a hard disk, or it may be acquired from the outside by a communication method.

[1−9.マッチング部の処理]
図2に示すマッチング部6は、仮想センサデータ生成部4が生成した仮想センサデータ4hと、センシング部5が取得したセンサデータを比較して、差異の有無を判定する。
理想的なロボットアーム100及びカメラ22を含むロボットシステムにおいては、仮想センサデータ4hとセンサデータは完全に一致する。しかしながら、実際にはロボット筐体の歪みやたわみなどの容認により、ロボットアーム100の位置、姿勢の決定精度が低下し、仮想センサデータ4hとセンサデータは一致せず、差異が発生する。
[1-9. Matching section processing]
The matching unit 6 shown in FIG. 2 compares the virtual sensor data 4h generated by the virtual sensor data generation unit 4 with the sensor data acquired by the sensing unit 5 to determine whether or not there is a difference.
In a robot system including an ideal robot arm 100 and a camera 22, the virtual sensor data 4h and the sensor data completely match. However, in reality, due to the acceptance of distortion and deflection of the robot housing, the accuracy of determining the position and posture of the robot arm 100 deteriorates, and the virtual sensor data 4h and the sensor data do not match, causing a difference.

マッチングの方法としては仮想センサデータ4hとセンサデータの各画素の画素値が比較される。あるいは、SIFT(Scale-Invariant Feature Transform)やHOG(Histogram of Oriented Gradients)などの一般的な特徴量に変換することで得られる値を比較する方法でもよい。あるいは、仮想センサデータ4hとセンサデータ内の例えばリンク113aの縁に観測されるエッジ部など、特定の領域についてのみマッチングを実施してもよく、マッチング対象の領域は特に限定されない。また、マッチング部6は、予め差異の許容量である閾値を記憶しており、仮想センサデータ4hとセンサデータが完全に一致しない場合において、閾値に収まる差異量の場合は差異がないと判定してもよい。 As a matching method, the virtual sensor data 4h and the pixel value of each pixel of the sensor data are compared. Alternatively, it may be a method of comparing the values obtained by converting into general feature quantities such as SIFT (Scale-Invariant Feature Transform) and HOG (Histogram of Oriented Gradients). Alternatively, matching may be performed only for a specific region such as the virtual sensor data 4h and the edge portion observed at the edge of the link 113a in the sensor data, and the region to be matched is not particularly limited. Further, the matching unit 6 stores a threshold value which is a permissible amount of difference in advance, and when the virtual sensor data 4h and the sensor data do not completely match, it is determined that there is no difference when the difference amount falls within the threshold value. You may.

マッチング部6でのマッチングの結果、仮想センサデータ4hとセンサデータに差異が発生する場合は、姿勢の決定精度の低下を検知することができる。検知した姿勢の決定精度の低下は、例えばロボットアーム制御装置21(図3)に通知する。あるいは、センサ位置姿勢キャリブレーション装置1が備える表示装置17(図3)に表示して告知する。 If there is a difference between the virtual sensor data 4h and the sensor data as a result of matching by the matching unit 6, it is possible to detect a decrease in posture determination accuracy. For example, the robot arm control device 21 (FIG. 3) is notified of the decrease in the accuracy of determining the detected posture. Alternatively, it is displayed and notified on the display device 17 (FIG. 3) included in the sensor position / orientation calibration device 1.

<2.第2の実施の形態例>
以下、本発明の第2の実施の形態例を、図12〜図18を参照して説明する。
なお、本実施の形態例では、仮想センサデータ4hとセンサデータが特定の点の座標値である場合を例に説明する。
<2. Example of the second embodiment>
Hereinafter, examples of the second embodiment of the present invention will be described with reference to FIGS. 12 to 18.
In the example of the present embodiment, the case where the virtual sensor data 4h and the sensor data are the coordinate values of specific points will be described as an example.

[2−1.センサ位置姿勢キャリブレーション装置の構成]
図12は、本発明の第2の実施の形態例のセンサ位置姿勢キャリブレーション装置1aの構成例を示す。
図12に示すセンサ位置姿勢キャリブレーション装置1aは、相対位置姿勢パラメータ取得部2、形状情報取得部3、仮想センサデータ生成部4、センシング部5、及びマッチング部6は、第1の実施の形態例(図2)で説明したセンサ位置姿勢キャリブレーション装置1と同じである。
[2-1. Configuration of sensor position / orientation calibration device]
FIG. 12 shows a configuration example of the sensor position / orientation calibration device 1a of the second embodiment of the present invention.
The sensor position / orientation calibration device 1a shown in FIG. 12 includes a relative position / attitude parameter acquisition unit 2, a shape information acquisition unit 3, a virtual sensor data generation unit 4, a sensing unit 5, and a matching unit 6 according to the first embodiment. This is the same as the sensor position / orientation calibration device 1 described in the example (FIG. 2).

第2の実施形態例が第1の実施形態例と異なる点は、第2の実施形態例のセンサ位置姿勢キャリブレーション装置1aがマッチング結果評価部7を備える点である。
図12に示す第2の実施形態例においても、第1の実施形態例と同様に、相対位置姿勢パラメータ取得部2、形状情報取得部3、仮想センサデータ生成部4、及びセンシング部5での処理により、仮想センサデータ4hとセンサデータが取得される。この仮想センサデータ4hとセンサデータはマッチング部6の処理を経てマッチング結果評価部7に送られ、マッチング結果評価部7は、マッチング部6の結果を受付け、仮想センサデータ4hとセンサデータに差異があると判定した場合は、誤差量を算出する。
The difference between the second embodiment and the first embodiment is that the sensor position / orientation calibration device 1a of the second embodiment includes the matching result evaluation unit 7.
In the second embodiment shown in FIG. 12, similarly to the first embodiment, the relative position / orientation parameter acquisition unit 2, the shape information acquisition unit 3, the virtual sensor data generation unit 4, and the sensing unit 5 are used. By the processing, the virtual sensor data 4h and the sensor data are acquired. The virtual sensor data 4h and the sensor data are sent to the matching result evaluation unit 7 through the processing of the matching unit 6, and the matching result evaluation unit 7 receives the result of the matching unit 6, and there is a difference between the virtual sensor data 4h and the sensor data. If it is determined that there is, the amount of error is calculated.

[2−2.マッチング結果評価部の処理]
図13は、マッチング結果評価部7の処理を示すフローチャートである。
マッチング結果評価部7は、マッチング部6の判定結果を受付け(ステップS31)、マッチング部6の判定の結果から仮想センサデータ4hとセンサデータの差異の有無を判定する(ステップS32)。
このステップS32で、仮想センサデータ4hとセンサデータに差異があると判定した場合(ステップS32のyes)、マッチング結果評価部7は、差異の量を示す誤差を最小化する姿勢を探索する(ステップS33)。そして、マッチング結果評価部7は、誤差を最小化する姿勢と、姿勢情報4bの位置、姿勢の誤差量を計算して記録する(ステップS34)。
[2-2. Matching result evaluation section processing]
FIG. 13 is a flowchart showing the processing of the matching result evaluation unit 7.
The matching result evaluation unit 7 receives the determination result of the matching unit 6 (step S31), and determines whether or not there is a difference between the virtual sensor data 4h and the sensor data from the determination result of the matching unit 6 (step S32).
When it is determined in step S32 that there is a difference between the virtual sensor data 4h and the sensor data (yes in step S32), the matching result evaluation unit 7 searches for a posture that minimizes the error indicating the amount of difference (step). S33). Then, the matching result evaluation unit 7 calculates and records the posture that minimizes the error, the position of the posture information 4b, and the error amount of the posture (step S34).

また、ステップS32で、仮想センサデータ4hとセンサデータの差異がないと判定された場合(ステップS32のno)、マッチング結果評価部7は、誤差量がないことを表す誤差量を記録する(ステップS35)。 If it is determined in step S32 that there is no difference between the virtual sensor data 4h and the sensor data (no in step S32), the matching result evaluation unit 7 records an error amount indicating that there is no error amount (step S32). S35).

以下、図14〜図16を参照して、ステップS33、S34、S35の処理について詳細に説明する。
図14は、ステップS33での処理を示す。
図14に示す例では、仮想センサデータ4hが筐体構成要素3b−1に記されたマーカを画像面4g−1に投影した際の座標値である。図14の例では、星印、四角の印、三角の印の3つのマーカを示す。それぞれのマーカは3次元座標上の座標が既知であり、例えばロボット座標系100aにおいて(x、y、z)座標として表現することが可能である。つまり、基準とする座標系は容易に変換することができる。本実施の形態例では、マーカを検出してその位置を用いる例を示すが、第1の実施の形態例と同様に、画像などのマッチングを行うようにしてもよい。
Hereinafter, the processes of steps S33, S34, and S35 will be described in detail with reference to FIGS. 14 to 16.
FIG. 14 shows the process in step S33.
In the example shown in FIG. 14, the virtual sensor data 4h is a coordinate value when the marker described in the housing component 3b-1 is projected onto the image surface 4g-1. In the example of FIG. 14, three markers, a star mark, a square mark, and a triangular mark, are shown. The coordinates on the three-dimensional coordinates of each marker are known, and can be expressed as (x, y, z) coordinates in the robot coordinate system 100a, for example. That is, the reference coordinate system can be easily converted. In the example of the present embodiment, an example in which a marker is detected and its position is used is shown, but as in the first embodiment, matching of images or the like may be performed.

図14に示す例では、マーカ7a−1、7a−2、7a−3の3つのマーカが設置されているが、マーカの形状や数についてはマーカが識別可能であればよい。また、図14に示す例では、3つのマーカがロボットアーム100の筐体に上に設置されているが、マーカの位置や数は図示のものに限定されない。 In the example shown in FIG. 14, three markers 7a-1, 7a-2, and 7a-3 are installed, but the shape and number of the markers may be identifiable as long as they can be identified. Further, in the example shown in FIG. 14, three markers are installed on the housing of the robot arm 100, but the positions and numbers of the markers are not limited to those shown in the drawings.

画像面4g−1に投影される画像内のマーカ7a−1、7a−2、7a−3を検出する方法にはパターンマッチングなど様々な手法があるが、それ以外の手法を用いてもよい。
図14(b)に示す仮想センサデータ4h−1と、図14(c)に示すセンサデータ5a−1では、同じマーカの座標を示している。
There are various methods for detecting markers 7a-1, 7a-2, and 7a-3 in the image projected on the image surface 4g-1, such as pattern matching, but other methods may be used.
The virtual sensor data 4h-1 shown in FIG. 14B and the sensor data 5a-1 shown in FIG. 14C show the coordinates of the same marker.

すなわち、図14に示す例では、仮想センサデータ座標系4iにおけるマーカ7a−1の位置を示す図14(b)の(u41、v41)と、図14(c)の(u51、v51)とが対応する。また、マーカ7a−2の位置を示す図14(b)の(u42、v42)と、図14(c)の(u52、v52)とが対応する。さらに、マーカ7a−3の位置を示す図14(b)のマーカ7a−3の位置を示す(u43、v43)と、図14(c)の(u53、v53)とが対応する。 That is, in the example shown in FIG. 14, (u41, v41) of FIG. 14 (b) and (u51, v51) of FIG. 14 (c) indicating the position of the marker 7a-1 in the virtual sensor data coordinate system 4i are Correspond. Further, (u42, v42) of FIG. 14 (b) showing the position of the marker 7a-2 and (u52, v52) of FIG. 14 (c) correspond to each other. Further, (u43, v43) showing the position of the marker 7a-3 in FIG. 14 (b) showing the position of the marker 7a-3 corresponds to (u53, v53) in FIG. 14 (c).

図13のステップS32にて差異があると判定されたとき、マッチング結果評価部7は、マーカ7a−1、7a−2、7a−3のうち少なくとも1つの座標が一致しない、もしくは予め設定した閾値以上の差異が生じていると判断する。
仮想センサデータ4h−1とセンサデータ5a−1のいずれにおいても、仮想センサデータ座標系4iにおけるマーカ7a−1、7a−2、7a−3の位置は、先に説明した[数2]式によって求めることが可能であり、各マーカ位置の組み合わせはカメラ座標系22bの位置、姿勢によって一意に求まる。
When it is determined in step S32 of FIG. 13 that there is a difference, the matching result evaluation unit 7 determines that the coordinates of at least one of the markers 7a-1, 7a-2, and 7a-3 do not match, or a preset threshold value. It is judged that the above difference has occurred.
In both the virtual sensor data 4h-1 and the sensor data 5a-1, the positions of the markers 7a-1, 7a-2, and 7a-3 in the virtual sensor data coordinate system 4i are determined by the equation [Equation 2] described above. It can be obtained, and the combination of each marker position can be uniquely obtained by the position and orientation of the camera coordinate system 22b.

ステップS33では、マッチング結果評価部7は、姿勢情報4bを変化させて仮想センサデータ4hとセンサデータ5a−1が一致する姿勢(姿勢情報4b’)を探索する。探索の方法は位置、姿勢を網羅的に変化させる探索方法でもよい。あるいは、仮想センサデータ4h−1とセンサデータ5a−1が一致するおおよその姿勢を予め算出して移動することを繰り返す勾配降下法などの探索法でもよい。 In step S33, the matching result evaluation unit 7 changes the posture information 4b and searches for a posture (posture information 4b') in which the virtual sensor data 4h and the sensor data 5a-1 match. The search method may be a search method that comprehensively changes the position and posture. Alternatively, a search method such as a gradient descent method in which the approximate posture in which the virtual sensor data 4h-1 and the sensor data 5a-1 match is repeatedly calculated and moved may be used.

姿勢情報4bを変化させて仮想センサデータ4h−1とセンサデータ5a−1が一致する姿勢を探索する際は、仮想センサデータ生成部4の入力を変化させることで仮想センサデータ4hを変化させることで姿勢を探索してもよく、あるいはロボットアーム100を動作させてセンサデータ5a−1を変化させることで探索してもよい。 When searching for a posture in which the virtual sensor data 4h-1 and the sensor data 5a-1 match by changing the posture information 4b, the virtual sensor data 4h is changed by changing the input of the virtual sensor data generation unit 4. You may search for the posture with, or you may search by operating the robot arm 100 to change the sensor data 5a-1.

例えば、マーカ7a−1、7a−2、7a−3を通過するような平面が、画像面4g−1と正対するように、マーカ7a−1、7a−2、7a−3とカメラ22が位置している際に、(u41、v41)と(u51、v51)、(u42、v42)と(u52、v52)、(u43、v43)と(u53、v53)の差異が、それぞれ(3、0)であるとき、ステップS33では仮想センサデータ4hもしくはセンサデータ5a−1を画像面4g−1において3ピクセル分、差異を打ち消す方向に平行移動する姿勢情報4bを取得すればよい。姿勢情報4bの移動には回転を含んでもよい。 For example, the markers 7a-1, 7a-2, 7a-3 and the camera 22 are positioned so that the plane passing through the markers 7a-1, 7a-2, 7a-3 faces the image surface 4g-1. At the same time, the differences between (u41, v41) and (u51, v51), (u42, v42) and (u52, v52), (u43, v43) and (u53, v53) are (3, 0), respectively. ), In step S33, the attitude information 4b that translates the virtual sensor data 4h or the sensor data 5a-1 in the direction of canceling the difference by 3 pixels on the image surface 4g-1 may be acquired. The movement of the posture information 4b may include rotation.

ステップS34では、マッチング結果評価部7は、姿勢情報4bと、ステップS33で求めた姿勢情報4b’(図16参照)の誤差量を計算し記録する。姿勢情報4b、4b’が位置、姿勢を表すパラメータの場合、パラメータの性質に従った差異の表現方法で誤差を記録する。例えば、姿勢情報4b、4b’が回転・移動行列である場合、姿勢情報4bから姿勢情報4b’へ、もしくは逆方向の変換行列である。あるいは、姿勢情報4b、4b’がアクチュエータの制御量などである場合は制御量の変異、例えば回転角度の変異を記録してもよい。 In step S34, the matching result evaluation unit 7 calculates and records the amount of error between the posture information 4b and the posture information 4b'(see FIG. 16) obtained in step S33. When the posture information 4b and 4b'are parameters representing the position and the posture, the error is recorded by the method of expressing the difference according to the nature of the parameter. For example, when the posture information 4b and 4b'are a rotation / movement matrix, it is a conversion matrix from the posture information 4b to the posture information 4b' or in the opposite direction. Alternatively, when the attitude information 4b and 4b'are the control amount of the actuator, the variation of the control amount, for example, the variation of the rotation angle may be recorded.

ステップS35では、マッチング結果評価部7は、ステップS32にて仮想センサデータ4hとセンサデータ5a−1に差異がないと判定した場合に、姿勢情報4bと姿勢情報4b’が同値であることの表現を記録する。例えば、姿勢情報4b、4b’が回転・移動行列である場合、姿勢情報4b、4b’に差異がないと表す表現は単位行列である。あるいは、姿勢情報4b、4b’がアクチュエータの制御量などである場合は制御量の変異、例えば回転角度の変異を0と記録する。 In step S35, when the matching result evaluation unit 7 determines in step S32 that there is no difference between the virtual sensor data 4h and the sensor data 5a-1, the expression that the posture information 4b and the posture information 4b'are the same value. To record. For example, when the posture information 4b and 4b'are a rotation / movement matrix, the expression indicating that there is no difference in the posture information 4b and 4b'is an identity matrix. Alternatively, when the attitude information 4b and 4b'are the control amount of the actuator, the variation of the control amount, for example, the variation of the rotation angle is recorded as 0.

図15は、マーカ7a−1が一つのみである場合を示す。この場合、ステップS33では、仮想センサデータ4h−1とセンサデータ5a−1が一致する姿勢情報4b’(図16参照)が複数存在するため、マッチング結果評価部7は、一意に決定することができない。ステップS33では、複数の姿勢情報4bを用いて複数の仮想センサデータ4h−1とセンサデータ5a−1を作成してもよい。 FIG. 15 shows a case where there is only one marker 7a-1. In this case, in step S33, since there are a plurality of posture information 4b'(see FIG. 16) in which the virtual sensor data 4h-1 and the sensor data 5a-1 match, the matching result evaluation unit 7 can uniquely determine. Can not. In step S33, a plurality of virtual sensor data 4h-1 and sensor data 5a-1 may be created by using the plurality of posture information 4b.

[2−3.姿勢精度を評価する処理]
次に、図16を用いてロボットアーム100の姿勢精度を評価する方法を説明する。
図16に示す例では、ロボットアーム100はアクチュエータを備える3つのジョイント112a〜112cを含み、姿勢情報は3つのジョイント112a〜112cの回転角度である。但し、3つのジョイント112a〜112cの回転角度とするのは一例であり、別の情報としてもよい。
[2-3. Processing to evaluate posture accuracy]
Next, a method of evaluating the posture accuracy of the robot arm 100 will be described with reference to FIG.
In the example shown in FIG. 16, the robot arm 100 includes three joints 112a to 112c including actuators, and the posture information is the rotation angle of the three joints 112a to 112c. However, the rotation angles of the three joints 112a to 112c are examples, and may be used as different information.

まず、図16(a)に示すように、センサ位置姿勢キャリブレーション装置1aに任意の姿勢情報4bが入力される。
図16(b)の左側は、姿勢情報4bを入力した際の移動体姿勢形状情報4cを示す。センサ位置姿勢キャリブレーション装置1aは姿勢情報4bに対応する誤差量を記録する。
First, as shown in FIG. 16A, arbitrary posture information 4b is input to the sensor position / posture calibration device 1a.
The left side of FIG. 16B shows the moving body posture shape information 4c when the posture information 4b is input. The sensor position / orientation calibration device 1a records the amount of error corresponding to the attitude information 4b.

次に、センサ位置姿勢キャリブレーション装置1aは、姿勢情報4bの内容のうち、角度θ1のみを変更した姿勢情報4b’を入力として、同様に誤差量を記録する。
図16(b)の右側は、姿勢情報4b’に対応する移動体姿勢形状情報4c‘を示す。
このとき、記録した2つの誤差量に差異があり、比較した際に後者の誤差量が大きくなる場合に、例えば角度θ1によって制御されるジョイント112aの姿勢精度が悪い、もしくはそれに接続されるリンクに歪みやたわみが発生していると判定してもよい。
Next, the sensor position / orientation calibration device 1a similarly records the error amount by inputting the attitude information 4b'in which only the angle θ1 is changed from the contents of the attitude information 4b.
The right side of FIG. 16B shows the moving body posture shape information 4c'corresponding to the posture information 4b'.
At this time, if there is a difference between the two recorded error amounts and the latter error amount becomes large when compared, for example, the attitude accuracy of the joint 112a controlled by the angle θ1 is poor, or the link connected to the joint 112a has poor attitude accuracy. It may be determined that distortion or deflection has occurred.

本実施の形態例のセンサ位置姿勢キャリブレーション装置1aを用いて姿勢精度を評価する際に、変化させる姿勢情報4bは1つ以上でもよい。また、図13のフローチャートに示す手順を複数回実行して、複数パターンの姿勢情報4bと誤差量の関係を記録してもよい。 When evaluating the posture accuracy using the sensor position / posture calibration device 1a of the embodiment, the posture information 4b to be changed may be one or more. Further, the procedure shown in the flowchart of FIG. 13 may be executed a plurality of times to record the relationship between the posture information 4b of the plurality of patterns and the amount of error.

図17は、姿勢情報4bと誤差量の関係を記録した表の例を示す。姿勢情報4bと誤差量の関係から、重回帰分析やロジスティック回帰分析など一般的な解析手法によって誤差量を増加または減少サせる姿勢情報4bの要素、または姿勢情報4bの要素の組み合わせを求めることができる。 FIG. 17 shows an example of a table recording the relationship between the attitude information 4b and the amount of error. From the relationship between the attitude information 4b and the error amount, it is possible to obtain the element of the attitude information 4b or the combination of the elements of the attitude information 4b that can increase or decrease the error amount by a general analysis method such as multiple regression analysis or logistic regression analysis. it can.

あるいは、センサ位置姿勢キャリブレーション装置1aは、図18に示すような姿勢精度マップαを作成してもよい。
図18に示す例では、センサ位置姿勢キャリブレーション装置1aによってロボットアーム100の姿勢情報4bとその姿勢をとった際の誤差量が得られるため、例えば、誤差量の程度によって領域を設定し、可視化している。
すなわち、図18に示すように、ロボットアーム100のハンド115の可動範囲αを設定したとき、その可動範囲αの内の誤差がない範囲α1と、比較的小さな誤差が発生する範囲α2と、大きな誤差が発生する範囲α3とを、可視化して表示する。図18(a)は、ハンド115の可動範囲αを側面から見た図であり、図18(b)はハンド115の可動範囲αを上面から見た図である。
Alternatively, the sensor position / orientation calibration device 1a may create an attitude accuracy map α as shown in FIG.
In the example shown in FIG. 18, since the posture information 4b of the robot arm 100 and the amount of error when the robot arm 100 takes the posture are obtained by the sensor position / posture calibration device 1a, for example, a region is set and visualized according to the degree of the error amount. doing.
That is, as shown in FIG. 18, when the movable range α of the hand 115 of the robot arm 100 is set, the movable range α1 in which there is no error and the range α2 in which a relatively small error occurs are large. The range α3 where the error occurs is visualized and displayed. FIG. 18A is a side view of the movable range α of the hand 115, and FIG. 18B is a view of the movable range α of the hand 115 viewed from above.

この図18に示す可動範囲αを示す姿勢精度マップは、ディプレイなどの一般的な表示デバイスに表示可能な形式で出力してもよく、あるいは座標と誤差量との対応関係を表すデータの形式として出力してもよい。 The posture accuracy map showing the movable range α shown in FIG. 18 may be output in a format that can be displayed on a general display device such as a display, or a data format that represents the correspondence between the coordinates and the amount of error. It may be output as.

以上説明したように、本実施の形態例によると、例えば図17に示す姿勢情報4bと誤差量の関係、あるいは図18に示す姿勢精度マップを参照することで、姿勢精度の悪い領域、あるいは位置を取得することができる。このため、センサ位置姿勢キャリブレーション装置1aの出力を取得することで、ロボットアーム100の制御装置では、姿勢精度が悪い領域を避ける制御や姿勢精度低下の少ない制御経路生成が可能となる。あるいは、ロボットアーム100の例えばハンド座標系の到達位置が同一であっても、姿勢情報4bの組み合わせが異なる場合に、最も精度がよい姿勢情報4bを選択することでロボットアーム100の姿勢精度が高い制御が可能になる。 As described above, according to the embodiment of the present embodiment, for example, by referring to the relationship between the posture information 4b shown in FIG. 17 and the amount of error, or the posture accuracy map shown in FIG. 18, the region or position where the posture accuracy is poor Can be obtained. Therefore, by acquiring the output of the sensor position / orientation calibration device 1a, the control device of the robot arm 100 can control avoiding a region where the attitude accuracy is poor and generate a control path with less decrease in attitude accuracy. Alternatively, even if the arrival positions of the robot arm 100, for example, the hand coordinate system are the same, when the combination of the posture information 4b is different, the posture accuracy of the robot arm 100 is high by selecting the most accurate posture information 4b. Control becomes possible.

<3.変形例>
なお、本発明は、上述した各実施の形態例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した各実施の形態例は、本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。
<3. Modification example>
The present invention is not limited to the above-described embodiments, but includes various modifications. For example, each of the above-described embodiments has been described in detail in order to explain the present invention in an easy-to-understand manner, and is not necessarily limited to those having all the described configurations.

例えば、上述した各実施の形態例では、移動体をロボットアームとした例について説明したが、双腕ロボットや自動車など、位置姿勢情報を取得可能な対象であれば、様々な移動体に適用が可能である。
また、上述した各実施の形態例では、センサとしてカメラを適用した例について説明したが、3次元センサや赤外線センサ、サーモセンサなど、仮想センサデータ生成部にて出力データを仮想的に表現可能なセンサであれば、様々なセンサに適用が可能である。
For example, in each of the above-described embodiments, an example in which a moving body is used as a robot arm has been described, but it can be applied to various moving bodies as long as it is a target capable of acquiring position / posture information such as a dual-arm robot or an automobile. It is possible.
Further, in each of the above-described embodiments, an example in which a camera is applied as a sensor has been described, but output data can be virtually expressed by a virtual sensor data generation unit such as a three-dimensional sensor, an infrared sensor, or a thermo sensor. If it is a sensor, it can be applied to various sensors.

また、図3、図5などのブロック図では、制御線や情報線は説明上必要と考えられるものだけを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。また、図6、図8などに示すフローチャートにおいて、処理結果に影響を及ぼさない範囲で、複数の処理を同時に実行したり、処理順序を変更してもよい。 Further, in the block diagrams such as FIGS. 3 and 5, only the control lines and information lines considered necessary for explanation are shown, and not all the control lines and information lines are necessarily shown in the product. .. In practice, it can be considered that almost all configurations are interconnected. Further, in the flowcharts shown in FIGS. 6 and 8, a plurality of processes may be executed at the same time or the processing order may be changed as long as the processing results are not affected.

また、実施の形態例で説明したセンサ位置姿勢キャリブレーション装置1,1aは、図3で説明したように、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード、光ディスク等の記録媒体に置くことができる。 Further, the sensor position / orientation calibration devices 1 and 1a described in the embodiment are realized by software by interpreting and executing a program in which the processor realizes each function as described in FIG. May be good. Information such as programs that realize each function can be stored in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card, an SD card, or an optical disk.

1、1a…センサ位置姿勢キャリブレーション装置、2…相対位置姿勢パラメータ取得部、2a…相対位置姿勢パラメータ情報、3…形状情報取得部、3a…形状情報、4…仮想センサデータ生成部、4a…移動体姿勢形状シミュレート部、4b,4b′…姿勢情報、4c,4c′…移動体姿勢形状情報、4d…センサ視点生成部、4e…センサ視点形状情報、4f…センサパラメータ情報、4g…生成部、4h…仮想センサデータ、5…センシング部、6…マッチング部、7…マッチング結果評価部、10…コンピュータ、11…中央制御ユニット(CPU)、12…ROM、13…RAM、14…不揮発性ストレージ、15…ネットワークインタフェース、16…入力装置、17…表示装置、18…ロボットインタフェース、19…画像インタフェース、21…ロボットアーム制御装置、22…カメラ、22a…カメラ座標系原点、22b…カメラ座標系、100…ロボットアーム、111…ベース、112a,112b,112c…ジョイント、113a,113b…リンク、114…アーム、115…ハンド、115a…ハンド座標系原点、115b…ハンド座標系、α…可動範囲、α1…誤差なし範囲、α2…誤差中範囲、α3…誤差大範囲

1, 1a ... Sensor position / orientation calibration device, 2 ... Relative position / orientation parameter acquisition unit, 2a ... Relative position / orientation parameter information, 3 ... Shape information acquisition unit, 3a ... Shape information, 4 ... Virtual sensor data generation unit, 4a ... Moving body posture shape simulating unit, 4b, 4b'... Attitude information, 4c, 4c' ... Moving body posture shape information, 4d ... Sensor viewpoint shape generator, 4e ... Sensor viewpoint shape information, 4f ... Sensor parameter information, 4g ... Generation Unit, 4h ... Virtual sensor data, 5 ... Sensing unit, 6 ... Matching unit, 7 ... Matching result evaluation unit, 10 ... Computer, 11 ... Central control unit (CPU), 12 ... ROM, 13 ... RAM, 14 ... Non-volatile Storage, 15 ... network interface, 16 ... input device, 17 ... display device, 18 ... robot interface, 19 ... image interface, 21 ... robot arm control device, 22 ... camera, 22a ... camera coordinate system origin, 22b ... camera coordinate system , 100 ... robot arm, 111 ... base, 112a, 112b, 112c ... joint, 113a, 113b ... link, 114 ... arm, 115 ... hand, 115a ... hand coordinate system origin, 115b ... hand coordinate system, α ... movable range, α1 ... No error range, α2 ... Medium error range, α3 ... Large error range

Claims (13)

センサの任意の点に設定された座標系を、移動体の座標系に変換するセンサ位置姿勢キャリブレーション装置であって、
前記移動体と前記センサの相対位置姿勢を取得する相対位置姿勢パラメータ取得部と、
前記移動体の形状情報を取得する形状情報取得部と、
前記パラメータ取得部と前記形状情報取得部が取得する情報に基づいて、前記センサで取得するデータを仮想的に再現した仮想センサデータを生成する仮想センサデータ生成部と、
前記センサによって取得されたセンサデータを出力するセンシング部と、
前記仮想センサデータと前記センサデータを比較して差異の有無を判定するマッチング部と、を備える
センサ位置姿勢キャリブレーション装置。
It is a sensor position / orientation calibration device that converts the coordinate system set at an arbitrary point of the sensor into the coordinate system of a moving object.
A relative position / orientation parameter acquisition unit that acquires the relative position / orientation between the moving body and the sensor,
A shape information acquisition unit that acquires shape information of the moving body, and
A virtual sensor data generation unit that generates virtual sensor data that virtually reproduces the data acquired by the sensor based on the information acquired by the parameter acquisition unit and the shape information acquisition unit.
A sensing unit that outputs sensor data acquired by the sensor, and
A sensor position / orientation calibration device including a matching unit that compares the virtual sensor data with the sensor data and determines the presence / absence of a difference.
前記仮想センサデータ生成部は、
前記形状情報と、前記移動体の姿勢を表現する姿勢情報に基づいて、仮想的な移動体の姿勢形状を表す移動体姿勢形状情報を生成する移動体姿勢形状シミュレート部と、
前記移動体姿勢形状情報と前記相対位置姿勢パラメータを入力として、前記センサの視点に変換したセンサ視点形状情報を生成するセンサ視点生成部と、
前記センサ視点形状情報と前記センサに固有のパラメータを入力として、前記センサが取得するデータを仮想的に生成する生成部と、を備える
請求項1に記載のセンサ位置姿勢キャリブレーション装置。
The virtual sensor data generation unit
A mobile body posture shape simulating unit that generates moving body posture shape information representing a virtual posture shape of a moving body based on the shape information and the posture information expressing the posture of the moving body.
A sensor viewpoint generation unit that generates sensor viewpoint shape information converted into the viewpoint of the sensor by inputting the moving body posture shape information and the relative position / posture parameter.
The sensor position / orientation calibration device according to claim 1, further comprising a generation unit that virtually generates data acquired by the sensor by inputting the sensor viewpoint shape information and parameters unique to the sensor.
前記移動体姿勢形状シミュレート部は、
任意の座標系に筐体構成要素を前記姿勢情報が示す位置に配置すると共に、
前記姿勢情報が備える指令値を参照し、前記指令値によって実現する前記筐体構成要素の位置姿勢を回転と移動により仮想的に再現することで前記移動体姿勢形状情報を生成し、
制御値によって前記移動体が備えるアクチュエータの動作を仮想的に再現する
請求項2に記載のセンサ位置姿勢キャリブレーション装置。
The moving body posture shape simulating unit is
In addition to arranging the housing components at the positions indicated by the attitude information in an arbitrary coordinate system,
The moving body posture shape information is generated by referring to the command value provided in the posture information and virtually reproducing the position and posture of the housing component realized by the command value by rotation and movement.
The sensor position / orientation calibration device according to claim 2, wherein the operation of the actuator included in the moving body is virtually reproduced by a control value.
前記センサ視点生成部は、回転と移動のいずれか、もしくは両方の処理により、前記移動体姿勢形状情報を前記センサの視点に変換することで、前記センサ視点形状情報を生成する
請求項2に記載のセンサ位置姿勢キャリブレーション装置。
The second aspect of claim 2, wherein the sensor viewpoint generating unit generates the sensor viewpoint shape information by converting the moving body posture shape information into the viewpoint of the sensor by processing either or both of rotation and movement. Sensor position / orientation calibration device.
前記生成部は、前記移動体姿勢形状情報の部分的な領域のみについて、前記センサが取得するデータを仮想的に生成するものであり、
仮想的に生成した前記センサが取得するデータは、前記移動体姿勢形状情報の特定の部分の位置情報を少なくとも一つ以上取得する
請求項2に記載のセンサ位置姿勢キャリブレーション装置。
The generation unit virtually generates data acquired by the sensor only for a partial region of the moving body posture shape information.
The sensor position / orientation calibration device according to claim 2, wherein the virtually generated data acquired by the sensor acquires at least one position information of a specific portion of the moving body posture / shape information.
前記マッチング部は、前記仮想センサデータと前記センシング部の出力の一部あるいは全部を比較し、比較した判定結果の差異があらかじめ設定した閾値よりも大きい場合に、差異が有ると判定する
請求項1に記載のセンサ位置姿勢キャリブレーション装置。
The matching unit compares a part or all of the output of the sensing unit with the virtual sensor data, and determines that there is a difference when the difference in the compared determination results is larger than a preset threshold value. The sensor position / orientation calibration device described in 1.
前記マッチング部の出力を評価して、前記仮想センサデータと前記センサデータの誤差量を算出するマッチング結果評価部を備える
請求項2に記載のセンサ位置姿勢キャリブレーション装置。
The sensor position / orientation calibration device according to claim 2, further comprising a matching result evaluation unit that evaluates the output of the matching unit and calculates an error amount between the virtual sensor data and the sensor data.
前記マッチング結果評価部は、前記仮想センサデータと前記センサデータに差異がある場合に、前記誤差量を最小化あるいは低減する前記姿勢情報を算出する
請求項7に記載のセンサ位置姿勢キャリブレーション装置。
The sensor position / orientation calibration device according to claim 7, wherein the matching result evaluation unit calculates the attitude information that minimizes or reduces the error amount when there is a difference between the virtual sensor data and the sensor data.
前記マッチング結果評価部は、少なくとも一つ以上のマーカを検出して、前記仮想センサデータもしくは前記センサデータの前記マーカの位置の差異から誤差量を算出する
請求項7に記載のセンサ位置姿勢キャリブレーション装置。
The sensor position / orientation calibration according to claim 7, wherein the matching result evaluation unit detects at least one or more markers and calculates an error amount from the difference in the positions of the markers in the virtual sensor data or the sensor data. apparatus.
前記マッチング結果評価部は、複数の前記姿勢情報を入力し、前記仮想センサデータと前記センサデータを複数作成して評価することで、前記移動体の姿勢精度を取得する
請求項7に記載のセンサ位置姿勢キャリブレーション装置。
The sensor according to claim 7, wherein the matching result evaluation unit acquires a posture accuracy of the moving body by inputting a plurality of the posture information, creating a plurality of the virtual sensor data and the sensor data, and evaluating the sensor data. Position-orientation calibration device.
前記マッチング結果評価部は、前記姿勢情報の各値のうち少なくとも一つ以上のパラメータを変更して、複数の前記姿勢情報を作成して入力とすることで、前記複数の姿勢情報と前記誤差量の対応を記録し、前記姿勢情報と前記誤差量の対応に対して分析処理を行う
請求項7に記載のセンサ位置姿勢キャリブレーション装置。
The matching result evaluation unit changes at least one or more parameters of each value of the posture information, creates a plurality of the posture information, and inputs the plurality of posture information to the plurality of posture information and the error amount. The sensor position / orientation calibration device according to claim 7, wherein the correspondence is recorded, and analysis processing is performed for the correspondence between the attitude information and the error amount.
前記マッチング結果評価部は、前記姿勢情報と前記誤差量の対応を図示したマップを作成し表示する機能を備え、
前記姿勢情報と前記誤差量の対応を記録し、前記姿勢情報とそれに対応する誤差量の一覧を記録する
請求項7に記載のセンサ位置姿勢キャリブレーション装置。
The matching result evaluation unit has a function of creating and displaying a map illustrating the correspondence between the posture information and the error amount.
The sensor position / orientation calibration device according to claim 7, wherein the correspondence between the attitude information and the error amount is recorded, and a list of the attitude information and the corresponding error amount is recorded.
センサの任意の点に設定された座標系を、移動体の座標系に変換するセンサ位置姿勢キャリブレーション方法であって、
前記移動体と前記センサの相対位置姿勢を取得する相対位置姿勢パラメータ取得処理と、
前記移動体の形状情報を取得する形状情報取得処理と、
前記パラメータ取得処理と前記形状情報取得処理によって取得する情報に基づいて、前記センサで取得するデータを仮想的に再現した仮想センサデータを生成する仮想センサデータ生成処理と、
前記センサによって取得されたセンサデータを出力するセンシング処理と、
前記仮想センサデータと前記センサデータを比較して差異の有無を判定するマッチング処理と、を含む
センサ位置姿勢キャリブレーション方法。
This is a sensor position / orientation calibration method that converts the coordinate system set at an arbitrary point of the sensor into the coordinate system of a moving object.
Relative position / orientation parameter acquisition processing for acquiring the relative position / orientation between the moving body and the sensor,
The shape information acquisition process for acquiring the shape information of the moving body and
A virtual sensor data generation process that generates virtual sensor data that virtually reproduces the data acquired by the sensor based on the information acquired by the parameter acquisition process and the shape information acquisition process.
Sensing processing that outputs sensor data acquired by the sensor, and
A sensor position / orientation calibration method including a matching process of comparing the virtual sensor data with the sensor data to determine the presence / absence of a difference.
JP2019127572A 2019-07-09 2019-07-09 SENSOR POSITION AND POSTURE CALIBRATION DEVICE AND SENSOR POSITION AND POSTURE CALIBRATION METHOD Active JP7249221B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019127572A JP7249221B2 (en) 2019-07-09 2019-07-09 SENSOR POSITION AND POSTURE CALIBRATION DEVICE AND SENSOR POSITION AND POSTURE CALIBRATION METHOD

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019127572A JP7249221B2 (en) 2019-07-09 2019-07-09 SENSOR POSITION AND POSTURE CALIBRATION DEVICE AND SENSOR POSITION AND POSTURE CALIBRATION METHOD

Publications (2)

Publication Number Publication Date
JP2021010994A true JP2021010994A (en) 2021-02-04
JP7249221B2 JP7249221B2 (en) 2023-03-30

Family

ID=74227355

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019127572A Active JP7249221B2 (en) 2019-07-09 2019-07-09 SENSOR POSITION AND POSTURE CALIBRATION DEVICE AND SENSOR POSITION AND POSTURE CALIBRATION METHOD

Country Status (1)

Country Link
JP (1) JP7249221B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114199130A (en) * 2021-12-13 2022-03-18 江西边际科技有限公司 Optical information characteristic extraction equipment for self-adjusting and correcting inertia pose

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5297238A (en) * 1991-08-30 1994-03-22 Cimetrix Incorporated Robot end-effector terminal control frame (TCF) calibration method and device
JP2006110705A (en) * 2004-09-15 2006-04-27 Yaskawa Electric Corp Calibration method of robot
JP2017170599A (en) * 2016-03-25 2017-09-28 ファナック株式会社 Positioning device using robot
JP6301045B1 (en) * 2017-03-09 2018-03-28 三菱電機株式会社 Robot control apparatus and calibration method
JP2018051634A (en) * 2016-09-26 2018-04-05 セイコーエプソン株式会社 Robot control device, robot, robot system and posture specifying device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5297238A (en) * 1991-08-30 1994-03-22 Cimetrix Incorporated Robot end-effector terminal control frame (TCF) calibration method and device
JP2006110705A (en) * 2004-09-15 2006-04-27 Yaskawa Electric Corp Calibration method of robot
JP2017170599A (en) * 2016-03-25 2017-09-28 ファナック株式会社 Positioning device using robot
JP2018051634A (en) * 2016-09-26 2018-04-05 セイコーエプソン株式会社 Robot control device, robot, robot system and posture specifying device
JP6301045B1 (en) * 2017-03-09 2018-03-28 三菱電機株式会社 Robot control apparatus and calibration method

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114199130A (en) * 2021-12-13 2022-03-18 江西边际科技有限公司 Optical information characteristic extraction equipment for self-adjusting and correcting inertia pose
CN114199130B (en) * 2021-12-13 2023-06-06 江西边际科技有限公司 Optical information characteristic extraction equipment for inertial pose self-adjustment correction

Also Published As

Publication number Publication date
JP7249221B2 (en) 2023-03-30

Similar Documents

Publication Publication Date Title
CN112672860B (en) Robot calibration for AR and digital twinning
JP5949242B2 (en) Robot system, robot, robot control apparatus, robot control method, and robot control program
US9089971B2 (en) Information processing apparatus, control method thereof and storage medium
JP6594129B2 (en) Information processing apparatus, information processing method, and program
RU2700246C1 (en) Method and system for capturing an object using a robot device
JP6826069B2 (en) Robot motion teaching device, robot system and robot control device
JP2013217893A (en) Model generation device, position posture estimation device, information processor, model generation method, position posture estimation method, information processing method
JP2019098409A (en) Robot system and calibration method
Maric et al. Unsupervised optimization approach to in situ calibration of collaborative human-robot interaction tools
Nandikolla et al. Teleoperation robot control of a hybrid eeg-based bci arm manipulator using ros
Jha et al. Kinematics-based approach for robot programming via human arm motion
JP7249221B2 (en) SENSOR POSITION AND POSTURE CALIBRATION DEVICE AND SENSOR POSITION AND POSTURE CALIBRATION METHOD
JP7263987B2 (en) Control device, control method, and control program
Niu et al. Eye-in-hand manipulation for remote handling: Experimental setup
US20220410394A1 (en) Method and system for programming a robot
CN115082550A (en) Apparatus and method for locating position of object from camera image of object
JP2022163836A (en) Method for displaying robot image, computer program, and method for displaying robot image
Al-Junaid ANN based robotic arm visual servoing nonlinear system
US10379620B2 (en) Finger model verification method and information processing apparatus
Saukkoriipi Design and implementation of robot skill programming and control
KR20220067719A (en) Apparatus and method of robot control through vision recognition using deep learning and marker
US20220168902A1 (en) Method And Control Arrangement For Determining A Relation Between A Robot Coordinate System And A Movable Apparatus Coordinate System
US20230154162A1 (en) Method For Generating Training Data Used To Learn Machine Learning Model, System, And Non-Transitory Computer-Readable Storage Medium Storing Computer Program
WO2022123850A1 (en) Control device, control method, and program
Nandikolla et al. Research Article Teleoperation Robot Control of a Hybrid EEG-Based BCI Arm Manipulator Using ROS

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211126

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220927

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230317

R150 Certificate of patent or registration of utility model

Ref document number: 7249221

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150