JP2011083883A - Robot device - Google Patents
Robot device Download PDFInfo
- Publication number
- JP2011083883A JP2011083883A JP2009240754A JP2009240754A JP2011083883A JP 2011083883 A JP2011083883 A JP 2011083883A JP 2009240754 A JP2009240754 A JP 2009240754A JP 2009240754 A JP2009240754 A JP 2009240754A JP 2011083883 A JP2011083883 A JP 2011083883A
- Authority
- JP
- Japan
- Prior art keywords
- measurement
- workpiece
- robot
- measurement range
- orientation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Manipulator (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Description
本発明は、部品の組み立てなどに用いられるロボット装置に関する。 The present invention relates to a robot apparatus used for assembling components.
組み立て作業を行うロボットでは、部品の供給場面や組み立て途中の場面において、扱うワークの位置姿勢が不確定な場合がある。この場合は、ロボットの位置の記録と再生に基づく制御方法では作業を実行できないという問題がある。
そこで、このような問題を解決するために、ロボットの周辺、あるいはロボット本体にカメラやレーザセンサなどの計測手段を設けて、ワークの位置姿勢を計測し、計測結果にしたがってロボットのエンドエフェクタを移動して作業を行う従来技術がある。
In a robot that performs assembly work, the position and orientation of a workpiece to be handled may be uncertain in parts supply scenes or scenes in the middle of assembly. In this case, there is a problem that the operation cannot be executed by the control method based on the recording and reproduction of the position of the robot.
Therefore, in order to solve such problems, measurement means such as cameras and laser sensors are provided around the robot or on the robot body, and the position and orientation of the workpiece are measured, and the robot end effector is moved according to the measurement results. There is a conventional technique for performing the work.
特許文献1には、部品組み付け時のロボットの動作を補正する方法として、ロボットの手首部にCCDカメラなどの視覚センサを取り付け、視覚情報により被組付ワークの基準位置からのずれ量を求め、求めたずれ量から組立用ロボットの移動補正量を算出し、ロボットの動作を補正する技術が開示されている。
また、特許文献2には、重なった複数のワークから1個ずつ取り出す方法として、ロボットの手首部に、レーザを用いた3次元視覚センサを搭載し、ワークの位置姿勢を視覚センサにより求め、その位置姿勢に基づいてロボットを動作させてワークの取り出しを行う技術が開示されている。さらに、毎回異なる位置姿勢にあるワークを検出するために、視覚センサの適切な計測位置を、過去の計測位置または計測結果に基づいて計算して決定する技術が開示されている。
In Patent Document 1, as a method of correcting the movement of the robot at the time of assembling the parts, a visual sensor such as a CCD camera is attached to the wrist of the robot, and the amount of deviation from the reference position of the work to be assembled is obtained by visual information. A technique for calculating the movement correction amount of the assembly robot from the obtained deviation amount and correcting the operation of the robot is disclosed.
Further, in Patent Document 2, as a method of taking out one by one from a plurality of overlapping workpieces, a three-dimensional visual sensor using a laser is mounted on the wrist portion of the robot, and the position and orientation of the workpiece are obtained by the visual sensor. A technique for picking up a workpiece by operating a robot based on the position and orientation is disclosed. Furthermore, in order to detect the workpiece | work in a different position and orientation every time, the technique which calculates and determines the suitable measurement position of a visual sensor based on the past measurement position or a measurement result is disclosed.
しかしながら、特許文献1については、計測位置はロボットの教示位置であるため、毎回同じ位置、同じ計測範囲で計測が実行される。この方法では、教示位置が適切でないとワークが計測範囲から外れることがあり、検出に失敗したり、計測の精度が得られないという問題がある。
また、特許文献2については、適切な計測位置を計算する方法を取ることで、計測範囲から外れる確率は低くなるが、ワークの重なる方向が一定方向ではなかったり、ワーク位置のばらつき範囲が大きい場合には、過去のデータから適切な計測位置を計算することが難しく、過去の統計からは予想できない位置にワークがあって、ワークおよびワーク周辺の一部だけが計測範囲に入った時には、再計測のために計測位置をずらす方向の指針がないという問題がある。また、そこで計測の段階で作業失敗として組み立てを中止してしまうと、組み立て工程が多い場合には、計測の前までに行った作業が無駄になってしまうという問題がある。
However, in Patent Document 1, since the measurement position is the teaching position of the robot, the measurement is executed at the same position and the same measurement range every time. In this method, if the teaching position is not appropriate, the workpiece may be out of the measurement range, and there is a problem that detection fails or measurement accuracy cannot be obtained.
Further, for Patent Document 2, by taking a method of calculating an appropriate measurement position, the probability of deviating from the measurement range is reduced, but the direction in which the workpieces overlap is not a fixed direction, or the workpiece position variation range is large. It is difficult to calculate an appropriate measurement position from past data, and there is a workpiece at a position that cannot be predicted from past statistics. Therefore, there is a problem that there is no guide for the direction of shifting the measurement position. Further, if the assembly is stopped as a work failure at the measurement stage, there is a problem that the work performed before the measurement is wasted if there are many assembly processes.
本発明はこのような課題に鑑みてなされたものであり、計測前までの組み立て作業を無駄にせず組み立てを継続することができるようにしたロボット装置を提供することを目的とする。 The present invention has been made in view of such problems, and an object of the present invention is to provide a robot apparatus capable of continuing the assembly without wasting the assembly work before the measurement.
上記課題を解決するため、本発明は、次のように構成した。
請求項1に記載の発明は、ロボットと、前記ロボットに取り付けられワークを把持するエンドエフェクタと、前記ワークの形状計測センサと、入力装置を有し前記ロボットの動作を制御する制御装置と、を有し、前記制御装置は、あらかじめ決められた範囲を計測範囲として、ワークを形状計測センサにより計測させ、計測範囲にワークの全体像が入っていない場合には、計測範囲を変えて再計測し、ワークの位置姿勢を決定し、前記ワークの位置姿勢へ前記エンドエフェクタを移動させてワークを把持し、前記再計測は、、前記入力装置から入力された計測データに基づいて、計測範囲を変えて実行することを特徴とするものである。
請求項2に記載の発明は、前記入力装置は、画面表示装置を有し、前記画面表示装置のグラフィック画面に表示された直方体を移動させて、計測データと直方体を合わせることで再計測の計測位置を指示することを特徴とするものである。
請求項3に記載の発明は、前記入力装置は、画面表示装置を有し、前記画面表示装置のグラフィック画面に表示された計測範囲を移動させることで、再計測の計測位置を指示することを特徴とするものである。
In order to solve the above problems, the present invention is configured as follows.
According to a first aspect of the present invention, there is provided a robot, an end effector attached to the robot and gripping a workpiece, a shape measurement sensor of the workpiece, a control device having an input device and controlling the operation of the robot. The control device uses a predetermined range as a measurement range, measures the workpiece by the shape measurement sensor, and changes the measurement range and re-measures when the entire image of the workpiece is not included in the measurement range. The position and orientation of the workpiece are determined, the end effector is moved to the position and orientation of the workpiece, the workpiece is gripped, and the re-measurement changes the measurement range based on the measurement data input from the input device. It is characterized by being executed.
According to a second aspect of the present invention, the input device includes a screen display device, and moves the rectangular parallelepiped displayed on the graphic screen of the screen display device, and combines the measurement data and the rectangular parallelepiped to measure the remeasurement. The position is indicated.
According to a third aspect of the present invention, the input device has a screen display device, and indicates a measurement position for remeasurement by moving a measurement range displayed on the graphic screen of the screen display device. It is a feature.
請求項1に記載の発明によると、再計測位置の自動的な決定が行えない場合に、人による判断を導入して、再計測位置を決定することができる。
請求項2に記載の発明によると、計測範囲に入っているのがワークの一部だけのときに、再計測位置を直感的な操作で指示することができる。
請求項3に記載の発明によると、計測範囲に入っているのがワークの周辺だけのときに、再計測位置を直感的な操作で指示することができる。
According to the first aspect of the present invention, when automatic determination of the remeasurement position cannot be performed, the remeasurement position can be determined by introducing human judgment.
According to the second aspect of the present invention, when only a part of the work is in the measurement range, the remeasurement position can be instructed by an intuitive operation.
According to the third aspect of the present invention, the re-measurement position can be instructed by an intuitive operation when the measurement range is only around the workpiece.
以下、本発明の方法の具体的実施形態について、図に基づいて説明する。
[実施形態1]
Hereinafter, specific embodiments of the method of the present invention will be described with reference to the drawings.
[Embodiment 1]
図1は、本発明の方法を実施するロボットシステムの構成図である。このロボットシステムは、双腕ロボット(ロボット)101と、その動作を制御する制御装置102を備えている。
まず、双腕ロボット101について説明する。
図において、ロボットの左アーム104と右アーム105は、関節も含めて模式的に表されている。各関節は、図示しないサーボモータによって、駆動される。
左グリッパ(エンドエフェクタ)106は、左アームの先端に配置されている。
右グリッパ(エンドエフェクタ)107は、右アームの先端に配置されている。
ワーク109は双腕ロボット101の把持対象物である。ワーク109は、本実施形態においてはコネクタ付ケーブルであるが、詳細については後述する。
FIG. 1 is a block diagram of a robot system for implementing the method of the present invention. This robot system includes a double-arm robot (robot) 101 and a control device 102 for controlling the operation thereof.
First, the
In the figure, the
The left gripper (end effector) 106 is disposed at the tip of the left arm.
The right gripper (end effector) 107 is disposed at the tip of the right arm.
A
ワーク形状計測センサ108は、2次元レーザ変位センサである。このセンサは、右グリッパ107上に搭載されている。このワーク形状計測センサ108は、右アーム105が動くとともにワーク109のデータを取得することで、ワーク109の断面輪郭である2次元の計測データを連続して取得することができる。この取得したデータを重ねることによって、3次元の計測データ(ワーク形状)が得られる。なお、このセンサは、右グリッパ107ではなく、左グリッパ106に搭載されていても良い。また、グリッパではなく、アームに搭載されていても良い。また、このセンサは、ワークの3次元形状を計測できるものであれば任意のセンサでよい。例えば、このセンサは、複数のカメラによるビジョンセンサであってもよい。
The workpiece
次に、制御装置102について説明する。制御装置102は電子演算装置及び記憶装置を内蔵しており、動作プログラム解析部110は、ロボットの動作が記述された動作プログラム(JOB)117を解析して必要な処理を呼び出す。
教示データ記憶部113は、現在の位置120を教示位置121として、動作プログラム117に書き込む。この教示位置121は、操作者が教示作業時に教示装置103の所定のキーを入力すると動作プログラム117に書き込まれる。この動作プログラム117は、不揮発性メモリ116に保存される。
Next, the control device 102 will be described. The control device 102 includes an electronic arithmetic device and a storage device, and the operation
The teaching
計測部114は、ワーク形状計測センサ108によりワークの計測データ119を得る。
位置姿勢検出部115は、スキャン条件118と計測データ119から、ワークの3次元の位置姿勢を計算する。位置姿勢検出部115は、このワークの位置姿勢122を指令生成部111に出力する。
The
The position /
指令生成部111は、教示装置103からの手動操作にしたがって軌道を生成する。また、指令生成部111は、動作プログラム117、不揮発性メモリに保存されているスキャン条件118、計測結果であるワークの位置姿勢122、およびヒューマンマシンインタフェース(HMI)124からの計測位置の指示に基づいて、把持動作や計測動作を行うアームの軌道を生成する。サーボ制御部112は、生成された軌道にしたがってモータを駆動する。
The
教示装置103は、制御装置102に接続され、双腕ロボット101の教示・操作をするための装置である。教示装置103上には、ロボットに対する指令やデータを入力するためのキー103Aと情報表示用のディスプレイ103Bが設けられている。
表示用パソコン(入力装置,画面表示装置)123は、制御装置102に接続され、ヒューマンマシンインタフェース124を表示する。
The
A display personal computer (input device, screen display device) 123 is connected to the control device 102 and displays a
次に、本発明に係るロボットシステムの動作について説明する。本実施形態において、双腕ロボットが扱うワーク109は、図2(a)に示す複数のリード線205の両端にコネクタ203、204を備えたケーブルである。図2(a)は、テーブル上のジグや供給装置によって位置が固定されたワークのコネクタ204を、あらかじめ教示されたように把持することで、左グリッパ106がコネクタ204を把持している状態を示している。リード線205で接続された、もう片方のコネクタ203の位置は固定されていない。コネクタ203とコネクタ204の間のリード線205は柔軟であるため、コネクタ203の位置と姿勢は定まらない。
Next, the operation of the robot system according to the present invention will be described. In the present embodiment, the
図3は動作プログラムの例であり、図4は動作プログラム再生時の計測動作のフローチャートである。図3のJOBでは、#011の行でロボット手首に取り付けたレーザセンサを計測開始位置へ移動し、#012の行で一定周期でセンサによる計測を行いながら計測終了位置へ移動し、ワークの位置姿勢を計算し、#013の行で結果の位置姿勢へエンドエフェクタを移動する動作を表している。計測範囲は、図2(b)に示すように、スキャン角度206とスキャン距離207からなるスキャン条件118によって決定する。教示位置303にはロボットの各関節位置が記録されており、位置変数306にはロボット座標系上のツール位置姿勢がX,Y,Z,Roll,Pitch,Yawの座標で入る。
FIG. 3 is an example of the operation program, and FIG. 4 is a flowchart of the measurement operation when reproducing the operation program. In the JOB of FIG. 3, the laser sensor attached to the robot wrist is moved to the measurement start position in the # 011 line, and is moved to the measurement end position while performing measurement by the sensor at a fixed period in the # 012 line. The posture is calculated, and the operation of moving the end effector to the resulting position and posture is represented by the
本発明に係るロボットシステムの動作を、図4に基づいて説明する。図4は図3の#012の計測コマンド305を実施中の、ロボット制御装置の処理と、HMIの処理を表すフローチャートである。
はじめに、ロボット制御装置で計測コマンド(MOVSENS)を実行すると、センサへ定周期でトリガをかけながら、センサをロボットの動作によって移動し、3次元の計測データを得て(S401)、計測データをHMIへ送信し(S402)、位置姿勢を計算する(S403)。HMIでは、計測データを受信し(S408)、計測データであると判断し(S409)、3次元のイメージで表示する(S410)。図5は3次元表示の例である。
The operation of the robot system according to the present invention will be described with reference to FIG. FIG. 4 is a flowchart showing the process of the robot controller and the HMI process when the measurement command 305 # 012 of FIG. 3 is being executed.
First, when a measurement command (MOVSENS) is executed by the robot controller, the sensor is moved by the operation of the robot while triggering the sensor at a fixed period, and three-dimensional measurement data is obtained (S401). (S402) and the position and orientation are calculated (S403). The HMI receives measurement data (S408), determines that the measurement data is measurement data (S409), and displays it as a three-dimensional image (S410). FIG. 5 shows an example of three-dimensional display.
次に、ロボット制御装置でワークの位置姿勢の検出に成功したならば計測コマンド(MOVSENS)を終了する。また、検出に失敗したならば、人による判断の要求をHMIへ送信する。HMIでは、人による判断の要求を受信したことを判断し(S411)、人による画面操作を行い(S412)、人によって変更された計測位置をロボット制御装置へ送信する(S413)。ロボット制御装置では、人によって変更された計測位置を受信し(S406)、計測位置へ移動し(S407)、再度計測を行う(S401へ戻る)。 Next, if the robot controller successfully detects the position and orientation of the workpiece, the measurement command (MOVSENS) is terminated. If the detection fails, a request for judgment by a person is transmitted to the HMI. In the HMI, it is determined that a request for determination by a person has been received (S411), a screen operation by the person is performed (S412), and the measurement position changed by the person is transmitted to the robot controller (S413). The robot control apparatus receives the measurement position changed by a person (S406), moves to the measurement position (S407), and performs measurement again (returns to S401).
図5はHMIの例であり、3次元イメージ502は、表示回転ボタン503を押してから、3次元イメージの画面上でマウスカーソルを移動すると、イメージが回転する。また、表示並進ボタン504を押してから、3次元イメージの画面上でマウスカーソルを移動すると、イメージが並進移動する。計測範囲変更ボタン505の動作を次に述べる。
FIG. 5 shows an example of the HMI. The
図6は本実施形態における計測範囲変更のための画面操作の例を示している。図6(a)は計測範囲に計測対象のワークであるコネクタ全体が入っている場合であり、計測範囲の変更は必要ない。
図6(b)は計測範囲にコネクタの角のみが入っている場合であり、データ不足のため自動的に正確な位置姿勢を計算することができない。このときの操作は、まず、表示回転と表示並進の操作により、図5のような表示から図6のように計測範囲正面から見た像にする。次に、計測範囲変更ボタン505を押すと、3次元イメージの画面上に直方体が表示され、画面上でマウスカーソルにより直方体を触って移動すると直方体が移動する。ここで表示回転ボタンあるいは表示並進ボタンを押すと、直方体の位置姿勢を変更できる。コネクタの一部しかない計測データに直方体を合わせたところで、OKボタン506を押すと、指定した直方***置を中心として、変更された計測位置が決定され、変更された計測位置がロボット制御装置へ送信される。
FIG. 6 shows an example of the screen operation for changing the measurement range in the present embodiment. FIG. 6A shows a case where the entire connector, which is a workpiece to be measured, is included in the measurement range, and it is not necessary to change the measurement range.
FIG. 6B shows a case where only the corner of the connector is in the measurement range, and an accurate position and orientation cannot be automatically calculated due to lack of data. The operation at this time is first made from the display as shown in FIG. 5 to the image viewed from the front of the measurement range as shown in FIG. 6 by the operations of display rotation and display translation. Next, when the measurement
図6(c)は計測範囲にコネクタがほとんど入っておらず、コネクタ周辺のリード線部分が入っている場合であり、対象外のデータであるため自動的に正確な位置姿勢を計算することができない。このときの操作も、前記図6(b)の場合の操作と同じ手順で行う。 FIG. 6C shows a case where the connector is hardly included in the measurement range and the lead wire portion around the connector is included, and since it is out of the target data, an accurate position and orientation can be automatically calculated. Can not. The operation at this time is also performed in the same procedure as the operation in the case of FIG.
このように、自動的に正確な位置姿勢を計算できないときに、HMIでの操作が有効となり、たとえデータ不足であっても、人が見ればどこに対象のワークがあるかわかる場合に、人が画面上の操作で計測範囲の変更を行うことで、再計測を実行することができ、組み立て工程を継続できるので、途中まで組み立てたワークを計測の失敗によって破棄する無駄を少なくすることができるのである。また、計測範囲の移動を直方体の位置姿勢の操作として実行することで、直感的にわかりやすい操作で計測範囲を変更することができる。
[実施形態2]
In this way, when the accurate position and orientation cannot be calculated automatically, the operation with the HMI becomes effective, and even if there is a lack of data, if the person knows where the target work is located, By changing the measurement range by operating on the screen, re-measurement can be performed and the assembly process can be continued, so it is possible to reduce the waste of discarding workpieces assembled halfway due to measurement failure is there. Moreover, by executing the movement of the measurement range as an operation of the position and orientation of the rectangular parallelepiped, the measurement range can be changed with an intuitive and easy-to-understand operation.
[Embodiment 2]
ロボットシステムの構成については、図1に示したものと同一であるので、その説明は省略する。
図7は本実施形態における計測範囲変更のための画面操作の例を示している。図7(a)は計測範囲に計測対象のワークであるコネクタ全体が入っている場合であり、計測範囲の変更は必要ない。
The configuration of the robot system is the same as that shown in FIG.
FIG. 7 shows an example of a screen operation for changing the measurement range in the present embodiment. FIG. 7A shows a case where the entire connector, which is a workpiece to be measured, is included in the measurement range, and it is not necessary to change the measurement range.
図7(b)は計測範囲にコネクタの角のみが入っている場合であり、データ不足のため自動的に正確な位置姿勢を計算することができない。このときの操作は、まず、表示回転と表示並進の操作により、図5のような表示から図6のように計測範囲正面から見た像にする。次に、計測範囲変更ボタン505を押して、計測範囲の縁の任意の位置を画面上でマウスカーソルにより触ると計測範囲の枠が表示され、マウスカーソルを移動すると計測範囲の枠が移動する。コネクタ全体が入るように計測範囲を移動したところで、OKボタン506を押すと、指定した位置に変更された計測位置が決定され、変更された計測位置がロボット制御装置へ送信される。
FIG. 7B shows a case where only the corner of the connector is in the measurement range, and an accurate position and orientation cannot be automatically calculated due to lack of data. The operation at this time is first made from the display as shown in FIG. 5 to the image viewed from the front of the measurement range as shown in FIG. 6 by the operations of display rotation and display translation. Next, when the measurement
図7(c)は計測範囲にコネクタがほとんど入っておらず、コネクタ周辺のリード線部分が入っている場合であり、対象外のデータであるため自動的に正確な位置姿勢を計算することができない。このときの操作も、前記図7(b)の場合の操作と同じ手順で行う。 FIG. 7C shows the case where the connector is hardly included in the measurement range and the lead wire portion around the connector is included, and since it is out of the target data, the accurate position and orientation can be automatically calculated. Can not. The operation at this time is also performed in the same procedure as the operation in the case of FIG.
このように、計測範囲の移動を直接画面上のイメージの操作として実行することで、直感的にわかりやすい操作で計測範囲を変更することができるのである。 As described above, by directly moving the measurement range as an image operation on the screen, it is possible to change the measurement range with an intuitive and easy-to-understand operation.
101 ロボット
102 制御装置
103 教示装置
103A キー
103B ディスプレイ
104 左アーム
105 右アーム
106 左グリッパ(エンドエフェクタ)
107 右グリッパ(エンドエフェクタ)
108 ワーク形状計測センサ
109 ワーク
110 動作プログラム解析部
111 指令生成部
112 サーボ制御部
113 教示データ記憶部
114 計測部
115 位置姿勢検出部
116 不揮発性メモリ
117 動作プログラム(JOB)
118 スキャン条件
119 計測データ
120 現在位置
121 教示位置
122 修正量
123 表示用パソコン
124 ヒューマンマシンインタフェース(HMI)
125 計測位置修正量
201 グリッパ座標系
202 センサ座標系
203 コネクタ
204 コネクタ(左グリッパ把持)
205 コネクタ間リード線
206 スキャン角度
207 スキャン距離
301 動作プログラム表示画面
302 動作プログラム
303 教示位置データ
304 移動コマンド
305 計測コマンド
306 位置変数
307 移動速度
501 計測データ表示画面
502 計測データの3次元イメージ
503 表示回転ボタン
504 表示並進ボタン
505 計測範囲変更ボタン
506 OKボタン
507 キャンセルボタン
601 直方体
701 変更した計測範囲
101 Robot 102
107 Right gripper (end effector)
108 Work
125 Measurement
205 Lead wire 206 between connectors 206 Scan angle 207
Claims (3)
前記ロボットに取り付けられワークを把持するエンドエフェクタと、
前記ワークの形状計測センサと、
入力装置を有し前記ロボットの動作を制御する制御装置と、を有し、
前記制御装置は、
あらかじめ決められた範囲を計測範囲として、ワークを形状計測センサにより計測させ、
計測範囲にワークの全体像が入っていない場合には、計測範囲を変えて再計測し、ワークの位置姿勢を決定し、前記ワークの位置姿勢へ前記エンドエフェクタを移動させてワークを把持し、
前記再計測は、、前記入力装置から入力された計測データに基づいて、計測範囲を変えて実行する
ことを特徴とするロボット装置。 With robots,
An end effector attached to the robot and gripping a workpiece;
A workpiece shape measuring sensor;
A control device that has an input device and controls the operation of the robot,
The controller is
With a predetermined range as the measurement range, the workpiece is measured by the shape measurement sensor,
If the whole area of the workpiece is not in the measurement range, change the measurement range and re-measure, determine the position and orientation of the workpiece, move the end effector to the position and orientation of the workpiece, hold the workpiece,
The robot apparatus is characterized in that the re-measurement is executed by changing a measurement range based on measurement data input from the input device.
画面表示装置を有し、前記画面表示装置のグラフィック画面に表示された直方体を移動させて、計測データと直方体を合わせることで再計測の計測位置を指示する
ことを特徴とする請求項1記載のロボット装置。 The input device is:
2. The display device according to claim 1, further comprising: a screen display device, wherein a rectangular parallelepiped displayed on the graphic screen of the screen display device is moved, and the measurement position for remeasurement is indicated by combining the measurement data and the rectangular parallelepiped. Robot device.
画面表示装置を有し、前記画面表示装置のグラフィック画面に表示された計測範囲を移動させることで、再計測の計測位置を指示する
ことを特徴とする請求項1記載のロボット装置。
The input device is:
The robot apparatus according to claim 1, further comprising a screen display device, wherein a measurement position for remeasurement is indicated by moving a measurement range displayed on a graphic screen of the screen display device.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009240754A JP2011083883A (en) | 2009-10-19 | 2009-10-19 | Robot device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009240754A JP2011083883A (en) | 2009-10-19 | 2009-10-19 | Robot device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2011083883A true JP2011083883A (en) | 2011-04-28 |
Family
ID=44077218
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009240754A Pending JP2011083883A (en) | 2009-10-19 | 2009-10-19 | Robot device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2011083883A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014180708A (en) * | 2013-03-18 | 2014-09-29 | Yaskawa Electric Corp | Robot system and method for manufacturing workpiece |
WO2018072208A1 (en) * | 2016-10-21 | 2018-04-26 | Abb Schweiz Ag | Method, electronic device and system of picking an object from a container |
JPWO2021199730A1 (en) * | 2020-03-31 | 2021-10-07 | ||
US20220009547A1 (en) * | 2018-11-20 | 2022-01-13 | Jtekt Corporation | Steering device and motor control method for steering device |
CN118205018A (en) * | 2024-05-22 | 2024-06-18 | 四川吉埃智能科技有限公司 | Automatic assembly system for water pressure test of coiled pipe robot based on vision |
-
2009
- 2009-10-19 JP JP2009240754A patent/JP2011083883A/en active Pending
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2014180708A (en) * | 2013-03-18 | 2014-09-29 | Yaskawa Electric Corp | Robot system and method for manufacturing workpiece |
WO2018072208A1 (en) * | 2016-10-21 | 2018-04-26 | Abb Schweiz Ag | Method, electronic device and system of picking an object from a container |
US20220009547A1 (en) * | 2018-11-20 | 2022-01-13 | Jtekt Corporation | Steering device and motor control method for steering device |
JPWO2021199730A1 (en) * | 2020-03-31 | 2021-10-07 | ||
WO2021199730A1 (en) * | 2020-03-31 | 2021-10-07 | パイオニア株式会社 | Information processing device, computer program, recording medium, and display data creation method |
CN118205018A (en) * | 2024-05-22 | 2024-06-18 | 四川吉埃智能科技有限公司 | Automatic assembly system for water pressure test of coiled pipe robot based on vision |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6420229B2 (en) | A robot system including a video display device that superimposes and displays an image of a virtual object on a video of a robot | |
JP7490349B2 (en) | Input device, control method for input device, robot system, method for manufacturing article using robot system, control program and recording medium | |
JP4167940B2 (en) | Robot system | |
JP5850958B2 (en) | Robot programming device for creating a robot program for imaging a workpiece | |
JP5815761B2 (en) | Visual sensor data creation system and detection simulation system | |
JP4763074B2 (en) | Measuring device and measuring method of position of tool tip of robot | |
US20150273689A1 (en) | Robot control device, robot, robotic system, teaching method, and program | |
KR20180038479A (en) | Robot system | |
JP6445092B2 (en) | Robot system displaying information for teaching robots | |
JP2018167334A (en) | Teaching device and teaching method | |
JP2016187846A (en) | Robot, robot controller and robot system | |
JP2013049102A (en) | Robot control device and method of determining robot attitude | |
JP2011083883A (en) | Robot device | |
JP5556552B2 (en) | Robot control device, robot, and teaching method of robot control device | |
JP2023024890A (en) | Control device capable of receiving direct teaching operation, teaching device and computer program of control device | |
CN114055460B (en) | Teaching method and robot system | |
CN115338855A (en) | Double-arm robot assembling system | |
JP6457587B2 (en) | Robot teaching device for setting teaching points based on workpiece video | |
TW202218836A (en) | Robot control device, and robot system | |
JP2010162630A (en) | Imaging method, and method and apparatus for picking | |
JP4613752B2 (en) | Robot and robot information display method | |
WO2024009484A1 (en) | Control device and control method | |
JP7195476B1 (en) | WORK PROGRAM CREATION SYSTEM AND WORK PROGRAM CREATION METHOD | |
JP2018158429A (en) | Robot system | |
JPH10264066A (en) | Robot controller |