JP2001216015A - Operation teaching device for robot - Google Patents

Operation teaching device for robot

Info

Publication number
JP2001216015A
JP2001216015A JP2000023067A JP2000023067A JP2001216015A JP 2001216015 A JP2001216015 A JP 2001216015A JP 2000023067 A JP2000023067 A JP 2000023067A JP 2000023067 A JP2000023067 A JP 2000023067A JP 2001216015 A JP2001216015 A JP 2001216015A
Authority
JP
Japan
Prior art keywords
robot
data
virtual
display
coordinates
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000023067A
Other languages
Japanese (ja)
Inventor
Tatsuo Hasegawa
辰雄 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Iwate Prefectural Government
Original Assignee
Iwate Prefectural Government
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Iwate Prefectural Government filed Critical Iwate Prefectural Government
Priority to JP2000023067A priority Critical patent/JP2001216015A/en
Publication of JP2001216015A publication Critical patent/JP2001216015A/en
Pending legal-status Critical Current

Links

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

PROBLEM TO BE SOLVED: To facilitate the operation teaching of a real robot by easily preparing and operating a virtual robot model corresponding to the real robot in a real space on a virtual space. SOLUTION: This device is provided with a display part 1, a data inputting part 2, a display means 8, an initial data setting means 9, an orbit coordinate setting means 10, a display data arithmetic means 12 for calculating the display data of a virtual robot model displayed by the display means 8 based on the set data of the initial data setting means 9 and the coordinates of the orbit of the working part of the real robot set by an orbit coordinate setting means 10, and equipped with a virtual arm corresponding to the arm of the real robot, and a real operation pattern calculating means 13 for calculating an operation pattern for operating the real robot based on the display data of the display data calculating means 12. Then, the virtual robot model corresponding to the real robot is easily prepared by considering only the operating function of the real robot, and the operation of the real robot is confirmed.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、ロボットの動作教
示装置に係り、実空間をコンピュータの仮想空間に投影
し、実空間の実ロボットに対応する仮想ロボットモデル
を仮想空間に作成し、仮想ロボットモデルに実ロボット
の動作確認をさせ、その確認した動作を実ロボットに教
示するロボットの動作教示装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an operation teaching apparatus for a robot, which projects a real space into a virtual space of a computer, creates a virtual robot model corresponding to the real robot in the real space, and creates a virtual robot model. The present invention relates to a robot operation teaching device that causes a model to check the operation of a real robot and teach the checked operation to the real robot.

【0002】[0002]

【従来の技術】一般に、ロボットの動作教示装置は、実
空間の実ロボットをコンピュータの仮想空間に仮想ロボ
ットモデルとして作成し、仮想ロボットモデルに実ロボ
ットの動作を模倣させることにより仮想空間にて実空間
における実ロボットの動作確認を行ない、その動作デー
タを実ロボットの動作コマンドに変換して実ロボットに
動作を教示するものである。このような実ロボットとし
ては、例えば回転中心を有したアームを順次連結して構
成され、最後位のアーム先端に作業部を有するものがあ
る。この従来のロボットの動作教示装置は、仮想空間を
表示する表示部と、仮想ロボットモデルを作成するため
のデータや仮想ロボットモデルの動作位置(実ロボット
の作業部に対応する位置)を入力するためのデータ入力
部と、データ入力部から入力されたデータに基づいて、
仮想ロボットモデルを仮想空間に作成したり、作成した
仮想ロボットモデルを動かすための演算部と、仮想ロボ
ットモデルの動作に応じて実ロボットの動作コマンドを
作成して実空間の実ロボットに送信する動作コマンド算
出部とを備えて構成されている。従来のロボットの動作
教示装置は、3次元CADを利用して仮想空間を定義し
そこに、仮想ロボットモデルを実空間の実ロボットと形
態及び動作において同等にすべく精巧に表現している。
この実ロボットの動作教示装置は、その精巧な仮想ロボ
ットモデルを用いることによって、実ロボットを実際に
動かすことなく実空間の実ロボットと同じ動作を仮想空
間において仮想ロボットモデルにさせることで動作の許
否を確認し実ロボットの動作コマンドを作成して、実ロ
ボットの動作教示を行なう。
2. Description of the Related Art In general, a robot motion teaching device creates a real robot in a real space as a virtual robot model in a virtual space of a computer, and causes the virtual robot model to imitate the operation of the real robot. The operation of the real robot in the space is confirmed, and the operation data is converted into operation commands of the real robot to teach the operation to the real robot. As such an actual robot, for example, there is an actual robot configured by sequentially connecting arms having a rotation center and having a working unit at the end of the last arm. This conventional robot operation teaching device is provided with a display unit for displaying a virtual space, and data for creating a virtual robot model and an operation position of the virtual robot model (a position corresponding to a working unit of a real robot). Based on the data input unit and the data input from the data input unit,
An operation unit for creating a virtual robot model in a virtual space and moving the created virtual robot model, and an operation for creating an operation command of a real robot according to the operation of the virtual robot model and transmitting the operation command to the real robot in the real space And a command calculation unit. The conventional robot motion teaching device uses a three-dimensional CAD to define a virtual space and elaborately express the virtual robot model so as to be equivalent in form and motion to a real robot in a real space.
By using the sophisticated virtual robot model, the motion teaching device of this real robot allows the same motion as the real robot in the real space to the virtual robot model in the virtual space without actually moving the real robot. Is confirmed, an operation command of the actual robot is created, and the operation of the actual robot is taught.

【0003】[0003]

【発明が解決しようとする課題】ところで、従来のロボ
ットの動作教示装置の場合、3次元CADを利用して精
巧な仮想ロボットモデルを作成するために、実ロボット
の精密な形態情報及び動作情報が必要とされた。何故な
ら、例えば、回転させる箇所があるとすると、形態上か
らも回転可能に表現しなければ動作させることができな
いからである。そのため、形態情報としては仮想ロボッ
トモデルの外観を忠実に表現するために幾層ものレイヤ
データが必要となり、動作情報としては実ロボットの動
作機構のデータや動作させるモータの数式モデルデータ
等が必要とされた。これらのデータは、量的に膨大であ
り、3次元CADで仮想ロボットモデルを作成するだけ
で多大な時間を要していた。また、仮想ロボットモデル
には、作業対象物(例えば物を移動させる実ロボットで
あれば移動対象物)やその作業環境(作業範囲における
障害物)を認識させ、それらを踏まえたうえで仮想ロボ
ットモデルの動作を制御させるための制御機構が必要と
なる。この制御機構を構築するのにも多大な時間が必要
とされている。このように、従来のロボットの動作教示
装置で実ロボットの動作教示を行なうためには、実ロボ
ットの動作教示を行なう前段階で多大な労力を要すると
いう問題があった。
By the way, in the case of a conventional robot operation teaching device, since a sophisticated virtual robot model is created using three-dimensional CAD, precise form information and operation information of a real robot are required. Needed. This is because, for example, if there is a part to be rotated, it cannot be operated unless it is rotatably expressed from the form. Therefore, as the morphological information, several layers of layer data are required to faithfully represent the appearance of the virtual robot model, and as the operation information, the data of the operating mechanism of the real robot and the mathematical model data of the motor to be operated are required. Was done. These data are enormous in volume, and it takes a lot of time just to create a virtual robot model by three-dimensional CAD. In addition, the virtual robot model recognizes a work target (for example, a moving target in the case of a real robot that moves an object) and its work environment (an obstacle in a work range), and, based on those, recognizes the virtual robot model. Requires a control mechanism for controlling the operation of. A great deal of time is required to construct this control mechanism. As described above, in order to teach the operation of the real robot using the conventional robot operation teaching device, there is a problem that a great deal of labor is required before the operation teaching of the actual robot is performed.

【0004】本発明は、このような問題点に鑑みてなさ
れたもので、実空間の実ロボットに対応した仮想ロボッ
トモデルを、仮想空間上に簡易に作成し動作させ、実ロ
ボットの動作教示を容易に行なうことができるロボット
の動作教示装置を提供することを目的とする。
The present invention has been made in view of such problems, and a virtual robot model corresponding to a real robot in a real space is simply created and operated in a virtual space to teach the operation of the real robot. An object of the present invention is to provide a robot operation teaching device that can be easily performed.

【0005】[0005]

【課題を解決するための手段】このような課題を解決す
るための本発明の技術的手段は、回転中心を有したアー
ムを順次連結して構成され、最後位のアーム先端に作業
部を有した実ロボットの動作を教示するロボットの動作
教示装置において、表示部と、データ入力部と、上記実
ロボットの回転中心に対応した基端を有し、上記実ロボ
ットの各アームの長さに対応した長さを有するととも
に、基端を中心にX,Y,Z軸の3軸回りに回転可能に
設けられ、先端に他の基端が連結可能な仮想アームを用
いて構成されかつ、該仮想アームを上記実ロボットに対
応させて連結した仮想ロボットモデルを上記表示部に3
次元座標系によって表示させる表示手段と、上記データ
入力部から入力され、上記表示手段によって表示させら
れる仮想ロボットモデルを作成するための仮想アームの
初期データを設定する初期データ設定手段と、上記デー
タ入力部から入力され、上記作業部の軌道の座標を設定
する軌道座標設定手段と、上記初期データ設定手段の設
定データ及び軌道座標設定手段で設定された上記作業部
の軌道の座標に基づいて、上記表示手段によって表示さ
せられる仮想ロボットモデルの表示データを演算する表
示データ演算手段と、該表示データ演算手段の表示デー
タに基づいて、上記実ロボットを作動させる実作動パタ
ーンを算出する実作動パターン算出手段とを備えた構成
とした。実空間の実ロボットを構成するアーム単位に分
けて、各アームの長さと実ロボットにおける位置とその
位置においてアームが動作する回転軸とを確認し、アー
ムをその長さに対応する仮想アームのデータに変換し、
変換した仮想アームのデータを、データ入力部より入力
し初期値データ設定手段に設定し、初期値データ設定手
段に設定された仮想アームのデータは、表示データ演算
手段にてグラフィックスデータである表示データとされ
表示部で仮想ロボットモデルとして表示される。実ロボ
ットの形態を動作機能のみを考慮して作成しているの
で、仮想アームを組み合わせて表現すればよく、仮想ロ
ボットモデルの作成が大変容易になる。
The technical means of the present invention for solving such a problem is constituted by sequentially connecting arms having a center of rotation, and has a working portion at the end of the last arm. A robot operation teaching device for teaching the operation of a real robot, having a display unit, a data input unit, and a base end corresponding to the rotation center of the real robot, and corresponding to the length of each arm of the real robot. A virtual arm which is provided so as to be rotatable about three axes of X, Y, and Z around a base end and is connectable to another base end at a front end thereof. A virtual robot model in which an arm is connected to the real robot is displayed on the display unit.
Display means for displaying in a dimensional coordinate system; initial data setting means for setting initial data of a virtual arm that is input from the data input unit and creates a virtual robot model to be displayed by the display means; A trajectory coordinate setting means that is input from the section and sets the coordinates of the trajectory of the working unit, based on the setting data of the initial data setting means and the coordinates of the trajectory of the working unit set by the trajectory coordinate setting means. Display data calculation means for calculating display data of the virtual robot model displayed by the display means, and actual operation pattern calculation means for calculating an actual operation pattern for operating the real robot based on the display data of the display data calculation means And a configuration including: For each arm that constitutes the real robot in the real space, confirm the length of each arm, the position on the real robot, and the rotation axis on which the arm operates at that position, and convert the arm to virtual arm data corresponding to that length. To
The converted virtual arm data is input from the data input unit and set in the initial value data setting means, and the virtual arm data set in the initial value data setting means is displayed as graphics data by the display data calculation means. The data is displayed as a virtual robot model on the display unit. Since the form of the real robot is created in consideration of only the motion function, it can be expressed by combining virtual arms, and it becomes very easy to create a virtual robot model.

【0006】また、必要に応じ、上記仮想アームの初期
データを、その名称,アームの長さ,基端が回転する回
転軸種,隣接する仮想アームとのリンク座標位置を備え
て規定した構成とした。仮想アームは、仮想空間におけ
る位置とその位置において仮想アームを回転させるため
の回転軸の情報から設定でき、実ロボットの動作に関わ
る必要最小限の情報から容易に仮想ロボットモデルを作
成することができる。更に、必要に応じ、上記軌道座標
設定手段に、上記作業部の軌道の座標に、作業部の動作
順を示すポインタを規定する機能を備えた構成とした。
軌道の座標を入力することによって、その座標入力にと
もなって座標に動作順を示すポインタが付加されるの
で、改めて動作順を座標に与えることなく、座標入力し
た順に仮想ロボットモデルの作業部を動作させることが
できる。更にまた、必要に応じ、上記表示手段に、上記
軌道座標設定手段で入力された座標の位置を該座標の相
対位置に応じて、上記表示部にコンピュータグラフィッ
クス表示させるCG表示手段を備えた構成とした。座標
は、座標位置に応じた所定の大きさの立体図形として表
示部に表示することができるので、仮想空間における座
標間の位置関係を容易に把握することができる。
Further, if necessary, the virtual arm initial data may be defined by including its name, arm length, type of rotation axis on which the base end rotates, and link coordinate position with the adjacent virtual arm. did. The virtual arm can be set from information on the position in the virtual space and the rotation axis for rotating the virtual arm at that position, and a virtual robot model can be easily created from the minimum necessary information related to the operation of the real robot. . Further, as required, the orbit coordinate setting means is provided with a function of defining a pointer indicating the operation order of the working unit at the coordinates of the orbit of the working unit.
By inputting the coordinates of the trajectory, a pointer indicating the operation order is added to the coordinates according to the input of the coordinates, so that the working unit of the virtual robot model is operated in the order of the input coordinates without giving the operation order to the coordinates again. Can be done. Still further, if necessary, the display means includes CG display means for displaying the position of the coordinates input by the orbit coordinate setting means on the display unit in accordance with the relative position of the coordinates by computer graphics. And Since the coordinates can be displayed on the display unit as a three-dimensional figure of a predetermined size corresponding to the coordinate position, the positional relationship between the coordinates in the virtual space can be easily grasped.

【0007】また、必要に応じ、上記軌道座標設定手段
に、上記データ入力部からの指令に基づいて上記入力さ
れた複数の座標を所定の軌道範囲毎にグループ分けする
グループ分け手段を備え、上記表示データ演算手段に上
記データ入力部からの指令に基づいて該グループ分けさ
れた座標の一括編集を可能にする一括編集手段を備えた
構成とした。入力した複数の座標に、その座標のグルー
プを示す情報を付加して所望の複数の座標をグループと
して認識させることができるので、グループ単位での座
標の編集処理等を可能にする。更に、必要に応じ、上記
表示手段に、上記表示部において上記作業部が上記作業
部の軌道の座標上を動くように、上記仮想ロボットモデ
ルによるシミュレーション動作を行なわせるシミュレー
ション手段を備えた構成とした。座標を設定した後、仮
想ロボットモデルに動作させたい座標範囲を指定して仮
想ロボットモデルを動作させることができる。実ロボッ
トを実際に動作させることなく、仮想空間にて仮想ロボ
ットモデルで動作確認を容易に行なうことができる。更
にまた、必要に応じ、上記シミュレーション手段に、予
め指定された始点及び終点となる座標間でシミュレーシ
ョン動作を行なわせる機能を備えた構成とした。所望と
する動作範囲についてのみのシミュレーションを行なう
ことができるので、実ロボットの動作確認処理が短縮さ
れる。
If necessary, the trajectory coordinate setting means may include a grouping means for grouping the plurality of input coordinates based on a command from the data input unit for each predetermined trajectory range. The display data calculation means is provided with a batch editing means for enabling batch editing of the grouped coordinates based on a command from the data input section. Information indicating the group of the coordinates is added to the plurality of input coordinates so that the desired plurality of coordinates can be recognized as a group. Therefore, it is possible to perform a coordinate editing process or the like on a group basis. Further, if necessary, the display means is provided with a simulation means for performing a simulation operation by the virtual robot model so that the work unit moves on the coordinates of the trajectory of the work unit on the display unit. . After the coordinates are set, the virtual robot model can be operated by specifying a coordinate range in which the virtual robot model is to be operated. The operation can be easily confirmed with the virtual robot model in the virtual space without actually operating the real robot. Furthermore, if necessary, the simulation means is provided with a function of performing a simulation operation between coordinates designated as a start point and an end point designated in advance. Since the simulation can be performed only for the desired operation range, the operation confirmation processing of the actual robot can be shortened.

【0008】また、必要に応じ、上記データ入力部を、
音声入力装置を備えて構成し、該音声入力装置により入
力された音声データを上記作業部の軌道の座標データに
変換して軌道座標設定手段に供給する音声変換部を備え
た構成とした。キーボードやマウスに加えて、音声によ
る座標入力を可能にしたので、座標の位置決めを高速に
行なうことができる。更に、必要に応じ、上記データ入
力部を、力感覚入出力装置を備えて構成し、力感覚入出
力装置により入力された作業部の位置データと上記作業
部の設定可能な軌道の座標データとの比較を行ない、設
定不能な座標データが入力された際に、力感覚入出力装
置に触覚可能な触覚力を出力する設定可能座標認識部を
備えた構成とした。設定不能な座標データが入力された
際に、力感覚入出力装置の操作箇所に触覚力を与えられ
るので、仮想ロボットモデルの動作不能な位置を、入力
操作時に確認することができる。更にまた、必要に応
じ、上記表示手段を、上記表示データをステレオ立体視
させるためのステレオデータ変換部を備えて構成し、該
ステレオデータ変換部により変換されて表示部に表示さ
れた表示データをステレオ立体視させて見るための視認
装置を備えた構成とした。仮想空間の3次元表示をより
リアルに知覚させることができるので、軌道の座標を相
対位置関係をより正しく認識して設定することができ
る。また、必要に応じ、上記実ロボットの回りに在る周
辺物体を、周辺物体モデルとして上記表示手段によって
表示させられる仮想ロボットモデルと同様の3次元座標
系によって表示させるため、上記データ入力部からの入
力により上記仮想ロボットモデルの所定位置からの座標
と該物体の体積変数とを設定する周辺物体設定手段を備
えた構成とした。仮想ロボットモデルを仮想空間で動作
させるうえでの尺度となる周辺物体モデルを作成するこ
とができるので、周辺物体モデルを考慮して、例えば障
害物モデルを設定することができるので、実ロボットの
動作教示の精度を向上させることができる。また、仮想
ロボットモデルと周辺物体モデルとは、仮想ロボットモ
デルと同一座標系で表されるので、仮想ロボットモデル
と周辺物体モデルとの相対的な位置決めが容易となる。
更に、必要に応じ、上記仮想ロボットモデルを、同一3
次元座標系に複数作成した際、上記データ入力部からの
入力指令に基づいて各仮想ロボットモデルの動作タイミ
ングを設定するシーケンサ設定手段を備えた構成とし
た。同一の座標系にて複数の仮想ロボットモデルを作成
して、シーケンサ設定手段にて、これらの仮想ロボット
モデルが動作するための動作タイミングを設定して動作
制御を行ない、一連の作業をさせ、動作確認をして、複
数の実ロボットの動作教示を行なうことができる。
Further, if necessary, the data input unit is
A voice input device is provided, and the voice data input by the voice input device is converted into coordinate data of the trajectory of the working unit, and the voice conversion unit is provided to the trajectory coordinate setting means. In addition to a keyboard and a mouse, coordinate input by voice is enabled, so that coordinate positioning can be performed at high speed. Further, if necessary, the data input unit is provided with a force sensation input / output device, and the position data of the working unit input by the force sensation input / output device and the coordinate data of the trajectory that can be set for the work unit are provided. And a settable coordinate recognizing unit that outputs a tactile force that can be tactile to the force-sensing input / output device when non-settable coordinate data is input. When the unsettable coordinate data is input, a tactile force is applied to the operation part of the force-sensing input / output device, so that the inoperable position of the virtual robot model can be confirmed at the time of the input operation. Furthermore, if necessary, the display means is provided with a stereo data conversion unit for stereoscopically viewing the display data, and the display data converted by the stereo data conversion unit and displayed on the display unit is displayed. The system was equipped with a visual recognition device for stereoscopic viewing. Since the three-dimensional display of the virtual space can be perceived more realistically, the coordinates of the trajectory can be set by more accurately recognizing the relative positional relationship. Further, if necessary, a peripheral object around the real robot is displayed as a peripheral object model in the same three-dimensional coordinate system as a virtual robot model displayed by the display means. A peripheral object setting means is provided for setting coordinates from a predetermined position of the virtual robot model and a volume variable of the object by input. Since it is possible to create a peripheral object model that serves as a scale for operating the virtual robot model in the virtual space, it is possible to set an obstacle model in consideration of the peripheral object model, so that the actual robot operation The teaching accuracy can be improved. Further, since the virtual robot model and the peripheral object model are represented by the same coordinate system as the virtual robot model, relative positioning between the virtual robot model and the peripheral object model is facilitated.
Further, if necessary, the virtual robot model
When a plurality of virtual robot models are created in the dimensional coordinate system, a sequencer setting means for setting the operation timing of each virtual robot model based on an input command from the data input unit is provided. Create multiple virtual robot models in the same coordinate system, set the operation timing for operating these virtual robot models by the sequencer setting means, perform operation control, and perform a series of operations. After confirmation, the operation teaching of a plurality of real robots can be performed.

【0009】[0009]

【発明の実施の形態】以下、添付図面に基づいて本発明
の実施の形態に係るロボットの動作教示装置を説明す
る。本発明のロボットの動作教示装置は、図1〜図6に
示すように、実空間の実ロボットR(図2参照)を仮想
空間に簡易な仮想ロボットモデルM(図3参照)として
作成し、実ロボットRの作業箇所となる作業部Hに対応
する仮想ロボットモデルMの作業部hが動作する軌道の
座標Pを仮想空間に設定し、仮想ロボットモデルMの動
作の確認を行ない、その動作の結果を反映させて実ロボ
ットRの動作教示を行なうものである。ロボットの動作
教示装置Sは、図1に示すように、表示部1と、データ
入力部2と、コンピュータ本体7とから構成される。表
示部1は、実空間を投影した仮想空間を表現できる例え
ばCRT等の表示装置からなる。データ入力部2は、マ
ウス3とキーボード4とマイクからなる音声入力装置5
と力感覚入出力装置6とを備えて構成されている。音声
入力装置5は人の音声を入力信号としてデータ入力を行
なうものであり、力感覚入出力装置6は入力操作者に触
覚力を出力させて入力状況を把握させてデータ入力を行
なうものである。データ入力部2からは、仮想ロボット
モデルM,仮想ロボットモデルMの周辺に設置する物体
の周辺物体モデルD(実ロボットRの周辺にある物体を
仮想空間に作成),座標Pを仮想空間に作成するための
データが入力される。
BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a perspective view showing a robot operation teaching device according to an embodiment of the present invention. The robot operation teaching device of the present invention creates a real robot R (see FIG. 2) in a real space as a simple virtual robot model M (see FIG. 3) in a virtual space, as shown in FIGS. The coordinates P of the trajectory on which the working unit h of the virtual robot model M corresponding to the working unit H serving as the working location of the real robot R is set in the virtual space, and the operation of the virtual robot model M is confirmed. The operation teaching of the real robot R is performed by reflecting the result. As shown in FIG. 1, the operation teaching device S for a robot includes a display unit 1, a data input unit 2, and a computer main body 7. The display unit 1 is composed of a display device such as a CRT capable of expressing a virtual space obtained by projecting a real space. The data input unit 2 includes a voice input device 5 including a mouse 3, a keyboard 4, and a microphone.
And a force sense input / output device 6. The voice input device 5 is for inputting data using human voice as an input signal, and the force sensation input / output device 6 is for inputting data by causing an input operator to output tactile force to grasp the input situation. . From the data input unit 2, a virtual robot model M, a peripheral object model D of an object installed around the virtual robot model M (an object around the real robot R is created in a virtual space), and coordinates P are created in a virtual space. Is input.

【0010】コンピュータ本体7は、仮想ロボットモデ
ルM等を表示部1に表示させる表示手段8と、仮想ロボ
ットモデルMに関するデータを設定する初期データ設定
手段9と、仮想ロボットモデルMの作業部hの軌道の座
標Pを設定する軌道座標設定手段10と、周辺物体モデ
ルDのデータを設定する周辺物体設定手段11と、初期
データ設定手段9,軌道座標設定手段10,周辺物体設
定手段11に設定されたデータに基づいて、仮想ロボッ
トモデルM,軌道の座標P,周辺物体モデルDを仮想空
間にグラフィックス表示させるための表示データを演算
する表示データ演算手段12と、軌道の座標Pの表示デ
ータに基づいて実ロボットRを作動させるための実作動
パターンを算出する実作動パターン算出手段13とを備
えて構成される。
The computer body 7 includes a display unit 8 for displaying the virtual robot model M and the like on the display unit 1, an initial data setting unit 9 for setting data relating to the virtual robot model M, and a working unit h for the virtual robot model M. The trajectory coordinate setting means 10 for setting the coordinates P of the trajectory, the peripheral object setting means 11 for setting the data of the peripheral object model D, the initial data setting means 9, the trajectory coordinate setting means 10, and the peripheral object setting means 11 are set. Display data calculating means 12 for calculating display data for displaying the virtual robot model M, the coordinates P of the trajectory, and the peripheral object model D in the virtual space based on the data obtained from the virtual robot model M, and the display data of the coordinates P of the trajectory. And an actual operation pattern calculating means 13 for calculating an actual operation pattern for operating the actual robot R based on the actual operation pattern.

【0011】表示手段8は、表示データ演算手段12で
算出された各種表示データをCG表示手段14でグラフ
ィックス化して表示部1に供給する。また、表示手段8
にはシミュレーション手段15が設けられている。シミ
ュレーション手段15は、座標Pに基づいて仮想ロボッ
トモデルMの作業部hが動く過程を仮想ロボットモデル
Mの構造変化を伴わせて表示部1に表示させることがで
きる。シミュレーション手段15では、データ入力部2
から座標Pの範囲を指定することができ、座標Pにおい
て仮想ロボットモデルMの動作確認の範囲を動作始点と
なる座標Pと動作終点となる座標Pとを指定することに
よって実ロボットRのシミュレーション範囲を制限する
ことができる。更に、CG表示手段14には、表示部1
の表示視点を変更して表示させる機能が備えられ、仮想
空間を所望の視点から3次元表示させることができる。
The display unit 8 converts the various display data calculated by the display data calculation unit 12 into graphics by the CG display unit 14 and supplies the graphics to the display unit 1. Display means 8
Is provided with simulation means 15. The simulation means 15 can cause the display unit 1 to display a process in which the working unit h of the virtual robot model M moves based on the coordinates P along with a structural change of the virtual robot model M. In the simulation means 15, the data input unit 2
The range of the coordinate P can be specified from. The simulation range of the real robot R can be specified by specifying the coordinate P as the operation start point and the coordinate P as the operation end point at the coordinate P. Can be restricted. Further, the CG display means 14 includes the display unit 1
Is provided for changing the display viewpoint of the virtual space, and the virtual space can be three-dimensionally displayed from a desired viewpoint.

【0012】初期データ設定手段9では、実ロボットR
に対応した仮想ロボットモデルMを構成する仮想アーム
Tの初期データが設定される。仮想アームTとは、実ロ
ボットRを構成するアームAに対応した仮想ロボットモ
デルMの構成単位である。仮想アームTの初期データと
は、実ロボットRの初期状態(動かしていない状態)に
対応した仮想ロボットモデルMを構成する仮想アームT
のデータを示す。具体的に、実ロボットRの一例を示
し、その仮想ロボットモデルMを構成する仮想アームT
の初期データについて説明する。実ロボットRは、図2
に示すように、基台Bに回転中心を有した4つの直方体
状のアームA(A1〜A4)を順次連結して構成され、
最後位のアームA4の先端に所定の大きさの物体を捕獲
することができるように開閉可能な作業部Hを有したも
のである。基台Bは固定して設置され、回転中心は各ア
ームA1〜A4の一部に設けられ(回転中心とは、アー
ムAが包合する回転軸部分の中心を意味する。)、各ア
ームA1〜A4は実ロボットRの設置面に対して垂直ま
たは平行な回転軸を有したものとされ、その回転軸に沿
って各アームA1〜A4が回転することにより基台B上
で動作する。詳しくは、実ロボットRは、基台Bを有
し、基台BにY軸に平行な回転軸を中心に有したアーム
A1が設置され、アームA1の上に一端にY軸に平行な
回転軸を有したアームA2が接続され、アームA2の他
端に一端にX軸に平行な回転軸を有したアームA3が接
続され、アームA3の他端に一端がZ軸に平行な回転軸
を有したアームA4が接続され、アームA4の先端に捕
獲対象物を捕獲可能にアームA4の長手方向の軸に沿っ
て回転し、かつ開閉可能なハンド状の作業部Hが設けら
れて構成されている。
In the initial data setting means 9, the actual robot R
Is set, the initial data of the virtual arm T constituting the virtual robot model M corresponding to. The virtual arm T is a constituent unit of the virtual robot model M corresponding to the arm A forming the real robot R. The initial data of the virtual arm T is the virtual arm T that constitutes the virtual robot model M corresponding to the initial state (non-moving state) of the real robot R.
The data of is shown. Specifically, an example of a real robot R is shown, and a virtual arm T constituting the virtual robot model M is shown.
Will be described. The actual robot R is shown in FIG.
As shown in the figure, the base B is configured by sequentially connecting four rectangular parallelepiped arms A (A1 to A4) having a rotation center,
At the end of the last arm A4, there is provided a working unit H that can be opened and closed so that an object of a predetermined size can be captured. The base B is fixedly installed, and the center of rotation is provided in a part of each of the arms A1 to A4 (the center of rotation means the center of the rotating shaft portion that the arm A wraps around). A to A4 have a rotation axis perpendicular or parallel to the installation surface of the real robot R, and operate on the base B by rotating the arms A1 to A4 along the rotation axis. Specifically, the real robot R has a base B, an arm A1 having a rotation axis parallel to the Y axis as a center is installed on the base B, and a rotation parallel to the Y axis is provided at one end on the arm A1. An arm A2 having a shaft is connected, an arm A3 having a rotation axis parallel to the X axis is connected to one end of the arm A2, and a rotation axis parallel to the Z axis is connected to the other end of the arm A3. The arm A4 has a hand-shaped working unit H that is rotatable along the longitudinal axis of the arm A4 and that can be opened and closed at a tip of the arm A4 so as to be able to capture an object to be captured. I have.

【0013】ロボットの動作教示装置Sでは、実ロボッ
トRを以下のようにアームA(A1〜A4)の形態及び
動作機構を簡易な数値で仮想アームT(T1〜T4)と
して設定して、表示データ演算手段12にて仮想アーム
T1〜T4の表示データにすることができる。ここで
は、図3に示すように、アームA1〜A4を表示部1に
線分状に表示させるように設定した。先ず、アームA1
は、Y軸回りに回転可能な基端αを有するアームA1の
長さに対応した仮想アームT1とされる。初期データ設
定手段8には、アームA1〜A4を簡易化して仮想アー
ムT1〜T4で表示させるためのデータが設定される。
具体的には、仮想アームT1の初期データは、T1(そ
の名称,アームA1の長さ,基端αの回転する回転軸
種,隣接する仮想アームT1とのリンク座標)とされ、
具体的には、T1(Arm1,100,y,(a,b,
c))となり、仮想アームT1は名称がArm1、アー
ムA1の長さが100cm、y軸に平行な回転軸を有
し、アームA1の先端の座標(x,y,z)が(a,
b,c)であることが示される。ここで、アームA1の
基端αは、仮想空間の原点座標(0,0,0)とされ、
(a,b,c)は原点座標を基準にした値とされる。同
様にして、アームA2〜A4についても、仮想アームT
2〜T4にされる。これら仮想アームTは、形態データ
として初期データ設定手段9にファイルに保存しておく
ことができ、仮想ロボットモデルを作成する際にファイ
ルから所望の形態データを呼び出すことができる。仮想
ロボットモデルMの先端には、ここでは仮想アームT4
の先端βには、作業部Hに対応する作業部hが付加され
る。作業部hは、作業箇所を示す概念として表示される
ものである。また、作業部hは、仮想アームT4の先端
βに付加されるコ字状体とされる。
In the robot operation teaching device S, the real robot R is set and displayed as a virtual arm T (T1 to T4) using simple numerical values for the form and operation mechanism of the arm A (A1 to A4) as follows. The data calculation means 12 can make the display data of the virtual arms T1 to T4. Here, as shown in FIG. 3, the arms A1 to A4 are set to be displayed on the display unit 1 in a line segment. First, arm A1
Is a virtual arm T1 corresponding to the length of the arm A1 having a base end α rotatable around the Y axis. In the initial data setting means 8, data for simplifying the arms A1 to A4 and displaying them on the virtual arms T1 to T4 is set.
Specifically, the initial data of the virtual arm T1 is T1 (the name, the length of the arm A1, the type of rotation axis on which the base end α rotates, and the link coordinates with the adjacent virtual arm T1),
Specifically, T1 (Arm1, 100, y, (a, b,
c)), the virtual arm T1 has a name Arm1, a length of the arm A1 of 100 cm, a rotation axis parallel to the y-axis, and coordinates (x, y, z) of the tip of the arm A1 of (a,
b, c). Here, the base end α of the arm A1 is set to the origin coordinates (0, 0, 0) of the virtual space,
(A, b, c) is a value based on the origin coordinates. Similarly, for the arms A2 to A4, the virtual arm T
2 to T4. These virtual arms T can be stored in a file in the initial data setting means 9 as form data, and desired form data can be called from the file when creating a virtual robot model. At the tip of the virtual robot model M, here, a virtual arm T4
A working part h corresponding to the working part H is added to the tip β of the. The work unit h is displayed as a concept indicating a work place. The working unit h is a U-shaped body added to the tip β of the virtual arm T4.

【0014】軌道座標設定手段10は、仮想ロボットモ
デルMの作業部hが動く座標Pを設定する。ここで、座
標Pとは、図4に示すように、作業部hの捕獲作業の中
心となるコ字状体の内側中央位置Oの3次元座標を示
す。また、軌道座標設定手段10では、座標Pととも
に、作業部hが座標Pに位置したときの仮想ロボットモ
デルMを構成する各仮想アームTの回転角度が決められ
ており、作業部hが座標Pに位置したときの仮想ロボッ
トモデルMを構成する仮想アームT1〜T4の接続構造
が一意的に決められている。更に、軌道座標設定手段1
0では、座標Pが設定される際に動作順を示すポインタ
も付加的に座標P毎に設定される。軌道座標設定手段1
0へのデータ入力には、操作容易性からマウス4,音声
入力装置5及び力感覚入出力装置6を利用する。マウス
4によれば、表示部1に表示される仮想空間の所望位置
にカーソルを位置させて座標Pを入力することができ
る。
The trajectory coordinate setting means 10 sets coordinates P at which the working unit h of the virtual robot model M moves. Here, as shown in FIG. 4, the coordinates P indicate three-dimensional coordinates of an inner central position O of the U-shaped body serving as the center of the capturing operation of the working unit h. In the trajectory coordinate setting means 10, the rotation angle of each virtual arm T constituting the virtual robot model M when the working unit h is located at the coordinate P is determined together with the coordinate P. The connection structure of the virtual arms T1 to T4 that constitute the virtual robot model M when the robot is positioned at is determined uniquely. Further, the orbit coordinate setting means 1
At 0, a pointer indicating the operation order is additionally set for each coordinate P when the coordinate P is set. Orbit coordinate setting means 1
For data input to 0, a mouse 4, a voice input device 5, and a force sense input / output device 6 are used for ease of operation. According to the mouse 4, the coordinates P can be input by positioning the cursor at a desired position in the virtual space displayed on the display unit 1.

【0015】音声入力装置5のマイクからの音声入力に
おいては、作業部hをシミュレーション作動させなが
ら、作業部hの方向(右,左,上,下)と初期位置に対
する移動角度を指定でき、音声による決定の指令によっ
て、音声変換部16にて、予めデコード対象とされる音
声パターンに従って作業部hの基準座標(コ字状体の内
側中央位置Oの現在位置する位置座標)からの作業部h
の移動位置を座標Pのデータに変換する。例えば、”右
30°”という音声入力は基準座標を右方向に指定した
角度だけ移動させる。このような指令を作業部hが所要
の位置に位置するまで行ない、音声による決定の指令に
よって、軌道座標設定手段10に座標Pが設定される。
また、移動量を一定とし、音声入力において作業部hの
方向のみを指定して作業部hの移動位置を座標Pのデー
タに変換するようにしても良い。音声変換部16では、
種々の音声パターンと移動量とが関連付けられてライブ
ラリ化される。この場合は、例えば、”右”という音声
入力は基準座標を右に予め定めた所定角度移動させる。
マウス3と音声入力装置5を併用して座標Pを入力する
場合には、表示部1に表示されるカーソルをマウス3を
利用して目的位置付近に移動し音声入力装置5で微調整
を行なうことにより、座標Pを容易に効率良く設定する
ことができる。
In the voice input from the microphone of the voice input device 5, the direction (right, left, up, down) of the working unit h and the moving angle with respect to the initial position can be designated while the working unit h is simulated. In response to the instruction of the determination, the voice conversion unit 16 determines the working unit h from the reference coordinates (the current position coordinates of the inner central position O of the U-shape) in accordance with the voice pattern to be decoded in advance.
Is converted into coordinate P data. For example, a voice input of “right 30 °” moves the reference coordinates to the right by a specified angle. Such a command is issued until the working unit h is located at a required position, and the coordinates P are set in the orbit coordinate setting means 10 by a voice determination command.
Alternatively, the moving amount may be fixed, and only the direction of the working unit h may be designated by voice input to convert the moving position of the working unit h into data of coordinates P. In the voice conversion unit 16,
Various audio patterns and movement amounts are associated with each other and stored in a library. In this case, for example, a voice input of “right” moves the reference coordinates to the right by a predetermined angle.
When the coordinates P are input by using the mouse 3 and the voice input device 5 together, the cursor displayed on the display unit 1 is moved to the vicinity of the target position using the mouse 3 and fine adjustment is performed by the voice input device 5. This makes it possible to easily and efficiently set the coordinates P.

【0016】また、力感覚入出力装置6は、棒を握って
操作するスティックバーや指を嵌めて指の動きを反映さ
せる器具等で構成されている。仮想ロボットモデルMの
動作可能範囲は、仮想ロボットモデルMの構造により決
められるので、その動作可能範囲が設定可能座標認識部
17に設定される。詳しくは、設定可能座標認識部17
においては、この力感覚入出力装置6により入力された
作業部hの位置データと作業部hの設定可能な軌道の座
標データとの比較を行ない、設定不能な座標データが入
力された際に、力感覚入出力装置6に触覚可能な触覚力
を出力する。例えば、表示部1に表示されているカーソ
ルを設定したい位置に移動させる際、仮想ロボットモデ
ルMが動作不能な位置にカーソルが位置させられ、ある
いは、ロボットモデルMが動作不能な位置にカーソルが
近づくと、設定可能座標認識部17に設定されている動
作可能範囲に基づいて、操作者に振動を与えて警告した
り、移動方向に対して負荷を与えて、不所望な座標Pが
設定されないようにしている。
The force sensation input / output device 6 is constituted by a stick bar operated by grasping a stick, a device for fitting a finger and reflecting the movement of the finger, and the like. Since the operable range of the virtual robot model M is determined by the structure of the virtual robot model M, the operable range is set in the settable coordinate recognition unit 17. For details, the settable coordinate recognition unit 17
In, the position data of the working unit h input by the force sensation input / output device 6 is compared with the coordinate data of the trajectory that can be set for the working unit h, and when the unsettable coordinate data is input, The tactile force that can be tactile is output to the force sensation input / output device 6. For example, when the cursor displayed on the display unit 1 is moved to a position to be set, the cursor is positioned at a position where the virtual robot model M cannot operate, or the cursor approaches a position where the robot model M cannot operate. And, based on the operable range set in the settable coordinate recognizing unit 17, a warning is given to the operator by giving a vibration or a load is given in the moving direction so that the undesired coordinates P are not set. I have to.

【0017】また、軌道座標設定手段10は、データ入
力部2からの指令に基づいて入力された複数の座標Pを
所定の軌道範囲毎にグループ分けするグループ分け手段
18を備えている。座標Pとともに設定可能なグループ
分け情報を付加することにより、座標Pを複数のグルー
プに分けて認識することができる。周辺物体設定手段1
1は、実空間において実ロボットRが動作する際の障害
物となる周辺物体モデルDを設定する。周辺物体モデル
Dは、ここでは複雑な形状物を想定しておらず、仮想空
間におけるXY平面またはYZ平面またはZX平面に平
行な平面から構成される立方体とした。図5示すよう
に、周辺物体モデルDは、原点座標からの座標d(x,
y,z)と体積変数である立方体の構成辺データ(x,
y,z)とからD(d,x,y,z)と定義される。
The trajectory coordinate setting means 10 includes a grouping means 18 for grouping a plurality of coordinates P inputted based on a command from the data input unit 2 for each predetermined trajectory range. By adding grouping information that can be set together with the coordinates P, the coordinates P can be divided into a plurality of groups and recognized. Peripheral object setting means 1
1 sets a peripheral object model D which is an obstacle when the real robot R operates in the real space. Here, the peripheral object model D is not assumed to have a complicated shape, and is a cube formed of a plane parallel to the XY plane, the YZ plane, or the ZX plane in the virtual space. As shown in FIG. 5, the peripheral object model D has coordinates d (x,
y, z) and the constituent edge data (x,
y (z, z) and D (d, x, y, z).

【0018】表示データ演算手段12は、初期データ設
定手段9、軌道座標設定手段10、周辺物体設定手段1
1に設定されたデータをグラフィックスデータである表
示データに変換する。表示データがCG表示手段14で
変換されることにより、仮想ロボットモデルM,座標P
及び周辺物体モデルDが表示部1に具現化される。CG
表示手段14は、軌道座標設定手段10で入力された座
標の位置を該座標の相対位置に応じて、表示部1にコン
ピュータグラフィックス表示させる機能を備えている。
詳しくは、座標Pの具現化において、単に図4で示すよ
うな点で表わすのではなく、例えば、座標Pの相対位置
に応じて遠近表示する。具体的には、座標Pが、図6に
示すように、単に点や×印のような2次元的に示される
だけでなく、CG表示手段14の機能により立方体や三
角錐や球のような3次元図形で表わすことができ、3次
元図形の大きさを座標Pの相対位置によって変えること
によって、遠近感を持たせて表示することができる。周
辺物体モデルDの具現化は、図5に示すように直方体表
示にて行なわれる。また、表示データ演算手段12は、
グループ分けされた座標Pの一括編集を可能にする一括
編集手段19を備えている。図6の(a)〜(c)に示
すように、グループ分けされた同一グループの座標P
(番号は、座標Pに動作順を説明するために付けてい
る。)は、同一図形種で表わすことができる。一括編集
手段19は、個々の座標Pの追加,削除、データの変更
を行なうとともに、座標範囲を指定して一括して削除,
追加したり、座標Pを線で結んで作業部hの軌跡を表示
させることができる。図6の(a)において、曲線Wで
囲まれた部分は、削除する範囲(動作順9から17)で
ある。削除した後に、図6の(b)に示すように、
(a)で削除した範囲(動作順8と18との間)に新た
なグループの6つの座標P群が追加された。追加された
座標Pの動作順は、動作順9から14とされる。従っ
て、(a)において動作順18だった座標Pは、動作順
が15に変更される。このように、一括編集手段19に
て、座標Pの削除,追加が行なわれると、自動的に座標
Pに付加されているポインタが変更され、動作順が調整
される。図6の(c)には、作業部hの軌跡を表示した
例が示される。
The display data calculating means 12 includes initial data setting means 9, trajectory coordinate setting means 10, peripheral object setting means 1.
The data set to 1 is converted into display data that is graphics data. The display data is converted by the CG display means 14 so that the virtual robot model M and the coordinates P
And the peripheral object model D are embodied on the display unit 1. CG
The display unit 14 has a function of displaying computer coordinates on the display unit 1 in accordance with the relative position of the coordinates input by the orbital coordinate setting unit 10.
More specifically, when the coordinates P are embodied, the coordinates P are not displayed simply as points as shown in FIG. Specifically, as shown in FIG. 6, the coordinates P are not only shown two-dimensionally, such as a point or an X mark, but also by a function of the CG display unit 14, such as a cube, a triangular pyramid, or a sphere. It can be represented by a three-dimensional figure, and can be displayed with a sense of perspective by changing the size of the three-dimensional figure according to the relative position of the coordinates P. The embodiment of the peripheral object model D is performed in a rectangular parallelepiped display as shown in FIG. Further, the display data calculation means 12
A batch editing unit 19 that enables batch editing of the grouped coordinates P is provided. As shown in FIGS. 6A to 6C, the coordinates P of the same group are classified.
(The numbers are given to the coordinates P to explain the order of operation.) Can be represented by the same graphic type. The batch editing means 19 adds and deletes individual coordinates P, changes data, and designates a coordinate range to collectively delete and delete.
The trajectory of the working unit h can be displayed by adding or connecting the coordinates P with a line. In FIG. 6A, a portion surrounded by a curve W is a range to be deleted (operation order from 9 to 17). After the deletion, as shown in FIG.
A new group of six coordinate P groups has been added to the range (between operation orders 8 and 18) deleted in (a). The operation order of the added coordinates P is from operation order 9 to 14. Therefore, the coordinate P, which was in the operation order 18 in (a), is changed to the operation order 15. As described above, when the coordinate P is deleted or added by the batch editing means 19, the pointer added to the coordinate P is automatically changed, and the operation order is adjusted. FIG. 6C shows an example in which the trajectory of the working unit h is displayed.

【0019】実作動パターン算出手段13は、仮想ロボ
ットモデルMを仮想空間に作成して動作させた結果に基
づいて、実ロボットRを動作させる実作動パターンを算
出する。実作動パターンは、実ロボットRを作動させる
ためのコマンド群からなり、仮想ロボットモデルMの一
連の動作に対応した動作コマンドを組み合わせて作成さ
れる。実作動パターン算出手段13で作成された実作動
パターンは、実ロボットRの制御装置に送信される。ま
た、実施の形態に係るロボットの動作教示装置において
は、図7に示すように、仮想ロボットモデルMを、同一
3次元座標系に複数(M1,M2)作成した際、データ
入力部2からの入力指令に基づいて各仮想ロボットモデ
ルM(M1,M2)の動作タイミングを設定するシーケ
ンサ設定手段20が備えられている。更にまた、実施の
形態に係るロボットの動作教示装置においては、表示手
段8に表示データをステレオ立体視させるためのステレ
オデータ変換部21が設けられている。そして、外部
に、ステレオデータ変換部21により変換されて表示部
1に表示された表示データをステレオ立体視させて見る
ための視認装置を備えている。詳しくは、例えば、ステ
レオデータ変換部21に、右目用の画像と左目用の画像
とを別々に作成する機能を設け、視認装置を左右の目に
夫々対峙し交互に開閉可能な一対のシャッタを備えた所
謂眼鏡タイプの開閉装置で構成している。
The actual operation pattern calculating means 13 calculates an actual operation pattern for operating the real robot R based on the result of creating and operating the virtual robot model M in the virtual space. The actual operation pattern includes a group of commands for operating the real robot R, and is created by combining operation commands corresponding to a series of operations of the virtual robot model M. The actual operation pattern created by the actual operation pattern calculation means 13 is transmitted to the control device of the actual robot R. Further, in the robot operation teaching device according to the embodiment, as shown in FIG. 7, when a plurality of (M1, M2) virtual robot models M are created in the same three-dimensional coordinate system, the data input unit 2 A sequencer setting means 20 for setting the operation timing of each virtual robot model M (M1, M2) based on an input command is provided. Further, in the robot operation teaching device according to the embodiment, the display means 8 is provided with a stereo data converter 21 for causing the display data to be stereoscopically viewed. Further, a visual recognition device for externally viewing the display data converted by the stereo data conversion unit 21 and displayed on the display unit 1 is provided. More specifically, for example, the stereo data conversion unit 21 is provided with a function of separately creating a right-eye image and a left-eye image, and a pair of shutters that allow the visual recognition device to face the left and right eyes and open and close alternately. It is configured with a so-called eyeglass type opening / closing device provided.

【0020】従って、この実施の形態に係る実ロボット
の動作教示装置によれば、図8に示す操作過程に従って
実ロボットRの動作教示が行なわれる。 (1)仮想ロボットモデルMの作成 実空間の実ロボットRを構成するアーム単位に分けて、
各アームAの長さと実ロボットRにおける位置とその位
置において当該アームAが動作する回転軸とを確認し、
アームAをその長さに対応する仮想アームTのデータに
変換する。仮想アームTのデータとして必要なものは、
(その名称,アームAの長さ,仮想アームの回転する回
転軸種,仮想アームTとのリンク座標)であり、簡易な
数値データである。長さは、実質的に動作する回転中心
からアームAの先端までの最短距離にしている。回転軸
種は、複数設けることができるが仮想空間を構成する
X,Y,Zの3軸に平行な軸にしている。仮想アームT
の回転中心の座標は、アームA1においてその回転中心
を原点座標とし、リンク座標となる他のアームA2〜A
4において投影比(実空間と仮想空間との相似比)を考
慮して求められる。このようにして求めた仮想アームT
のデータを、データ入力部2より入力し初期値データ設
定手段9に設定する。初期値データ設定手段9に設定さ
れた仮想アームTのデータは、表示データ演算手段12
にてグラフィックスデータである表示データとされ表示
部1で線分からなる仮想ロボットモデルMとして表示さ
れる。仮想ロボットモデルMの作成は、実ロボットRの
形態を動作機能のみを考慮して作成しているので、仮想
アームTである線分を組み合わせて表現すればよく、大
変容易に行なうことができる。また、仮想空間の原点を
仮想ロボットモデルM上(最底部の仮想アームTの基端
α)に置いたので、表示部1に表示される空間座標を例
えば原点が常時画面中央に位置するようにすることで、
仮想ロボットモデルMを常に画面内に位置付けておくこ
とができるので、仮想ロボットモデルMの動作の確認が
容易になる。
Therefore, according to the operation teaching device of the real robot according to the present embodiment, the operation teaching of the real robot R is performed according to the operation process shown in FIG. (1) Creation of virtual robot model M Divided into arm units that constitute real robot R in real space,
Confirm the length of each arm A, the position in the real robot R, and the rotation axis on which the arm A operates at that position,
The arm A is converted into virtual arm T data corresponding to its length. What is required as data of the virtual arm T is
(The name, the length of the arm A, the type of rotation axis on which the virtual arm rotates, and the link coordinates with the virtual arm T), which are simple numerical data. The length is set to the shortest distance from the center of rotation that substantially operates to the tip of the arm A. Although a plurality of rotation axis types can be provided, the rotation axis types are axes parallel to the three axes X, Y, and Z that constitute the virtual space. Virtual arm T
The coordinates of the rotation center of the other arms A2 to A2 which are the link coordinates in the arm A1 with the rotation center as the origin coordinates
4 in consideration of the projection ratio (similarity ratio between the real space and the virtual space). The virtual arm T obtained in this way
Is input from the data input unit 2 and set in the initial value data setting means 9. The data of the virtual arm T set in the initial value data setting means 9 is stored in the display data calculating means 12.
Are displayed as display data, which is graphics data, and are displayed on the display unit 1 as a virtual robot model M composed of line segments. The virtual robot model M is created by considering the form of the real robot R in consideration of only the motion function, and therefore, can be expressed very simply by combining the line segments that are the virtual arms T, and can be performed very easily. Further, since the origin of the virtual space is placed on the virtual robot model M (the base end α of the virtual arm T at the bottom), the spatial coordinates displayed on the display unit 1 are set such that the origin is always located at the center of the screen. by doing,
Since the virtual robot model M can always be positioned on the screen, it is easy to check the operation of the virtual robot model M.

【0021】(2)周辺物体モデルDの作成 実空間の実ロボットRの周辺に存在し、実ロボットRが
動作するうえで障害物となり得る物体を、仮想ロボット
モデルMと同一の仮想空間に作成する。実ロボットRの
周辺に存在する物体を、略直方体と擬制し仮想ロボット
モデルMに指定した原点からの座標と直方体の体積変数
(直方体の体積を求めるのに必要な変数)とからなる周
辺物体モデルDのデータに変換する。変換した周辺物体
モデルDのデータを、データ入力部2より入力し周辺物
体設定手段11に設定する。周辺物体設定手段11に設
定された物体データは、表示データ演算手段12にて表
示データとされ表示部1で直方体に表示される。このよ
うに、仮想ロボットモデルMと周辺物体モデルDとは、
仮想ロボットモデルMの一端を原点とする同一座標系で
表されるので、仮想ロボットモデルMと周辺物体モデル
Dとの相対的な位置決めが容易となる。 (3)軌道の座標の入力 空間座標に、仮想ロボットモデルMと周辺物体モデルD
を作成した後に、仮想ロボットモデルMの作業部hが動
く軌道の座標Pを設定する。実ロボットRに作業させた
いように、仮想ロボットモデルMの作業部hの軌道の座
標Pを、マウス3,音声入力装置5,力感覚入出力装置
6を用いて設定する。座標Pの設定は、マウス3や力感
覚入出力装置6を用いて設定したい位置の近傍にカーソ
ルを移動させて、音声入力装置5で微調整することで、
座標Pの設定を効率良く行なうことができる。ここで、
力感覚入出力装置6を用いれば、作業部hが動作不能な
座標Pを設定することがなくなるので、座標Pの設定効
率が向上させられる。座標Pの設定に際しては、設定し
た座標Pを、遠近感を有する3次元図形で表示部1に表
示することができるので、座標Pの設定が容易になる。
更に、座標Pには設定した順に作業部hの動作順を示す
ポインタが付加されるので、座標Pに動作順を与えさせ
る必要がない。
(2) Creation of Peripheral Object Model D An object that exists around the real robot R in the real space and can be an obstacle when the real robot R operates is created in the same virtual space as the virtual robot model M. I do. An object existing around the real robot R is simulated as a substantially rectangular parallelepiped, and a peripheral object model including coordinates from the origin specified in the virtual robot model M and volume variables of the rectangular parallelepiped (variables required for obtaining the volume of the rectangular parallelepiped) Convert to D data. The converted data of the peripheral object model D is input from the data input unit 2 and set in the peripheral object setting unit 11. The object data set in the peripheral object setting means 11 is converted into display data by the display data calculating means 12 and displayed on the display unit 1 in a rectangular parallelepiped. Thus, the virtual robot model M and the peripheral object model D
Since the virtual robot model M is represented by the same coordinate system with one end as the origin, relative positioning between the virtual robot model M and the peripheral object model D is facilitated. (3) Input of the coordinates of the trajectory The virtual robot model M and the peripheral object model D are input to the space coordinates.
Is created, the coordinates P of the trajectory on which the working unit h of the virtual robot model M moves are set. The coordinates P of the trajectory of the working unit h of the virtual robot model M are set using the mouse 3, the voice input device 5, and the force sense input / output device 6 so that the real robot R wants to work. The coordinates P can be set by moving the cursor near the position to be set using the mouse 3 or the force-sensing input / output device 6 and finely adjusting it with the voice input device 5.
The coordinate P can be set efficiently. here,
The use of the force sensation input / output device 6 eliminates the need to set the coordinates P at which the working unit h cannot operate, thereby improving the setting efficiency of the coordinates P. In setting the coordinates P, the set coordinates P can be displayed on the display unit 1 as a three-dimensional figure having a perspective, so that the setting of the coordinates P is facilitated.
Further, since a pointer indicating the operation order of the working unit h is added to the coordinates P in the set order, it is not necessary to give the coordinates P an operation order.

【0022】(4)座標Pの編集 仮想空間に設定した座標Pに対して、設定位置の編集
(変更,削除,追加,移動等)を行ない、設定した座標
の調整を行なう。例えば、一括編集手段19により設定
した座標Pにポインタ順に線を引き作業部hの動作する
軌跡を作成し、スムーズに動作できるかを確認する。こ
のとき、不所望な設定箇所がある場合には、一括編集手
段19により個々の座標Pごとに編集することができ
る。また、一括編集手段19により、所定範囲の座標P
を指定して一括して編集することができるので、座標P
の編集操作が容易になる。 (5)シミュレーションの実行 仮想空間にプロットした複数の座標P上を、仮想ロボッ
トモデルMの作業部hが順次移動するように仮想ロボッ
トモデルMを動作させ、実ロボットRの動作のシミュレ
ーションを行なう。シミュレーションの結果、動作結果
に満足した場合にはその動作データに基づいて実作動パ
ターンを作成することができる。一方、動作結果に不満
足の場合には、一括編集手段19にて座標Pの設定位置
の変更等を行ない、再度実ロボットRの動作のシミュレ
ーションを行なう。この場合、予め指定された始点及び
終点となる座標間でシミュレーション動作を行なわせる
と、所望とする動作範囲についてのみのシミュレーショ
ンを行なうことができるので、実ロボットの動作確認処
理が短縮される。
(4) Editing of coordinates P The coordinates P set in the virtual space are edited (changed, deleted, added, moved, etc.) to adjust the set coordinates. For example, a line is drawn at the coordinates P set by the batch editing means 19 in the order of pointers to create a trajectory in which the operation unit h operates, and it is confirmed whether the operation can be performed smoothly. At this time, if there is an undesired setting location, the batch editing means 19 can edit the individual coordinates P. Further, the coordinates P of the predetermined range are
Can be edited at once by specifying
Editing operation becomes easy. (5) Execution of Simulation The virtual robot model M is operated so that the working unit h of the virtual robot model M sequentially moves on the plurality of coordinates P plotted in the virtual space, and the operation of the real robot R is simulated. As a result of the simulation, when the operation result is satisfied, an actual operation pattern can be created based on the operation data. On the other hand, when the operation result is not satisfactory, the set position of the coordinates P is changed by the batch editing means 19, and the operation of the real robot R is simulated again. In this case, if the simulation operation is performed between the coordinates of the start point and the end point designated in advance, the simulation can be performed only in the desired operation range, and the operation confirmation processing of the actual robot is shortened.

【0023】(6)実作動パターンの作成 シミュレーションの結果に満足した場合には、シミュレ
ーションの動作に基づいて、実ロボットRの動作コマン
ドが組み合わされて実作動パターンが作成される。実作
動パターン算出手段13では、仮想ロボットモデルMの
作業部hが座標P上を移動する際の仮想ロボットモデル
Mの構造変化と、実ロボットRの動作コマンドとが対応
付けられており、仮想ロボットモデルMの動作に応じて
実ロボットRの実作動パターンが作成される。
(6) Creation of Actual Operation Pattern When the result of the simulation is satisfied, the actual operation pattern is created by combining the operation commands of the actual robot R based on the operation of the simulation. In the actual operation pattern calculating means 13, the structural change of the virtual robot model M when the working unit h of the virtual robot model M moves on the coordinates P is associated with the operation command of the real robot R. An actual operation pattern of the actual robot R is created according to the operation of the model M.

【0024】次に、図7に示すように、複数の仮想ロボ
ットモデルMを用いた場合の実ロボットの動作教示する
場合について説明する。仮想ロボットモデルM1,M2
と周辺物体モデルDは、前述の仮想ロボットモデルMと
同様に作成される。但し、原点座標は、仮想ロボットモ
デルM1の基端αとされている。仮想ロボットモデルM
1,M2の動作は、座標Pにおいて動作対象とする仮想
ロボットモデルM1,M2が決められる。ここでは、外
部から与えられる所定の制御信号X1〜X8の状態に応
じて、動作対象となる仮想ロボットモデルM1,M2が
切換えられる。図7においては、例えば、座標P(動作
順5)において制御信号X1〜X8の状態がラダー図で
示される条件に適合した場合に仮想ロボットモデルM2
が動作可能にされることを示している。このように、座
標Pにおいて動作対象とする仮想ロボットモデルM1,
M2を制御することができるので、動作対象とする仮想
ロボットモデルM1,M2の制御を容易にすることがで
きる。更にまた、上記のシミュレーションの際等に、表
示手段8に表示データをステレオ表示し、視認装置で立
体視すれば、即ち、例えば、表示手段8に右目用の画像
と左目用の画像とを別々に作成し、左右の目に夫々対峙
し交互に開閉可能な一対のシャッタを備えた所謂眼鏡タ
イプの視認装置でこれを立体視すれば、仮想空間の3次
元表示をよりリアルに知覚することができるようにな
る。
Next, as shown in FIG. 7, a case will be described in which the operation of a real robot is taught when a plurality of virtual robot models M are used. Virtual robot model M1, M2
And the peripheral object model D are created in the same manner as the virtual robot model M described above. However, the origin coordinates are set to the base end α of the virtual robot model M1. Virtual robot model M
For the operations of M1 and M2, virtual robot models M1 and M2 to be operated at coordinates P are determined. Here, the virtual robot models M1 and M2 to be operated are switched according to the states of predetermined control signals X1 to X8 given from the outside. In FIG. 7, for example, when the state of the control signals X1 to X8 at the coordinate P (operation order 5) meets the condition shown in the ladder diagram, the virtual robot model M2
Are enabled. As described above, the virtual robot models M1,
Since M2 can be controlled, it is possible to easily control the virtual robot models M1 and M2 to be operated. Furthermore, in the case of the above-mentioned simulation or the like, if the display data is stereoscopically displayed on the display means 8 and stereoscopically viewed by the visual recognition device, for example, the image for the right eye and the image for the left eye are separately displayed on the display means 8. And a stereoscopic view using a so-called spectacle-type viewing device provided with a pair of shutters that can be opened and closed alternately while facing each other with the left and right eyes, it is possible to more realistically perceive the three-dimensional display of the virtual space. become able to.

【0025】尚、上記実施の形態に係るロボットの動作
教示装置において、アームモデルAを線分で表わした
が、所望の体積を持たせた直方体形状にしてもよい。更
に、仮想空間の仮想ロボットモデルMの動作シミュレー
ションを行なった後に、その動作結果を実空間の実ロボ
ットRに反映させているが、仮想ロボットモデルMの動
作シミュレーションを行ないながら同時に実ロボットR
を動かすようにしてリアルタイムに実ロボットRの動作
教示を行なうこともできる。
In the operation teaching apparatus for a robot according to the above embodiment, the arm model A is represented by a line segment, but may be a rectangular parallelepiped having a desired volume. Further, after the operation simulation of the virtual robot model M in the virtual space is performed, the operation result is reflected on the real robot R in the real space.
, The operation of the real robot R can be taught in real time.

【0026】[0026]

【発明の効果】以上説明したように、本発明のロボット
の動作教示装置によれば、仮想ロボットモデルを、実空
間の実ロボットを構成するアーム単位に分けて、各アー
ムの長さと実ロボットにおける位置とその位置において
アームが動作する回転軸とを確認し、アームの長さに対
応するアームモデルのデータに変換し、実ロボットの形
態を動作機能のみを考慮して作成できるので、仮想ロボ
ットモデルを簡易な形態のアームモデルを組み合わせて
表現でき、そのため、仮想ロボットモデルの作成を容易
に行なうことができ、実ロボットの動作教示を極めて容
易に行うことができるようになる。また、仮想アームの
初期データを、その名称,アームの長さ,基端の回転す
る回転軸種,隣接する仮想アームとのリンク座標位置を
備えて規定した場合には、必要最小限の情報から容易に
仮想ロボットモデルを作成することができる。更に、軌
道座標設定手段に、作業部の軌道の座標に、作業部の動
作順を示すポインタを規定する機能を備えた場合には、
座標入力した順に仮想ロボットモデルの作業部を動作さ
せることができるので、軌道の座標の入力作業が簡略化
される。更にまた、表示手段に、軌道座標設定手段で入
力された座標の位置を座標の相対位置に応じて、表示部
にグラフィックス表示させるCG表示手段を備えた場合
には、仮想空間における座標間の位置関係を容易に把握
することができるとともに、軌道の座標の入力作業をよ
り容易に行なうことができる。
As described above, according to the robot operation teaching apparatus of the present invention, the virtual robot model is divided into the arm units constituting the real robot in the real space, and the length of each arm and the actual robot The position and the rotation axis on which the arm operates at that position are checked, converted to arm model data corresponding to the arm length, and the form of the real robot can be created in consideration of only the operation function, so the virtual robot model Can be expressed in combination with a simple form of an arm model. Therefore, it is possible to easily create a virtual robot model, and to very easily teach the operation of a real robot. If the initial data of the virtual arm is defined with its name, arm length, rotation axis type of the base end, and link coordinate position with the adjacent virtual arm, the minimum data is used. A virtual robot model can be easily created. Further, when the orbit coordinate setting means has a function of defining a pointer indicating the operation order of the working unit at the coordinates of the orbit of the working unit,
Since the working unit of the virtual robot model can be operated in the order of inputting the coordinates, the input operation of the coordinates of the trajectory is simplified. Furthermore, when the display means is provided with CG display means for displaying the position of the coordinates input by the orbit coordinate setting means in a graphic manner on the display unit in accordance with the relative position of the coordinates, the CG display means in the virtual space The positional relationship can be easily grasped, and the input operation of the coordinates of the trajectory can be performed more easily.

【0027】また、軌道座標設定手段に、データ入力部
からの指令に基づいて入力された複数の座標を所定の軌
道範囲毎にグループ分けするグループ分け手段を備え、
表示データ演算手段に上記データ入力部からの指令に基
づいて該グループ分けされた座標の一括編集を可能にす
る一括編集手段を備えた場合には、グループ単位での座
標の編集処理等を可能にするので、軌道の座標の入力作
業性をより向上させることができる。更に、表示手段
に、表示部において作業部が作業部の軌道の座標上を動
くように、仮想ロボットモデルによるシミュレーション
動作を行なわせるシミュレーション手段を備えた場合に
は、実ロボットを実際に動作させることなく、仮想空間
にて仮想ロボットモデルで動作確認を容易に行なうこと
ができるので、短時間で種々の動作確認を行なうことが
可能になり動作教示の操作性を向上することができる。
更にまた、シミュレーション手段に、予め指定された始
点及び終点となる座標間でシミュレーション動作を行な
わせる機能を備えた場合には、動作確認処理時間が短縮
されるので、動作教示の操作性を向上することができ
る。
[0027] The orbit coordinate setting means includes grouping means for grouping a plurality of coordinates input based on a command from the data input unit into predetermined orbit ranges.
In the case where the display data calculation means is provided with batch editing means for enabling batch editing of the grouped coordinates based on a command from the data input unit, it is possible to perform coordinate editing processing in group units and the like. Therefore, the workability of inputting the coordinates of the trajectory can be further improved. Further, when the display means is provided with a simulation means for performing a simulation operation using a virtual robot model so that the work section moves on the coordinates of the trajectory of the work section on the display section, the actual robot is actually operated. In addition, since the operation check can be easily performed with the virtual robot model in the virtual space, various operation checks can be performed in a short time, and the operability of the operation teaching can be improved.
Furthermore, when the simulation means is provided with a function of performing a simulation operation between coordinates that are designated as a start point and an end point, the operation confirmation processing time is shortened, and the operability of the operation teaching is improved. be able to.

【0028】また、データ入力部を、音声入力装置を備
えて構成し、音声入力装置により入力された音声データ
を作業部の軌道の座標データに変換して軌道座標設定手
段に供給する音声変換部を備えた場合には、入力操作の
高速化を図ることができる。更に、データ入力部を、力
感覚入出力装置を備えて構成し、力感覚入出力装置によ
り入力された作業部の位置データと作業部の設定可能な
軌道の座標データとの比較を行ない、設定不能な座標デ
ータが入力された際に、力感覚入出力装置に触覚可能な
触覚力を出力する設定可能座標認識部を備えた場合に
は、入力操作時に入力可能位置を確認できるので、デー
タを正確に設定でき、入力作業効率を向上させることが
できる。更にまた、表示手段を、表示データをステレオ
立体視させるためのステレオデータ変換部を備えて構成
し、ステレオデータ変換部により変換されて表示部に表
示された表示データをステレオ立体視させて見るための
視認装置を備えた場合には、軌道の座標の相対位置関係
をより正しく認識でき、入力操作の精度を向上すること
ができる。また、実ロボットの回りに在る物体を、周辺
物体モデルとしてデータ入力部から入力され表示手段に
よって表示させられる仮想ロボットモデルと同様の3次
元座標系によって表示させるため、仮想ロボットモデル
の所定位置からの座標と、物体の体積変数とで作成する
周辺物体設定手段を備えた場合には、仮想ロボットモデ
ルと周辺物体モデルとの相対的な位置決めが容易となる
ので、入力作業効率を向上させることができる。更に、
仮想ロボットモデルを、同一3次元座標系に複数作成し
た際、データ入力部からの入力指令に基づいて各仮想ロ
ボットモデルの動作タイミングを設定するシーケンサ設
定手段を備えた場合には、同一の座標系にて複数の仮想
ロボットモデルを作成して、これらの仮想ロボットモデ
ルが動作するための動作タイミングを設定して動作制御
を行ない、一連の作業をさせ、動作確認をして、複数の
実ロボットの動作教示を行なうことができる。
Also, the data input unit is provided with a voice input device, and converts the voice data input by the voice input device into the coordinate data of the trajectory of the working unit and supplies it to the trajectory coordinate setting means. In the case where the input device is provided, the speed of the input operation can be increased. Further, the data input unit is provided with a force sense input / output device, and the position data of the work unit input by the force sense input / output device is compared with the coordinate data of the trajectory that can be set for the work unit, and the setting is performed. If a settable coordinate recognizing unit that outputs tactile force that can be tactile to the force sensor input / output device is provided when impossible coordinate data is input, the inputtable position can be confirmed at the time of input operation. The setting can be made accurately, and the input work efficiency can be improved. Still further, the display means is provided with a stereo data converter for causing the display data to be stereoscopically viewed, so that the display data converted by the stereo data converter and displayed on the display unit is viewed in a stereoscopic manner. When the visual recognition device is provided, the relative positional relationship between the coordinates of the trajectory can be more correctly recognized, and the accuracy of the input operation can be improved. In addition, in order to display an object around the real robot in a three-dimensional coordinate system similar to the virtual robot model input from the data input unit and displayed by the display unit as a peripheral object model, a predetermined position of the virtual robot model is used. In the case where a peripheral object setting means that is created using the coordinates of the object and the volume variable of the object is provided, the relative positioning between the virtual robot model and the peripheral object model becomes easy, so that the input work efficiency can be improved. it can. Furthermore,
When a plurality of virtual robot models are created in the same three-dimensional coordinate system, if sequencer setting means for setting the operation timing of each virtual robot model based on an input command from the data input unit is provided, the same coordinate system is used. Creates a plurality of virtual robot models, sets the operation timing for operating these virtual robot models, performs operation control, performs a series of operations, confirms the operation, and Operation teaching can be performed.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施の形態に係るロボットの動作教示
装置を示すブロック構成図である。
FIG. 1 is a block diagram showing a robot operation teaching device according to an embodiment of the present invention.

【図2】本発明の実施の形態に係るロボットの動作教示
装置が動作教示する実ロボットの一例を示す図である。
FIG. 2 is a diagram showing an example of a real robot for teaching operation by the robot operation teaching device according to the embodiment of the present invention.

【図3】本発明の実施の形態に係るロボットの動作教示
装置で作成される仮想ロボットモデルを構成する仮想ア
ームの構成を示す図である。
FIG. 3 is a diagram showing a configuration of a virtual arm forming a virtual robot model created by the robot operation teaching device according to the embodiment of the present invention;

【図4】本発明の実施の形態に係るロボットの動作教示
装置で仮想ロボットモデルを動作させるための軌道点の
入力状態を示す図である。
FIG. 4 is a diagram showing an input state of a trajectory point for operating a virtual robot model with the robot operation teaching device according to the embodiment of the present invention;

【図5】本発明の実施の形態に係るロボットの動作教示
装置で作成される周辺物体モデルの入力例を示す図であ
る。
FIG. 5 is a diagram illustrating an input example of a peripheral object model created by the robot operation teaching device according to the embodiment of the present invention;

【図6】本発明の実施の形態に係るロボットの動作教示
装置で設定した軌道の座標の編集例を示す図である。
FIG. 6 is a diagram showing an example of editing the coordinates of a trajectory set by the robot operation teaching device according to the embodiment of the present invention;

【図7】本発明の実施の形態に係るロボットの動作教示
装置において複数の仮想ロボットモデルを制御する一例
を示す図である。
FIG. 7 is a diagram illustrating an example of controlling a plurality of virtual robot models in the robot operation teaching device according to the embodiment of the present invention.

【図8】本発明の実施の形態に係るロボットの動作教示
装置での処理過程を示す工程図である。
FIG. 8 is a process chart showing a process in the robot operation teaching device according to the embodiment of the present invention.

【符号の説明】[Explanation of symbols]

S ロボットの動作教示装置 M 仮想ロボットモデル R 実ロボット A(A1〜A4) アーム H 作業部 T(T1〜T4) 仮想アーム h 作業部 α 基端 β 先端 P 座標 1 表示部 2 データ入力部 3 マウス 4 キーボード 5 音声入力装置 6 力感覚入出力装置 7 コンピュータ本体 8 表示手段 9 初期データ設定手段 10 軌道座標設定手段 11 周辺物体設定手段 12 表示データ演算手段 13 実作動パターン算出手段 14 CG表示手段 15 シミュレーション手段 16 音声変換部 17 設定可能座標認識部 18 グループ分け手段 19 一括編集手段 20 シーケンサ設定手段 21 ステレオデータ変換部 S Robot operation teaching device M Virtual robot model R Real robot A (A1 to A4) Arm H Working unit T (T1 to T4) Virtual arm h Working unit α Base end β Tip P coordinate 1 Display unit 2 Data input unit 3 Mouse Reference Signs List 4 keyboard 5 voice input device 6 force sense input / output device 7 computer body 8 display means 9 initial data setting means 10 orbit coordinate setting means 11 peripheral object setting means 12 display data calculation means 13 actual operation pattern calculation means 14 CG display means 15 simulation Means 16 Voice conversion unit 17 Settable coordinate recognition unit 18 Grouping means 19 Batch editing means 20 Sequencer setting means 21 Stereo data conversion unit

Claims (12)

【特許請求の範囲】[Claims] 【請求項1】 回転中心を有したアームを順次連結して
構成され、最後位のアーム先端に作業部を有した実ロボ
ットの動作を教示するロボットの動作教示装置におい
て、 表示部と、データ入力部と、 上記実ロボットの回転中心に対応した基端を有し、上記
実ロボットの各アームの長さに対応した長さを有すると
ともに、基端を中心にX,Y,Z軸の3軸回りに回転可
能に設けられ、先端に他の基端が連結可能な仮想アーム
を用いて構成されかつ、該仮想アームを上記実ロボット
に対応させて連結した仮想ロボットモデルを上記表示部
に3次元座標系によって表示させる表示手段と、 上記データ入力部から入力され、上記表示手段によって
表示させられる仮想ロボットモデルを作成するための仮
想アームの初期データを設定する初期データ設定手段
と、 上記データ入力部から入力され、上記作業部の軌道の座
標を設定する軌道座標設定手段と、 上記初期データ設定手段の設定データ及び軌道座標設定
手段で設定された上記作業部の軌道の座標に基づいて、
上記表示手段によって表示させられる仮想ロボットモデ
ルの表示データを演算する表示データ演算手段と、 該表示データ演算手段の表示データに基づいて、上記実
ロボットを作動させる実作動パターンを算出する実作動
パターン算出手段とを備えて構成したことを特徴とする
ロボットの動作教示装置。
1. A robot operation teaching device configured to sequentially connect arms having a center of rotation and teaching the operation of a real robot having a working unit at the end of a last arm, comprising: a display unit; And a base end corresponding to the rotation center of the real robot, a length corresponding to the length of each arm of the real robot, and three axes of X, Y, and Z axes centered on the base end. A virtual robot model which is provided so as to be rotatable around and is connected to another virtual end at the distal end thereof and which is connected to the virtual arm in correspondence with the real robot is displayed on the display unit in a three-dimensional manner. Display means for displaying in a coordinate system; and initial data setting for setting initial data of a virtual arm input from the data input unit and for creating a virtual robot model to be displayed by the display means Means, a trajectory coordinate setting means input from the data input unit and setting the coordinates of the trajectory of the working unit; and setting data of the initial data setting means and the trajectory of the working unit set by the trajectory coordinate setting means. Based on the coordinates,
Display data calculation means for calculating display data of a virtual robot model displayed by the display means; and actual operation pattern calculation for calculating an actual operation pattern for operating the real robot based on the display data of the display data calculation means. And an operation teaching device for a robot.
【請求項2】 上記仮想アームの初期データを、その名
称,アームの長さ,基端が回転する回転軸種,隣接する
仮想アームとのリンク座標位置を備えて規定したことを
特徴とする請求項1記載のロボットの動作教示装置。
2. The method according to claim 1, wherein the initial data of the virtual arm is defined by including a name, a length of the arm, a type of a rotating shaft whose base end rotates, and a coordinate position of a link with an adjacent virtual arm. Item 2. An operation teaching device for a robot according to Item 1.
【請求項3】 上記軌道座標設定手段に、上記作業部の
軌道の座標に、作業部の動作順を示すポインタを規定す
る機能を備えたことを特徴とする請求項1または2記載
のロボットの動作教示装置。
3. The robot according to claim 1, wherein the trajectory coordinate setting means has a function of defining a pointer indicating an operation order of the working unit at the coordinates of the trajectory of the working unit. Motion teaching device.
【請求項4】 上記表示手段に、上記軌道座標設定手段
で入力された座標の位置を該座標の相対位置に応じて、
上記表示部にコンピュータグラフィックス表示させるC
G表示手段を備えたことを特徴とする請求項1,2また
は3記載のロボットの動作教示装置。
4. The display means displays the position of the coordinates input by the orbit coordinate setting means in accordance with the relative position of the coordinates.
C to display computer graphics on the display unit
4. The operation teaching device for a robot according to claim 1, further comprising a G display unit.
【請求項5】 上記軌道座標設定手段に、上記データ入
力部からの指令に基づいて上記入力された複数の座標を
所定の軌道範囲毎にグループ分けするグループ分け手段
を備え、上記表示データ演算手段に上記データ入力部か
らの指令に基づいて該グループ分けされた座標の一括編
集を可能にする一括編集手段を備えたことを特徴とする
請求項1,2,3または4記載のロボットの動作教示装
置。
5. The display data calculating means, wherein the orbit coordinate setting means includes grouping means for grouping the plurality of inputted coordinates into predetermined orbit ranges based on a command from the data input unit. 5. The operation teaching of a robot according to claim 1, further comprising batch editing means for enabling batch editing of said grouped coordinates based on a command from said data input unit. apparatus.
【請求項6】 上記表示手段に、上記表示部において上
記作業部が上記作業部の軌道の座標上を動くように、上
記仮想ロボットモデルによるシミュレーション動作を行
なわせるシミュレーション手段を備えたことを特徴とす
る請求項1,2,3,4または5記載のロボットの動作
教示装置。
6. The display device according to claim 1, further comprising: a simulation unit configured to perform a simulation operation using the virtual robot model such that the work unit moves on the coordinates of the trajectory of the work unit on the display unit. The robot operation teaching device according to claim 1, 2, 3, 4, or 5.
【請求項7】 上記シミュレーション手段に、予め指定
された始点及び終点となる座標間でシミュレーション動
作を行なわせる機能を備えたことを特徴とする請求項6
記載のロボットの動作教示装置。
7. A simulation device according to claim 6, wherein said simulation means has a function of performing a simulation operation between coordinates designated as a start point and an end point designated in advance.
An operation teaching device for a robot as described in the above.
【請求項8】 上記データ入力部を、音声入力装置を備
えて構成し、該音声入力装置により入力された音声デー
タを上記作業部の軌道の座標データに変換して軌道座標
設定手段に供給する音声変換部を備えたことを特徴とす
る請求項1,2,3,4,5,6または7記載のロボッ
トの動作教示装置。
8. The data input unit includes a voice input device, and converts voice data input by the voice input device into coordinate data of a trajectory of the work unit and supplies the data to trajectory coordinate setting means. 8. The robot operation teaching device according to claim 1, further comprising a voice conversion unit.
【請求項9】 上記データ入力部を、力感覚入出力装置
を備えて構成し、力感覚入出力装置により入力された作
業部の位置データと上記作業部の設定可能な軌道の座標
データとの比較を行ない、設定不能な座標データが入力
された際に、力感覚入出力装置に触覚可能な触覚力を出
力する設定可能座標認識部を備えたことを特徴とする請
求項1,2,3,4,5,6,7または8記載のロボッ
トの動作教示装置。
9. The data input unit includes a force sensation input / output device, and stores the position data of the work unit input by the force sensation input / output device and the coordinate data of a trajectory that can be set for the work unit. 4. A settable coordinate recognizing section for performing a comparison and outputting a tactile force capable of being tactile to a force sense input / output device when non-settable coordinate data is input. , 4, 5, 6, 7 or 8.
【請求項10】 上記表示手段を、上記表示データをス
テレオ立体視させるためのステレオデータ変換部を備え
て構成し、該ステレオデータ変換部により変換されて表
示部に表示された表示データをステレオ立体視させて見
るための視認装置を備えたことを特徴とする請求項1,
2,3,4,5,6,7,8または9記載のロボットの
動作教示装置。
10. The display means includes a stereo data converter for causing the display data to be stereoscopically viewed, and converts display data converted by the stereo data converter and displayed on the display unit into a stereoscopic image. A visual recognition device for allowing the user to view the image is provided.
9. The operation teaching device for a robot according to 2, 3, 4, 5, 6, 7, 8, or 9.
【請求項11】 上記実ロボットの回りに在る物体を、
周辺物体モデルとして上記表示手段によって表示させら
れる仮想ロボットモデルと同様の3次元座標系によって
表示させるため、上記データ入力部からの入力により上
記仮想ロボットモデルの所定位置からの座標と該物体の
体積変数とを設定する周辺物体設定手段を備えたことを
特徴とする請求項1,2,3,4,5,6,7,8,9
または10記載のロボットの動作教示装置。
11. An object around the real robot,
In order to display as a peripheral object model in the same three-dimensional coordinate system as the virtual robot model displayed by the display means, the coordinates from a predetermined position of the virtual robot model and the volume variable of the object are input by the data input unit. 10. A peripheral object setting means for setting the following: 1., 2, 3, 4, 5, 6, 7, 8, 9
Or the robot operation teaching device according to 10.
【請求項12】 上記仮想ロボットモデルを、同一3次
元座標系に複数作成した際、上記データ入力部からの入
力指令に基づいて各仮想ロボットモデルの動作タイミン
グを設定するシーケンサ設定手段を備えたことを特徴と
する請求項1,2,3,4,5,6,7,8,9,10
または11記載のロボットの動作教示装置。
12. A sequencer setting means for setting operation timing of each virtual robot model based on an input command from the data input unit when a plurality of the virtual robot models are created in the same three-dimensional coordinate system. Claims 1, 2, 3, 4, 5, 6, 7, 8, 9, 10
Or the robot operation teaching device according to 11.
JP2000023067A 2000-01-31 2000-01-31 Operation teaching device for robot Pending JP2001216015A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000023067A JP2001216015A (en) 2000-01-31 2000-01-31 Operation teaching device for robot

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000023067A JP2001216015A (en) 2000-01-31 2000-01-31 Operation teaching device for robot

Publications (1)

Publication Number Publication Date
JP2001216015A true JP2001216015A (en) 2001-08-10

Family

ID=18549283

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000023067A Pending JP2001216015A (en) 2000-01-31 2000-01-31 Operation teaching device for robot

Country Status (1)

Country Link
JP (1) JP2001216015A (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007511839A (en) * 2003-11-22 2007-05-10 バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフト Apparatus and method for programming an industrial robot
JP2009070078A (en) * 2007-09-12 2009-04-02 Fanuc Ltd Robot programming device for palletizing operation by robot
WO2011114778A1 (en) * 2010-03-15 2011-09-22 オムロン株式会社 Display device, display method, program, virtual mechanism library, and computer-readable recording medium
JP2012035348A (en) * 2010-08-04 2012-02-23 Spring:Kk Program creation support system, and computer program for the same
CN102736555A (en) * 2011-04-11 2012-10-17 发那科株式会社 Tool path display apparatus for machine tool
CN104802173A (en) * 2014-01-23 2015-07-29 发那科株式会社 Data generation device for vision sensor and detection simulation system
WO2015186508A1 (en) * 2014-06-06 2015-12-10 ナブテスコ株式会社 Teaching data-generating device and teaching data-generating method for work robot
CN108356817A (en) * 2018-01-12 2018-08-03 宁波易拓智谱机器人有限公司 A kind of teaching method based on 3D models
CN108356796A (en) * 2018-01-12 2018-08-03 宁波易拓智谱机器人有限公司 A kind of teaching system being adapted to a variety of industrial robots
JP2018134703A (en) * 2017-02-21 2018-08-30 株式会社安川電機 Robot simulator, robot system, and simulation method
CN109719703A (en) * 2017-10-31 2019-05-07 发那科株式会社 The robot teaching apparatus of the positional shift of warning or correcting taught point or teaching line
WO2023106354A1 (en) * 2021-12-07 2023-06-15 川崎重工業株式会社 Teaching system, robot system, teaching method for robot, and teaching program for robot
WO2023106353A1 (en) * 2021-12-07 2023-06-15 川崎重工業株式会社 Teaching system, robot system, robot teaching method, and robot teaching program

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62282881A (en) * 1986-05-28 1987-12-08 日本電気株式会社 Robot operation teaching system
JPH01111208A (en) * 1987-10-26 1989-04-27 Hitachi Ltd Robot teaching device
JPH01125605A (en) * 1987-11-10 1989-05-18 Yamazaki Mazak Corp Numerically controlled tool machine
JPH0421105A (en) * 1990-05-16 1992-01-24 Hitachi Ltd Stereoscopic teaching device for manipulator
JPH09160626A (en) * 1995-12-11 1997-06-20 Oki Electric Ind Co Ltd Nc data generation system
JPH09244724A (en) * 1996-03-11 1997-09-19 Asahi Sanac Kk Method and device for generating operation program for robot
JPH118498A (en) * 1997-06-17 1999-01-12 Matsushita Electric Ind Co Ltd Editing method of insertion hole position data

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS62282881A (en) * 1986-05-28 1987-12-08 日本電気株式会社 Robot operation teaching system
JPH01111208A (en) * 1987-10-26 1989-04-27 Hitachi Ltd Robot teaching device
JPH01125605A (en) * 1987-11-10 1989-05-18 Yamazaki Mazak Corp Numerically controlled tool machine
JPH0421105A (en) * 1990-05-16 1992-01-24 Hitachi Ltd Stereoscopic teaching device for manipulator
JPH09160626A (en) * 1995-12-11 1997-06-20 Oki Electric Ind Co Ltd Nc data generation system
JPH09244724A (en) * 1996-03-11 1997-09-19 Asahi Sanac Kk Method and device for generating operation program for robot
JPH118498A (en) * 1997-06-17 1999-01-12 Matsushita Electric Ind Co Ltd Editing method of insertion hole position data

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007511839A (en) * 2003-11-22 2007-05-10 バイエリッシェ モートーレン ウエルケ アクチエンゲゼルシャフト Apparatus and method for programming an industrial robot
US8644984B2 (en) 2007-09-12 2014-02-04 Fanuc Ltd Robot programming device for palletizing operation by robot
JP2009070078A (en) * 2007-09-12 2009-04-02 Fanuc Ltd Robot programming device for palletizing operation by robot
CN102804091B (en) * 2010-03-15 2015-12-09 欧姆龙株式会社 Display device, display packing, program, dummy mechanical structure storehouse and computer readable recording medium storing program for performing
CN102804091A (en) * 2010-03-15 2012-11-28 欧姆龙株式会社 Display device, display method, program, virtual mechanism library, and computer-readable recording medium
JP2011192019A (en) * 2010-03-15 2011-09-29 Omron Corp Display device, display method, program, virtual mechanism library, and computer-readable recording medium
US9507339B2 (en) 2010-03-15 2016-11-29 Omron Corporation Display device, display method, program, virtual mechanism library, and computer readable recording medium
WO2011114778A1 (en) * 2010-03-15 2011-09-22 オムロン株式会社 Display device, display method, program, virtual mechanism library, and computer-readable recording medium
JP2012035348A (en) * 2010-08-04 2012-02-23 Spring:Kk Program creation support system, and computer program for the same
CN102736555A (en) * 2011-04-11 2012-10-17 发那科株式会社 Tool path display apparatus for machine tool
JP2012221309A (en) * 2011-04-11 2012-11-12 Fanuc Ltd Tool orbit display device for machine tool
DE102012103075B4 (en) * 2011-04-11 2014-08-28 Fanuc Corporation Toolpath presentation device for machine tools
US9409272B2 (en) 2011-04-11 2016-08-09 Fanuc Corporation Tool path display apparatus for machine tool
CN104802173A (en) * 2014-01-23 2015-07-29 发那科株式会社 Data generation device for vision sensor and detection simulation system
JP2015136770A (en) * 2014-01-23 2015-07-30 ファナック株式会社 Data creation system of visual sensor, and detection simulation system
US9519736B2 (en) 2014-01-23 2016-12-13 Fanuc Corporation Data generation device for vision sensor and detection simulation system
JP2015229234A (en) * 2014-06-06 2015-12-21 ナブテスコ株式会社 Device and method for creating teaching data of working robot
WO2015186508A1 (en) * 2014-06-06 2015-12-10 ナブテスコ株式会社 Teaching data-generating device and teaching data-generating method for work robot
JP2018134703A (en) * 2017-02-21 2018-08-30 株式会社安川電機 Robot simulator, robot system, and simulation method
US11213945B2 (en) 2017-02-21 2022-01-04 Kabushiki Kaisha Yaskawa Denki Robot simulator, robot system and simulation method
JP6998660B2 (en) 2017-02-21 2022-01-18 株式会社安川電機 Robot simulator, robot system and simulation method
CN109719703A (en) * 2017-10-31 2019-05-07 发那科株式会社 The robot teaching apparatus of the positional shift of warning or correcting taught point or teaching line
JP2019081230A (en) * 2017-10-31 2019-05-30 ファナック株式会社 Robot teaching device warning or modifying positional deviation of teaching point or teaching line
US10661440B2 (en) 2017-10-31 2020-05-26 Fanuc Corporation Robot teaching device for warning or correcting positional deviation of teaching points or teaching line
CN109719703B (en) * 2017-10-31 2020-07-03 发那科株式会社 Robot teaching device for warning or correcting positional deviation of teaching point or teaching line
CN108356817A (en) * 2018-01-12 2018-08-03 宁波易拓智谱机器人有限公司 A kind of teaching method based on 3D models
CN108356796A (en) * 2018-01-12 2018-08-03 宁波易拓智谱机器人有限公司 A kind of teaching system being adapted to a variety of industrial robots
WO2023106354A1 (en) * 2021-12-07 2023-06-15 川崎重工業株式会社 Teaching system, robot system, teaching method for robot, and teaching program for robot
WO2023106353A1 (en) * 2021-12-07 2023-06-15 川崎重工業株式会社 Teaching system, robot system, robot teaching method, and robot teaching program

Similar Documents

Publication Publication Date Title
JP6810093B2 (en) Robot simulation device
CN110603509B (en) Joint of direct and indirect interactions in a computer-mediated reality environment
US5973678A (en) Method and system for manipulating a three-dimensional object utilizing a force feedback interface
Fiorentino et al. Spacedesign: A mixed reality workspace for aesthetic industrial design
US5670987A (en) Virtual manipulating apparatus and method
US7536655B2 (en) Three-dimensional-model processing apparatus, three-dimensional-model processing method, and computer program
US10751877B2 (en) Industrial robot training using mixed reality
US8203529B2 (en) Tactile input/output device and system to represent and manipulate computer-generated surfaces
US6801187B2 (en) System and method of interactive evaluation and manipulation of a geometric model
WO2007091008A1 (en) Controlling the motion of virtual objects in a virtual space
JPH0756971A (en) Method and device for generating assembling drawing
JP2001216015A (en) Operation teaching device for robot
JPS6179589A (en) Operating device for robot
TWI241533B (en) Methods and systems for interaction with three-dimensional computer models
Roach et al. Computer aided drafting virtual reality interface
Pausch et al. Tailor: creating custom user interfaces based on gesture
US7289121B1 (en) System for creating and modifying curves and surfaces
Springer et al. State-of-the-art virtual reality hardware for computer-aided design
JPS60195613A (en) Robot teaching device with verifying function
CA2496773A1 (en) Interaction with a three-dimensional computer model
JP3198303B2 (en) Three-dimensional structure manufacturing system
JPS62269221A (en) Three-dimensional coordinate indicating system
WO2000031690A1 (en) Method and device for creating and modifying digital 3d models
JP5595948B2 (en) Object correction processing apparatus, method and program
Kahaner Virtual reality in Japan