JP2019111588A - Robot system, information processor, and program - Google Patents

Robot system, information processor, and program Download PDF

Info

Publication number
JP2019111588A
JP2019111588A JP2017244397A JP2017244397A JP2019111588A JP 2019111588 A JP2019111588 A JP 2019111588A JP 2017244397 A JP2017244397 A JP 2017244397A JP 2017244397 A JP2017244397 A JP 2017244397A JP 2019111588 A JP2019111588 A JP 2019111588A
Authority
JP
Japan
Prior art keywords
information
robot
control device
robot control
coordinate system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017244397A
Other languages
Japanese (ja)
Inventor
志賀 公樹
Kimiki Shiga
公樹 志賀
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2017244397A priority Critical patent/JP2019111588A/en
Publication of JP2019111588A publication Critical patent/JP2019111588A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

To provide a robot system which can cause a robot control device to change a position where a robot grips an object to be gripped without changing an operation program.SOLUTION: A robot system comprises: a robot; a robot control device controlling the robot; an information processor connected to the robot control device via a line. The information processor is the information processor connected to the robot control device for controlling the robot via the line, and outputs gripping information to which an operation program of the robot control device operating the robot on the basis of the operation program refers to the robot control device via the line. The gripping information includes information indicating a relative position between an object to be gripped being the object gripped by the robot and an end effector mounted onto the robot.SELECTED DRAWING: Figure 4

Description

この発明は、ロボットシステム、情報処理装置、及びプログラムに関する。   The present invention relates to a robot system, an information processing apparatus, and a program.

ロボットを制御するロボット制御装置に対して、ロボット制御する際にロボット制御装置が用いる各種の情報を教示する(記憶させる)技術の研究や開発が行われている。   For robot control devices that control robots, research and development have been conducted on techniques for teaching (storing) various types of information used by the robot control devices when performing robot control.

これに関し、動作プログラムに従いロボットの動作を制御するロボットコントローラーに接続され、ロボットの動作姿勢を画面表示するシミュレーターを備え、当該動作プログラムの作成を支援するロボット動作教示支援装置が知られている(特許文献1参照)。   In this regard, there is known a robot motion teaching support device that includes a simulator connected to a robot controller that controls the motion of the robot according to the motion program, and displaying the motion posture of the robot on a screen. Reference 1).

特開2013−136123号公報JP, 2013-136123, A

しかしながら、このようなロボット動作教示支援装置では、ユーザーは、動作プログラムを変更しなければ、ロボットの動作を変更することができなかった。すなわち、当該ロボット動作教示支援装置では、ユーザーは、ロボットに行わせる作業に応じてロボットの動作を変更する必要がある場合、作業を変更する毎に動作プログラムの変更を行わなければならなかった。その結果、当該ロボット動作教示支援装置は、ロボットに作業を行わせる効率を向上させることが困難な場合があった。   However, in such a robot operation teaching support device, the user can not change the operation of the robot without changing the operation program. That is, in the robot operation teaching support device, when it is necessary to change the operation of the robot in accordance with the operation to be performed by the robot, the user has to change the operation program each time the operation is changed. As a result, it has been difficult in some cases for the robot motion teaching support device to improve the efficiency of causing the robot to perform work.

上記課題を解決するために本発明の一態様は、ロボットと、前記ロボットを制御するロボット制御装置と、前記ロボット制御装置に回線を介して接続された情報処理装置と、を備えるロボットシステムであって、前記情報処理装置は、ロボットを制御するロボット制御装置に回線を介して接続される情報処理装置であって、動作プログラムに基づいて前記ロボットを動作させる前記ロボット制御装置の前記動作プログラムにより参照される把持情報を、前記ロボット制御装置に前記回線を介して出力し、前記把持情報には、前記ロボットにより把持される物体である把持対象と、前記ロボットに装着されたエンドエフェクターとの相対的な位置を示す情報が含まれる、ロボットシステムである。
これにより、ロボットシステムは、動作プログラムを変更することなく、ロボットが把持対象を把持する位置をロボット制御装置に変更させることができる。
One aspect of the present invention is a robot system including a robot, a robot control device for controlling the robot, and an information processing device connected to the robot control device via a line. The information processing apparatus is an information processing apparatus connected via a line to a robot control apparatus that controls a robot, and is referred to by the operation program of the robot control apparatus that operates the robot based on an operation program. Holding information is output to the robot control device via the line, and the holding information is a relative relation between a holding object which is an object to be held by the robot and an end effector mounted on the robot A robot system including information indicating the position of the vehicle.
Thus, the robot system can cause the robot control device to change the position at which the robot grips the gripping target without changing the operation program.

また、本発明の他の態様は、ロボットシステムにおいて、前記情報処理装置は、前記ロボット制御装置に前記回線を介して前記把持情報を出力し、前記ロボット制御装置に記憶された前記把持情報を更新する、構成が用いられてもよい。
これにより、ロボットシステムは、動作プログラムの変更を伴うことなく更新された把持情報に基づいて、ロボット制御装置にロボットを制御させることができる。
Further, according to another aspect of the present invention, in the robot system, the information processing apparatus outputs the grip information to the robot control apparatus via the line, and updates the grip information stored in the robot control apparatus. The configuration may be used.
Thereby, the robot system can cause the robot control device to control the robot based on the updated gripping information without changing the operation program.

また、本発明の他の態様は、ロボットシステムにおいて、前記情報処理装置は、前記動作プログラムと前記把持情報とに基づく前記ロボットの動作を示す動作情報を取得し、取得した前記動作情報に応じた画像を表示する、構成が用いられてもよい。
これにより、ロボットシステムは、動作プログラムと把持情報とに基づいてロボット制御装置がロボットに行わせる動作を、ロボットを動作させる前に確認させることができる。
Further, according to another aspect of the present invention, in the robot system, the information processing apparatus acquires operation information indicating an operation of the robot based on the operation program and the grip information, and corresponds to the acquired operation information. Configurations that display images may be used.
As a result, the robot system can confirm the operation that the robot control device causes the robot to perform based on the operation program and the gripping information before operating the robot.

また、本発明の他の態様は、ロボットシステムにおいて、前記情報処理装置は、前記ロボットの周囲に位置する物体の位置であって前記ロボット制御装置によって検出された位置を示す情報と当該物体に応じたオブジェクトを示す情報とが対応付けられた情報を前記ロボット制御装置から取得し、取得した当該位置を示す情報及び当該オブジェクトを示す情報と、予め記憶されたオブジェクトに関する情報であるオブジェクト情報とに基づいて、当該物体と前記ロボットとの相対的な位置関係を示す画像を表示する、構成が用いられてもよい。
これにより、ロボットシステムは、ロボット制御装置に設定された位置のうちロボットの周囲に位置する物体のロボット座標系における位置を、ロボットを動作させる前に確認させることができる。
Further, according to another aspect of the present invention, in the robot system, the information processing device is a position of an object located around the robot and information indicating a position detected by the robot control device and the object The information in which the information indicating the object is associated is acquired from the robot control device, and the acquired information indicating the position and the information indicating the object are based on the object information which is the information on the object stored in advance. A configuration may be used to display an image indicating the relative positional relationship between the object and the robot.
Thereby, the robot system can confirm the position in the robot coordinate system of the object located around the robot among the positions set in the robot control device before the robot is operated.

また、本発明の他の態様は、ロボットシステムにおいて、前記把持情報には、前記把持対象と、前記ロボットに装着されたエンドエフェクターとの相対的な姿勢を示す情報が含まれる、構成が用いられてもよい。
これにより、ロボットシステムは、対象物とロボットに装着されたエンドエフェクターとの相対的な位置及び姿勢を示す情報が含まれる把持情報に基づいて、動作プログラムを変更することなく、ロボットの動作のうちロボットが対象物を把持する動作を所望の動作に変更することができる。
Further, according to another aspect of the present invention, in the robot system, a configuration is used in which the gripping information includes information indicating a relative posture between the gripping target and an end effector mounted on the robot. May be
As a result, the robot system does not change the operation program of the robot without changing the operation program based on the gripping information including the information indicating the relative position and posture of the object and the end effector mounted on the robot. The motion of the robot gripping the object can be changed to a desired motion.

また、本発明の他の態様は、ロボットシステムにおいて、前記把持情報には、前記ロボットに装着されたエンドエフェクターが備える指部の開閉量を示す情報が含まれる、構成が用いられてもよい。
これにより、ロボットシステムは、ロボットに装着されたエンドエフェクターが備える指部の開閉量を示す情報が含まれる把持情報に基づいて、動作プログラムを変更することなく、ロボットの動作のうちロボットが対象物を把持する動作を所望の動作に変更することができる。
Further, according to another aspect of the present invention, in the robot system, the grip information may include information indicating an open / close amount of a finger provided on an end effector mounted on the robot.
As a result, the robot system does not change the operation program based on the gripping information including the information indicating the opening / closing amount of the finger portion of the end effector mounted on the robot, and the robot is the target object without changing the operation program. The action of gripping the can be changed to the desired action.

また、本発明の他の態様は、ロボットシステムにおいて、前記把持情報には、前記把持対象の位置及び姿勢を表す部位と、前記把持対象が有する部位のうち指定された部位との相対的な位置及び姿勢を示す情報が含まれる、構成が用いられてもよい。
これにより、ロボットシステムは、把持対象の位置及び姿勢を表す部位と、把持対象が有する部位のうち指定された部位との相対的な位置及び姿勢を示す情報が含まれる把持情報に基づいて、動作プログラムを変更することなく、ロボットの動作のうちロボットが対象物を把持する動作を所望の動作に変更することができる。
Further, in another aspect of the present invention, in the robot system, a relative position between a portion representing the position and posture of the object to be gripped and a portion designated by the portion of the object to be gripped in the grip information. A configuration may be used that includes information indicating the posture and the posture.
Thus, the robot system operates based on gripping information including information indicating the relative position and orientation of the part indicating the position and orientation of the object to be grasped and the designated part of the region possessed by the object to be grasped. Among the motions of the robot, the motion of the robot gripping the object can be changed to a desired motion without changing the program.

また、本発明の他の態様は、ロボットを制御するロボット制御装置に回線を介して接続される情報処理装置であって、動作プログラムに基づいて前記ロボットを動作させる前記ロボット制御装置の前記動作プログラムにより参照される把持情報を、前記ロボット制御装置に前記回線を介して出力し、前記把持情報には、前記ロボットにより把持される物体である把持対象と、前記ロボットに装着されたエンドエフェクターとの相対的な位置を示す情報が含まれる、情報処理装置である。これにより、情報処理装置は、動作プログラムを変更することなく、ロボットが把持対象を把持する位置をロボット制御装置に変更させることができる。   Another aspect of the present invention is an information processing apparatus connected to a robot control apparatus for controlling a robot through a line, the operation program of the robot control apparatus operating the robot based on an operation program. Holding information to be referred to by the robot controller via the line, and the holding information includes a holding target which is an object to be held by the robot and an end effector mounted on the robot An information processing apparatus including information indicating a relative position. Thus, the information processing apparatus can cause the robot control apparatus to change the position at which the robot grips the grip target without changing the operation program.

また、本発明の他の態様は、ロボットを制御するロボット制御装置に回線を介して接続された情報処理装置のコンピューターに、動作プログラムに基づいて前記ロボットを動作させる前記ロボット制御装置の前記動作プログラムにより参照される把持情報を、前記ロボット制御装置に前記回線を介して出力させるプログラムであって、前記把持情報には、前記ロボットにより把持される物体である把持対象と、前記ロボットに装着されたエンドエフェクターとの相対的な位置を示す情報が含まれる、プログラムである。これにより、プログラムは、動作プログラムを変更することなく、ロボットが把持対象を把持する位置をロボット制御装置に変更させることができる。   Further, according to another aspect of the present invention, there is provided an operating program of the robot control apparatus for operating the robot based on an operating program in a computer of an information processing apparatus connected via a line to a robot control apparatus controlling a robot. A program for causing the robot control device to output gripping information referred to by the robot control device via the line, and the gripping information includes a gripping target which is an object to be gripped by the robot and the robot mounted on the robot It is a program that includes information indicating the relative position with the end effector. Thus, the program can cause the robot control device to change the position at which the robot grips the gripping target without changing the operation program.

また、本発明の他の態様は、ロボットを制御するロボット制御装置に回線を介して接続された情報処理装置であって、プロセッサーを備え、前記プロセッサーは、動作プログラムに基づいて前記ロボットを動作させる前記ロボット制御装置の前記動作プログラムにより参照される把持情報を、前記ロボット制御装置に前記回線を介して出力し、前記把持情報には、前記ロボットにより把持される物体である把持対象と、前記ロボットに装着されたエンドエフェクターとの相対的な位置を示す情報が含まれる、情報処理装置である。これにより、情報処理装置は、動作プログラムを変更することなく、ロボットが把持対象を把持する位置をロボット制御装置に変更させることができる。   Another aspect of the present invention is an information processing apparatus connected via a line to a robot control apparatus for controlling a robot, comprising: a processor, wherein the processor operates the robot based on an operation program Holding information referred to by the operation program of the robot control device is output to the robot control device via the line, and the holding information is a holding object which is an object to be held by the robot, and the robot An information processing apparatus including information indicating the relative position of the end effector mounted on the. Thus, the information processing apparatus can cause the robot control apparatus to change the position at which the robot grips the grip target without changing the operation program.

実施形態に係るロボットシステム1の構成の一例を示す図である。It is a figure showing an example of composition of robot system 1 concerning an embodiment. 情報処理装置30のハードウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of an information processing device 30. ロボット制御装置40のハードウェア構成の一例を示す図である。FIG. 2 is a diagram illustrating an example of a hardware configuration of a robot control device 40. 情報処理装置30及びロボット制御装置40それぞれの機能構成の一例を示す図である。FIG. 3 is a diagram showing an example of functional configurations of an information processing device 30 and a robot control device 40. 情報処理装置30が行う情報編集処理の流れの一例を示す図である。It is a figure which shows an example of the flow of the information edit process which the information processing apparatus 30 performs. オブジェクト情報編集画像の一例を示す図である。It is a figure which shows an example of an object information edit image. オブジェクト情報の一例を示す図である。It is a figure which shows an example of object information. 把持情報編集画像の一例を示す図である。It is a figure which shows an example of a holding | grip information edit image. 把持情報の一例を示す図である。It is a figure which shows an example of holding information. ロボット制御装置40が行う情報生成処理の流れの一例を示す図である。It is a figure which shows an example of the flow of the information generation process which the robot control apparatus 40 performs. 情報処理装置30が行う情報表示処理の流れの一例を示す図である。It is a figure which shows an example of the flow of the information display process which the information processing apparatus 30 performs. 周辺物体情報に応じた画像の一例を示す図である。It is a figure which shows an example of the image according to surrounding object information. 経路情報に応じた画像の一例を示す図である。It is a figure which shows an example of the image according to route information. 実施形態の変形例に係るロボットシステム1の一例を示す構成図である。It is a block diagram which shows an example of the robot system 1 which concerns on the modification of embodiment.

<実施形態>
以下、本発明の実施形態について、図面を参照して説明する。
Embodiment
Hereinafter, embodiments of the present invention will be described with reference to the drawings.

<ロボットシステムの概要>
まず、本実施形態におけるロボットシステムの概要について説明する。
<Overview of Robot System>
First, an overview of a robot system in the present embodiment will be described.

ロボットシステムは、ロボットと、ロボットを制御するロボット制御装置と、ロボット制御装置に回線を介して接続された情報処理装置と、を備える。また、情報処理装置は、動作プログラムに基づいてロボットを動作させるロボット制御装置の動作プログラムにより参照される把持情報を、ロボット制御装置に前記回線を介して出力する。また、把持情報には、ロボットにより把持される物体である把持対象と、ロボットに装着されたエンドエフェクターとの相対的な位置を示す情報が含まれる。これにより、ロボットシステムは、動作プログラムを変更することなく、ロボットが把持対象を把持する位置をロボット制御装置に変更させることができる。また、これにより、ロボットシステムでは、ロボット制御装置とロボットとが通信可能に接続されていない状態であるオフライン状態であっても、情報処理装置が当該回線を介して把持情報をロボット制御装置に出力することができる。   The robot system includes a robot, a robot control device that controls the robot, and an information processing device connected to the robot control device via a line. Further, the information processing apparatus outputs gripping information referred to by the operation program of the robot control apparatus for operating the robot based on the operation program to the robot control apparatus via the line. The gripping information also includes information indicating the relative position between a gripping target, which is an object to be gripped by the robot, and an end effector mounted on the robot. Thus, the robot system can cause the robot control device to change the position at which the robot grips the gripping target without changing the operation program. Further, thereby, in the robot system, even in the offline state where the robot control device and the robot are not communicably connected, the information processing device outputs the gripping information to the robot control device via the line. can do.

以下では、ロボットシステムの構成と、ロボットシステムが行う処理について詳しく説明する。   The configuration of the robot system and the processing performed by the robot system will be described in detail below.

<ロボットシステムの構成>
以下、図1を参照し、前述のロボットシステムの一例であるロボットシステム1の構成について説明する。
<Configuration of robot system>
Hereinafter, the configuration of a robot system 1 which is an example of the above-described robot system will be described with reference to FIG.

図1は、実施形態に係るロボットシステム1の構成の一例を示す図である。ロボットシステム1は、ロボット20と、情報処理装置30を備える。また、ロボット20は、ロボット制御装置40を内蔵する。ロボット20は、前述のロボットの一例である。なお、ロボットシステム1は、情報処理装置30を備えない構成であってもよい。また、ロボット20は、ロボット制御装置40を内蔵する構成に代えて、外部に設置されたロボット制御装置40により制御される構成であってもよい。この場合、ロボットシステム1は、ロボット20と、ロボット制御装置40を備える。また、ロボットシステム1は、ロボット20と、情報処理装置30との両方に加えて、ロボット20と別体の撮像部等の他の装置を備える構成であってもよい。   FIG. 1 is a diagram showing an example of the configuration of a robot system 1 according to an embodiment. The robot system 1 includes a robot 20 and an information processing apparatus 30. Also, the robot 20 incorporates a robot control device 40. The robot 20 is an example of the aforementioned robot. The robot system 1 may not include the information processing device 30. The robot 20 may be configured to be controlled by the robot control device 40 installed outside, instead of the configuration in which the robot control device 40 is incorporated. In this case, the robot system 1 includes a robot 20 and a robot control device 40. The robot system 1 may be configured to include another device such as an imaging unit separate from the robot 20 in addition to both the robot 20 and the information processing device 30.

ここで、以下では、説明の便宜上、図1に示したロボット座標系RCにおけるZ軸の正方向を上方向又は上と称し、当該Z軸の負方向を下方向又は下と称して説明する。ロボット座標系RCは、ロボット20のロボット座標系のことである。また、以下では、一例として、ロボット座標系RCにおけるZ軸の負方向と重力方向とが一致している場合について説明する。なお、当該負方向と重力方向は、一致していない構成であってもよい。   Here, for convenience of explanation, the positive direction of the Z axis in the robot coordinate system RC shown in FIG. 1 will be referred to as upward or upward, and the negative direction of the Z axis will be hereinafter referred to as downward or downward. The robot coordinate system RC is a robot coordinate system of the robot 20. In the following, as an example, the case where the negative direction of the Z axis in the robot coordinate system RC matches the direction of gravity will be described. Note that the negative direction and the gravity direction may not be identical to each other.

ロボット20は、第1アームA1と、第2アームA2と、第1アームA1及び第2アームA2を支持する支持台Bと、支持台Bの内側に備えられたロボット制御装置40とを備える双腕ロボットである。なお、ロボット20は、双腕ロボットに代えて、3本以上のアームを備える複腕ロボットであってもよく、1本のアームを備える単腕ロボットであってもよい。また、ロボット20は、スカラ(水平多関節)ロボット、直交座標ロボット、円筒型ロボット等の他のロボットであってもよい。直交座標ロボットは、例えば、ガントリロボットである。   The robot 20 includes a first arm A1, a second arm A2, a support base B for supporting the first arm A1 and the second arm A2, and a robot control device 40 provided inside the support base B. It is an arm robot. The robot 20 may be a double arm robot including three or more arms instead of the double arm robot, or may be a single arm robot including one arm. The robot 20 may be another robot such as a scalar (horizontal articulated) robot, an orthogonal coordinate robot, or a cylindrical robot. The orthogonal coordinate robot is, for example, a gantry robot.

支持台Bは、ロボット20がある面に設置された場合において当該面に直交する方向に沿って2つの部分に分割されている。以下では、説明の便宜上、ロボット20が設置される当該面を設置面と称して説明する。また、以下では、一例として、設置面が図1に示したロボット座標系RCにおけるX軸及びY軸によって張られる面であるXY平面と平行、すなわち、ロボット座標系RCにおけるZ軸と直交している場合について説明する。なお、設置面は、XY平面と非平行、すなわち、当該Z軸と直交していなくてもよい。また、支持台Bは、分割されていない構成であってもよく、3つ以上の部分に分割されている構成であってもよい。当該2つの部分のうち設置面から遠い方の部分は、当該2つの部分のうち設置面から近い方の部分に対して回動可能である。当該遠い方の部分が回動する場合の回動面は、例えば、設置面に対して平行である。なお、当該回動面は、設置面に対して非平行であってもよい。   The support base B is divided into two parts along a direction orthogonal to the surface when the robot 20 is installed on the surface. In the following, for convenience of explanation, the surface on which the robot 20 is installed is referred to as an installation surface. Also, in the following, as an example, the installation plane is parallel to the XY plane which is a plane spanned by the X axis and Y axis in the robot coordinate system RC shown in FIG. 1, that is, orthogonal to the Z axis in the robot coordinate system RC. Will be described. The installation surface may not be parallel to the XY plane, that is, not orthogonal to the Z axis. Moreover, the support stand B may be the structure which is not divided | segmented, and the structure divided | segmented into three or more parts may be sufficient as it. Of the two parts, the part far from the installation surface is pivotable with respect to the part of the two parts closer to the installation surface. The rotation surface in the case where the distant part is rotated is, for example, parallel to the installation surface. In addition, the said rotation surface may be non-parallel with respect to an installation surface.

第1アームA1は、第1エンドエフェクターE1と、第1マニピュレーターM1と、第1力検出部S1を備える。   The first arm A1 includes a first end effector E1, a first manipulator M1, and a first force detector S1.

第1エンドエフェクターE1は、物体を保持するエンドエフェクターである。この一例において、第1エンドエフェクターE1は、指部を備え、当該指部によって物体を挟んで持つことにより当該物体を保持する。なお、第1エンドエフェクターE1は、これに代えて、空気の吸引、磁力、他の治具等によって物体を持ち上げることにより当該物体を保持する構成であってもよい。なお、この一例において、保持するとは、物体の状態を持ち上げることが可能な状態にすることを意味する。   The first end effector E1 is an end effector that holds an object. In this example, the first end effector E1 includes a finger, and holds the object by holding the object by the finger. Alternatively, instead of the first end effector E1, the first end effector E1 may be configured to hold the object by lifting the object by suction of air, magnetic force, another jig or the like. Note that, in this example, holding means that the state of the object can be lifted.

第1マニピュレーターM1は、7つの関節と、第1撮像部C1を備える。また、当該7つの関節のそれぞれは、図示しないアクチュエーターを備える。すなわち、第1マニピュレーターM1を備える第1アームA1は、7軸垂直多関節型のアームである。第1アームA1は、支持台Bと、第1エンドエフェクターE1と、第1マニピュレーターM1と、当該7つの関節それぞれのアクチュエーターとによる連携した動作によって7軸の自由度の動作を行う。なお、第1アームA1は、6軸以下の自由度で動作する構成であってもよく、8軸以上の自由度で動作する構成であってもよい。   The first manipulator M1 includes seven joints and a first imaging unit C1. Each of the seven joints is provided with an actuator (not shown). That is, the first arm A1 including the first manipulator M1 is a seven-axis vertical articulated arm. The first arm A1 performs seven axes of freedom by cooperative operations of the support base B, the first end effector E1, the first manipulator M1, and the actuators of the seven joints. The first arm A1 may operate with six or less axes of freedom or may operate with eight or more axes of freedom.

第1アームA1が7軸の自由度で動作する場合、第1アームA1は、6軸以下の自由度で動作する場合と比較して取り得る姿勢が増える。これにより第1アームA1は、例えば、動作が滑らかになり、更に第1アームA1の周辺に存在する物体との干渉を容易に回避することができる。また、第1アームA1が7軸の自由度で動作する場合、第1アームA1の制御は、第1アームA1が8軸以上の自由度で動作する場合と比較して計算量が少なく容易である。   When the first arm A1 operates with seven axes of freedom, the first arm A1 has more postures that can be taken as compared with the case of operating with six or less axes of freedom. As a result, for example, the first arm A1 becomes smooth in operation, and interference with an object present around the first arm A1 can be easily avoided. In addition, when the first arm A1 operates with seven axes of freedom, the control of the first arm A1 requires less calculation amount and is easier as compared to the case where the first arm A1 operates with eight or more axes of freedom is there.

第1撮像部C1は、例えば、集光された光を電気信号に変換する撮像素子として、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等を備えたカメラである。この一例において、第1撮像部C1は、第1マニピュレーターM1の一部に備えられる。このため、第1撮像部C1は、第1マニピュレーターM1の動きに応じて移動する。すなわち、第1撮像部C1が撮像可能な範囲は、第1アームA1の動きに応じて変化する。   The first imaging unit C1 is, for example, a camera provided with a charge coupled device (CCD), a complementary metal oxide semiconductor (CMOS), or the like as an imaging element for converting collected light into an electric signal. In this example, the first imaging unit C1 is provided in a part of the first manipulator M1. For this reason, the first imaging unit C1 moves in accordance with the movement of the first manipulator M1. That is, the range in which the first imaging unit C1 can capture an image changes according to the movement of the first arm A1.

第1力検出部S1は、第1エンドエフェクターE1と第1マニピュレーターM1の間に備えられる。第1力検出部S1は、例えば、力センサーである。第1力検出部S1は、第1エンドエフェクターE1に作用した外力、又は第1エンドエフェクターE1により保持された物体に作用した外力を検出する。なお、第1力検出部S1は、第1エンドエフェクターE1に作用した外力、又は第1エンドエフェクターE1により保持された物体に作用した外力を検出するトルクセンサーであってもよい。   The first force detection unit S1 is provided between the first end effector E1 and the first manipulator M1. The first force detection unit S1 is, for example, a force sensor. The first force detection unit S1 detects an external force acting on the first end effector E1 or an external force acting on an object held by the first end effector E1. The first force detection unit S1 may be a torque sensor that detects an external force acting on the first end effector E1 or an external force acting on an object held by the first end effector E1.

第2アームA2は、第1アームA1の構成と同様の構成を有する。すなわち、第2エンドエフェクターE2は、第1エンドエフェクターE1の構成と同様の構成を有する。また、第2マニピュレーターM2は、第1マニピュレーターM1の構成と同様の構成を有する。また、第2マニピュレーターM2は、第2撮像部C2を備える。第2撮像部C2は、第1撮像部C1の構成と同様の構成を有する。また、第2力検出部S2は、第1力検出部S1の構成と同様の構成を有する。   The second arm A2 has a configuration similar to that of the first arm A1. That is, the second end effector E2 has the same configuration as that of the first end effector E1. The second manipulator M2 has the same configuration as that of the first manipulator M1. The second manipulator M2 also includes a second imaging unit C2. The second imaging unit C2 has the same configuration as the configuration of the first imaging unit C1. The second force detection unit S2 has the same configuration as the configuration of the first force detection unit S1.

なお、第2アームA2は、第1アームA1の構成と異なる構成であってもよい。すなわち、第2エンドエフェクターE2は、第1エンドエフェクターE1の構成と異なる構成であってもよい。また、第2マニピュレーターM2は、第1マニピュレーターM1の構成と異なる構成であってもよい。また、第2撮像部C2は、第1撮像部C1の構成と異なる構成であってもよい。また、第2力検出部S2は、第1力検出部S1の構成と異なる構成であってもよい。   The second arm A2 may have a configuration different from that of the first arm A1. That is, the second end effector E2 may have a configuration different from that of the first end effector E1. In addition, the second manipulator M2 may have a configuration different from that of the first manipulator M1. The second imaging unit C2 may have a configuration different from that of the first imaging unit C1. Further, the second force detection unit S2 may have a configuration different from the configuration of the first force detection unit S1.

また、ロボット20は、第3撮像部C3と、第4撮像部C4を備える。   The robot 20 also includes a third imaging unit C3 and a fourth imaging unit C4.

第3撮像部C3は、例えば、集光された光を電気信号に変換する撮像素子として、CCD、CMOS等を備えたカメラである。第3撮像部C3は、第4撮像部C4が撮像可能な範囲を第4撮像部C4とともにステレオ撮像可能な部位に備えられる。   The third imaging unit C3 is, for example, a camera provided with a CCD, a CMOS, or the like as an imaging device for converting the collected light into an electric signal. The third imaging unit C3 includes a range in which the fourth imaging unit C4 can perform imaging along with the fourth imaging unit C4 in a region that can perform stereo imaging.

第4撮像部C4は、例えば、集光された光を電気信号に変換する撮像素子として、CCD、CMOS等を備えたカメラである。第4撮像部C4は、第3撮像部C3が撮像可能な範囲を第3撮像部C3とともにステレオ撮像可能な部位に備えられる。   The fourth imaging unit C4 is, for example, a camera provided with a CCD, a CMOS, or the like as an imaging device that converts the collected light into an electrical signal. The fourth imaging unit C4 includes a range in which the third imaging unit C3 can perform imaging along with the third imaging unit C3 in a portion that can perform stereo imaging.

上記において説明したロボット20が備える各機能部(すなわち、第1エンドエフェクターE1、第2エンドエフェクターE2、第1マニピュレーターM1、第2マニピュレーターM2、第1撮像部C1〜第4撮像部C4、第1力検出部S1、第2力検出部S2)のそれぞれは、ケーブルによってロボット制御装置40と通信可能に接続されている。これにより、当該各機能部のそれぞれは、ロボット制御装置40から取得される制御信号に基づく動作を行う。なお、ケーブルを介した有線通信は、例えば、イーサネット(登録商標)、USB(Universal Serial Bus)等の規格によって行われる。また、当該各機能部のうちの一部又は全部は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置40と接続される構成であってもよい。なお、ロボット20は、第1撮像部C1、第2撮像部C2、第3撮像部C3、第4撮像部C4のうちの一部又は全部を備えない構成であってもよい。   The functional units included in the robot 20 described above (that is, the first end effector E1, the second end effector E2, the first manipulator M1, the second manipulator M2, the first imaging unit C1 to the fourth imaging unit C4, the first Each of the force detection unit S1 and the second force detection unit S2) is communicably connected to the robot control device 40 by a cable. Thus, each of the functional units performs an operation based on the control signal acquired from the robot control device 40. Wired communication via a cable is performed according to a standard such as Ethernet (registered trademark) or USB (Universal Serial Bus), for example. In addition, a part or all of the functional units may be connected to the robot control device 40 by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark). The robot 20 may not have a part or all of the first imaging unit C1, the second imaging unit C2, the third imaging unit C3, and the fourth imaging unit C4.

ロボット制御装置40は、ロボット20を制御する。ここで、以下では、一例として、ロボット制御装置40による第1アームA1の制御方法と、ロボット制御装置40による第2アームA2の制御方法とが、互いに同じ方法である場合について説明する。このため、以下では、ロボット制御装置40による第1アームの制御方法を例に挙げて、ロボット制御装置40によるロボット20の制御について説明する。なお、ロボット制御装置40による第1アームA1の制御方法と、ロボット制御装置40による第2アームA2の制御方法とは、一部又は全部が互いに異なる構成であってもよい。   The robot control device 40 controls the robot 20. Here, as an example, a case where the control method of the first arm A1 by the robot control device 40 and the control method of the second arm A2 by the robot control device 40 are the same method will be described. Therefore, the control of the robot 20 by the robot control device 40 will be described below by taking the control method of the first arm by the robot control device 40 as an example. The control method of the first arm A1 by the robot control device 40 and the control method of the second arm A2 by the robot control device 40 may have configurations that are partially or entirely different from each other.

ロボット制御装置40は、制御点T1を、第1アームA1の予め決められた部位に設定する。制御点T1は、当該部位とともに動く仮想的な点のことである。例えば、制御点T1は、第1アームA1についてのTCP(Tool Center Point)である。なお、制御点T1は、当該TCPに代えて、当該部位とともに動く他の仮想的な点であってもよい。当該予め決められた部位は、例えば、第1エンドエフェクターE1の重心である。すなわち、制御点T1は、第1エンドエフェクターE1とともに動く。なお、当該予め決められた部位は、当該重心に代えて、第1アームA1に応じた他の部位であってもよい。なお、図1に示した制御点T2は、第2アームA2の予め決められた部位にロボット制御装置40によって設定されたTCPを示す。   The robot control device 40 sets the control point T1 to a predetermined portion of the first arm A1. The control point T1 is a virtual point that moves with the site. For example, the control point T1 is a TCP (Tool Center Point) for the first arm A1. The control point T1 may be another virtual point that moves with the site, instead of the TCP. The predetermined site is, for example, the center of gravity of the first end effector E1. That is, the control point T1 moves with the first end effector E1. In addition, the predetermined part may be another part corresponding to the first arm A1 instead of the center of gravity. The control point T2 shown in FIG. 1 indicates the TCP set by the robot control device 40 at a predetermined site of the second arm A2.

制御点T1には、制御点T1とともに動く三次元直交座標系である制御点座標系が対応付けられている。制御点T1の位置は、制御点座標系の原点のロボット座標系RCにおける位置によって表される。また、制御点T1の姿勢は、制御点座標系における各座標軸のロボット座標系RCにおける方向によって表される。ここで、以下では、一例として、制御点T1の位置及び姿勢が、第1エンドエフェクターE1の位置及び姿勢を表す場合について説明する。なお、制御点T1の位置及び姿勢は、第1エンドエフェクターE1の位置及び姿勢を表さない構成であってもよい。   A control point coordinate system, which is a three-dimensional orthogonal coordinate system moving with the control point T1, is associated with the control point T1. The position of the control point T1 is represented by the position in the robot coordinate system RC of the origin of the control point coordinate system. Further, the attitude of the control point T1 is represented by the direction in the robot coordinate system RC of each coordinate axis in the control point coordinate system. Here, hereinafter, as an example, a case where the position and the attitude of the control point T1 represent the position and the attitude of the first end effector E1 will be described. The position and the attitude of the control point T1 may not be the position and the attitude of the first end effector E1.

ロボット制御装置40は、後述する情報処理装置30を介してユーザーにより予め記憶されたオブジェクト情報と、予め記憶された物***置姿勢情報とに基づいて、周辺物体情報を生成する。また、ロボット制御装置40は、情報処理装置30を介してユーザーにより予め記憶された動作プログラム、教示点情報、オブジェクト情報、把持情報のそれぞれと、生成した周辺物体情報とに基づく経路を生成する。ロボット制御装置40は、生成した経路に沿って制御点T1が動くように第1アームA1を動作させる。なお、物***置姿勢情報は、動作プログラムと、教示点情報と、オブジェクト情報と、把持情報とのそれぞれとともに、情報処理装置30を介してユーザーにより予め記憶される構成であってもよい。   The robot control device 40 generates peripheral object information based on object information stored in advance by the user via the information processing device 30 described later and object position and orientation information stored in advance. Further, the robot control device 40 generates a route based on each of the operation program, teaching point information, object information, and grip information stored in advance by the user via the information processing device 30, and the generated peripheral object information. The robot control device 40 operates the first arm A1 so that the control point T1 moves along the generated path. The object position and orientation information may be stored in advance by the user via the information processing device 30, together with the operation program, the teaching point information, the object information, and the grip information.

ここで、オブジェクト情報は、オブジェクトに関する情報のことである。オブジェクトは、この一例において、ロボット20の周囲に位置する物体(例えば、ロボット20が把持する物体である把持対象、ロボット20の動作において障害となる物体である障害物、ロボット20が作業において用いる電導ドライバー等のツール)に応じた形状及び大きさを有する仮想的な物体のことである。また、オブジェクトは、情報処理装置30により生成される当該仮想的な物体のことである。オブジェクト情報には、オブジェクト識別情報と、オブジェクト名称情報と、オブジェクト関連情報とが含まれる。ここで、ロボット20の周囲は、第1エンドエフェクターE1と第2エンドエフェクターE2との少なくとも一方が届く範囲内のことである。なお、オブジェクト情報には、オブジェクト識別情報と、オブジェクト名称情報と、オブジェクト関連情報とに加えて、オブジェクトに関する他の情報が含まれる構成であってもよい。   Here, object information is information about an object. In this example, the object is an object located around the robot 20 (for example, a gripping target that is an object griped by the robot 20, an obstacle that is an obstacle that is an obstacle in the operation of the robot 20, a conductive used by the robot 20 in work) It is a virtual object having a shape and a size according to a tool such as a driver. An object is a virtual object generated by the information processing device 30. The object information includes object identification information, object name information, and object related information. Here, the periphery of the robot 20 is within the reach of at least one of the first end effector E1 and the second end effector E2. The object information may include other information about the object in addition to the object identification information, the object name information, and the object related information.

オブジェクト識別情報は、例えば、オブジェクトに対して重複しないように割り当てられたID(IDentification)である。なお、オブジェクト識別情報は、当該IDに代えて、オブジェクトを識別でき、オブジェクトに対して重複しないように割り当てられる他の情報であってもよい。オブジェクト名称情報は、オブジェクト識別情報によって識別されたオブジェクトを示す名称であって情報処理装置30を介してユーザーにより当該オブジェクトに割り当てられた名称を示す情報のことである。オブジェクト関連情報には、オブジェクト識別情報によって識別されたオブジェクトの形状を示す形状情報と、当該オブジェクトの大きさ(例えば、各種の寸法)を示す大きさ情報と、当該オブジェクトに対応付けられたオブジェクト座標系を示すオブジェクト座標系情報とが含まれる。なお、オブジェクト関連情報には、形状情報と、大きさ情報と、オブジェクト座標系情報とに加えて、オブジェクトに関連する他の情報が含まれる構成であってもよい。   The object identification information is, for example, an ID (IDentification) assigned so as not to overlap with an object. The object identification information may be other information that can be used to identify an object and be assigned not to overlap with the object instead of the ID. The object name information is information indicating the object identified by the object identification information and indicating the name assigned to the object by the user via the information processing device 30. The object-related information includes shape information indicating the shape of the object identified by the object identification information, size information indicating the size of the object (for example, various dimensions), and object coordinates associated with the object. And object coordinate system information indicating a system. The object related information may include other information related to the object in addition to the shape information, the size information, and the object coordinate system information.

あるオブジェクトに対応付けられたオブジェクト座標系は、当該オブジェクトの予め決められた部位であって情報処理装置30を介してユーザーにより指定された部位に対応付けられ、当該部位とともに動く三次元直交座標系のことである。当該オブジェクトの位置は、オブジェクト座標系の原点のロボット座標系RCにおける位置によって表される。オブジェクトの姿勢は、オブジェクト座標系における各座標軸のロボット座標系RCにおける方向によって表される。   An object coordinate system associated with an object is a predetermined part of the object, which is associated with a part specified by the user via the information processing device 30, and moves along with the part. It is The position of the object is represented by the position in the robot coordinate system RC of the origin of the object coordinate system. The orientation of the object is represented by the direction in the robot coordinate system RC of each coordinate axis in the object coordinate system.

物***置姿勢情報は、ロボット20の周囲に位置する1以上の物体のそれぞれについて、物体を識別する情報である物体識別情報と、物体の位置及び姿勢を示す情報とが対応付けられた情報のことである。物体識別情報は、ロボット20の周囲に位置する物体に対して重複しないように割り当てられたIDである。なお、物体識別情報は、当該IDに代えて、当該物体を識別でき、当該物体に対して重複しないように割り当てられる他の情報であってもよい。また、当該物体の位置及び姿勢を示す情報は、ロボット20が備える第1撮像部C1〜第4撮像部C4のうちの一部又は全部によって撮像された撮像画像に基づいてロボット制御装置40が検出した位置及び姿勢であって当該物体のロボット座標系RCにおける位置及び姿勢を示す情報であってもよく、ダイレクトティーチング等によってロボット制御装置40が検出した位置及び姿勢であって当該物体のロボット座標系RCにおける位置及び姿勢を示す情報であってもよく、他の方法によってロボット制御装置40が検出した位置及び姿勢であって当該物体のロボット座標系RCにおける位置及び姿勢を示す情報であってもよい。なお、以下では、一例として、ロボット制御装置40が、当該物体の重心の位置及び姿勢を、当該物体の位置及び姿勢として検出する場合について説明する。当該重心は、当該物体の位置及び姿勢を表す部位の一例である。ここで、当該部位は、当該重心に代えて、当該物体に応じた他の部位であってもよい。また、以下では、一例として、ロボット制御装置40には、物***置姿勢情報が予め記憶されている場合について説明する。なお、物***置姿勢情報は、物体識別情報と、物体の位置及び姿勢を示す情報とに加えて、他の情報が対応付けられた情報であってもよい。   The object position and orientation information is information in which object identification information, which is information for identifying an object, is associated with information indicating the position and orientation of the object, for each of one or more objects located around the robot 20. It is. The object identification information is an ID assigned to an object located around the robot 20 so as not to overlap. The object identification information may be other information that can be used to identify the object in place of the ID and be assigned so as not to overlap with the object. Further, the robot control device 40 detects information indicating the position and attitude of the object based on a captured image captured by a part or all of the first imaging unit C1 to the fourth imaging unit C4 included in the robot 20. The position and orientation of the object may be information indicating the position and orientation of the object in the robot coordinate system RC, or the position and orientation detected by the robot control apparatus 40 by direct teaching or the like, the robot coordinate system of the object It may be information indicating the position and orientation in RC, and may be information indicating the position and orientation in the robot coordinate system RC of the object which is the position and orientation detected by the robot control apparatus 40 by another method. . In the following, as an example, a case where the robot control device 40 detects the position and orientation of the center of gravity of the object as the position and orientation of the object will be described. The said gravity center is an example of the site | part which represents the position and attitude | position of the said object. Here, the site may be another site corresponding to the object instead of the center of gravity. In the following, as an example, a case where object position and orientation information is stored in advance in the robot control device 40 will be described. The object position and orientation information may be information associated with other information in addition to the object identification information and the information indicating the position and orientation of the object.

周辺物体情報は、ロボット20の周囲に位置する1以上の物体のそれぞれについて、物体の物***置姿勢情報と、物体に応じたオブジェクトに関するオブジェクト情報に含まれるオブジェクト識別情報とが対応付けられた情報のことである。換言すると、周辺物体情報は、ロボット20の周囲に位置する1以上の物体のそれぞれに応じたオブジェクトを示す情報のことである。また、周辺物体情報は、当該オブジェクトのロボット座標系RCにおける位置及び姿勢を、当該オブジェクトに応じた物体の位置及び姿勢によって示す情報のことである。なお、周辺物体情報には、物***置姿勢情報と、オブジェクト識別情報とに加えて、他の情報が対応付けられた情報であってもよい。   Peripheral object information is information in which object position / posture information of an object and object identification information included in object information on an object according to an object are associated with each of one or more objects located around the robot 20 It is. In other words, the peripheral object information is information indicating an object corresponding to each of one or more objects located around the robot 20. The peripheral object information is information indicating the position and orientation of the object in the robot coordinate system RC by the position and orientation of the object according to the object. The peripheral object information may be information associated with other information in addition to the object position and orientation information and the object identification information.

教示点情報は、教示点を示す情報のことである。教示点は、ロボット制御装置40が第1アームA1を動作させて制御点T1を一致させる目標となる仮想的な点のことである。教示点には、教示点の位置を示す情報である教示点位置情報と、教示点の姿勢を示す情報である教示点姿勢情報とが対応付けられている。ロボット20がある教示点に制御点T1を一致させた場合、制御点T1の位置(すなわち、この一例における第1エンドエフェクターE1の位置)は、当該教示点の位置と一致する。また、当該場合、制御点T1の姿勢(すなわち、この一例における第1エンドエフェクターE1の姿勢)は、当該教示点の姿勢と一致する。   The teaching point information is information indicating a teaching point. The teaching point is a virtual point on which the robot control apparatus 40 operates the first arm A1 to make the control points T1 coincide with each other. The teaching point is associated with teaching point position information which is information indicating the position of the teaching point, and teaching point attitude information which is information indicating the attitude of the teaching point. When the robot 20 matches the control point T1 to a certain teaching point, the position of the control point T1 (that is, the position of the first end effector E1 in this example) coincides with the position of the teaching point. Further, in this case, the attitude of the control point T1 (that is, the attitude of the first end effector E1 in this example) coincides with the attitude of the teaching point.

把持情報は、前述の把持対象と、ロボット20に装着された第1エンドエフェクターE1との相対的な位置を示す相対位置情報を含む情報のことである。なお、把持情報には、相対位置情報に加えて、他の情報が対応付けられた情報であってもよい。以下では、一例として、把持情報が、前述のオブジェクト識別情報及びオブジェクト名称情報と、相対位置情報と、相対姿勢情報と、開閉量情報と、ツール座標系情報とが対応付けられた情報である場合について説明する。把持情報に含まれるオブジェクト識別情報は、把持対象に応じたオブジェクトのオブジェクト識別情報である。把持情報に含まれるオブジェクト名称情報は、把持対象に応じたオブジェクトのオブジェクト名称情報である。相対姿勢情報は、把持対象と第1エンドエフェクターE1との相対的な姿勢を示す情報のことである。また、開閉量情報は、第1エンドエフェクターE1が備える指部の開閉量のうち第1エンドエフェクターE1に把持対象を把持させる場合における開閉量を示す情報のことである。ここで、当該指部の開閉量は、第1エンドエフェクターE1が備える複数の指部それぞれの先端同士の間の距離を表す量であれば、如何なる量であってもよい。また、ツール座標系情報は、ツール座標系を示す情報のことである。ツール座標系は、第1エンドエフェクターE1により把持された把持対象に対応付けられる三次元直交座標系であって、当該把持対象が有する部位のうちユーザーが所望する部位のロボット座標系RCにおける位置及び姿勢を示す三次元直交座標系のことである。また、ツール座標系は、把持対象とともに動く。このため、ツール座標系情報は、把持対象と当該部位との相対的な位置及び姿勢を示す情報であると換言することができる。ここで、当該部位は、指定された部位の一例である。例えば、当該把持対象が電動ドライバーである場合、ツール座標系は、電動ドライバーの先端のロボット座標系RCにおける位置及び姿勢を表すために当該先端に対応付けられる。なお、把持情報は、オブジェクト識別情報と、オブジェクト名称情報と、相対姿勢情報と、開閉量情報と、ツール座標系情報との一部又は全部を含まない構成であってもよく、オブジェクト識別情報と、オブジェクト名称情報と、相対姿勢情報と、開閉量情報と、ツール座標系情報の一部又は全部に代えて、他の情報を相対位置情報とともに含む構成であってもよく、オブジェクト識別情報と、オブジェクト名称情報と、相対位置情報と、相対姿勢情報と、開閉量情報と、ツール座標系情報との全部に加えて、他の情報を含む構成であってもよい。   The grip information is information including relative position information indicating the relative position between the aforementioned grip target and the first end effector E1 mounted on the robot 20. In addition to the relative position information, the holding information may be information associated with other information. In the following, as an example, when the grip information is information in which the object identification information and the object name information, the relative position information, the relative posture information, the open / close amount information, and the tool coordinate system information are associated with each other Will be explained. The object identification information included in the grip information is object identification information of an object according to the grip target. The object name information included in the grip information is object name information of an object according to the grip target. The relative attitude information is information indicating the relative attitude between the grasped object and the first end effector E1. Further, the opening / closing amount information is information indicating the opening / closing amount in the case where the first end effector E1 grips the grasping target among the opening / closing amounts of the finger portion provided in the first end effector E1. Here, the amount of opening and closing of the finger may be any amount as long as it represents the distance between the tips of the plurality of fingers included in the first end effector E1. The tool coordinate system information is information indicating a tool coordinate system. The tool coordinate system is a three-dimensional orthogonal coordinate system associated with the grasped object grasped by the first end effector E1, and the position in the robot coordinate system RC of the portion desired by the user among the portions possessed by the grasped object It is a three-dimensional orthogonal coordinate system that indicates the attitude. Also, the tool coordinate system moves with the object to be grasped. For this reason, it can be put in another way that tool coordinate system information is information which shows relative position and posture of a grasping object and the part concerned. Here, the said site | part is an example of the designated site | part. For example, when the grip target is an electric driver, the tool coordinate system is associated with the tip to represent the position and orientation of the tip of the electric driver in the robot coordinate system RC. The grasping information may be configured not to include part or all of the object identification information, the object name information, the relative posture information, the open / close amount information, and the tool coordinate system information. , Object name information, relative posture information, opening / closing amount information, and a configuration including other information together with relative position information instead of part or all of tool coordinate system information, object identification information, Other information may be included in addition to all of the object name information, the relative position information, the relative posture information, the opening / closing amount information, and the tool coordinate system information.

また、ロボット制御装置40は、第1力検出部S1が検出した結果を示す情報を第1力検出部S1から取得し、取得した当該情報に基づく力制御によって第1アームA1を動作させる。当該力制御は、インピーダンス制御等のコンプライアントモーション制御のことである。   Further, the robot control device 40 acquires, from the first force detection unit S1, information indicating a result detected by the first force detection unit S1, and operates the first arm A1 by force control based on the acquired information. The force control is compliant motion control such as impedance control.

ロボット制御装置40は、上記において説明した処理によって第1アームA1を動作させる。また、ロボット制御装置40は、当該処理と同様の処理によって第2アームA2を動作させる。そして、ロボット制御装置40は、第1アームA1と第2アームA2との少なくとも一方を動作させ、ロボット20に所定の作業を行わせる。所定の作業は、如何なる作業であってもよい。なお、ロボット制御装置40は、当該処理に加えて、他の処理によって第1アームA1と第2アームA2との少なくとも一方を動作させる構成であってもよい。   The robot control device 40 operates the first arm A1 by the processing described above. Further, the robot control device 40 operates the second arm A2 by the same process as the process. Then, the robot control device 40 operates at least one of the first arm A1 and the second arm A2 to cause the robot 20 to perform predetermined work. The predetermined operation may be any operation. The robot control apparatus 40 may be configured to operate at least one of the first arm A1 and the second arm A2 by another process in addition to the process.

情報処理装置30は、例えば、ノートPC(Personal Computer)、タブレットPC、デスクトップPC、ワークステーション、多機能携帯電話端末(スマートフォン)、携帯電話端末、PDA(Personal Digital Assistant)等の情報処理装置である。なお、情報処理装置30は、ティーチングペンダントであってもよい。   The information processing apparatus 30 is, for example, an information processing apparatus such as a laptop PC (Personal Computer), a tablet PC, a desktop PC, a workstation, a multifunctional mobile phone terminal (smart phone), a mobile phone terminal, a PDA (Personal Digital Assistant), etc. . Note that the information processing device 30 may be a teaching pendant.

情報処理装置30は、ユーザーから受け付けた操作に応じて、動作プログラム、教示点情報、オブジェクト情報、把持情報等の各種の情報を生成する。そして、情報処理装置30は、生成した情報を、ロボット制御装置40に出力して記憶させる(ロボット制御装置40に教示する)。ここで、情報処理装置30は、ロボット制御装置40がオフライン状態である場合であっても、生成した情報を、ロボット制御装置40に出力して記憶させることができる。   The information processing apparatus 30 generates various types of information such as an operation program, teaching point information, object information, and gripping information according to an operation received from the user. Then, the information processing device 30 outputs the generated information to the robot control device 40 for storage (teaching the robot control device 40). Here, even when the robot control apparatus 40 is in the offline state, the information processing apparatus 30 can output the generated information to the robot control apparatus 40 and store it.

情報処理装置30は、ケーブルによって通信可能にロボット制御装置40と接続されている。ケーブルを介した有線通信は、例えば、イーサネット(登録商標)、USB等の規格によって行われる。ここで、情報処理装置30とロボット制御装置40とを繋ぐケーブルは、情報処理装置30とロボット制御装置40とを通信可能に接続する回線のうちの有線による回線の一例である。なお、情報処理装置30は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置40と接続される構成であってもよい。この場合、例えば、Wi−Fi(登録商標)は、情報処理装置30とロボット制御装置40との間を通信可能に接続する回線のうちの無線による回線の一例である。   The information processing device 30 is communicably connected to the robot control device 40 by a cable. Wired communication via a cable is performed according to a standard such as Ethernet (registered trademark) or USB, for example. Here, the cable connecting the information processing apparatus 30 and the robot control apparatus 40 is an example of a wired line among the lines communicably connecting the information processing apparatus 30 and the robot control apparatus 40. The information processing apparatus 30 may be connected to the robot control apparatus 40 by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark). In this case, for example, Wi-Fi (registered trademark) is an example of a wireless communication line among the lines connecting the information processing apparatus 30 and the robot control apparatus 40 in a communicable manner.

<情報処理装置のハードウェア構成>
以下、図2を参照し、情報処理装置30のハードウェア構成について説明する。図2は、情報処理装置30のハードウェア構成の一例を示す図である。
<Hardware Configuration of Information Processing Device>
The hardware configuration of the information processing apparatus 30 will be described below with reference to FIG. FIG. 2 is a diagram showing an example of the hardware configuration of the information processing apparatus 30. As shown in FIG.

情報処理装置30は、例えば、プロセッサー31と、メモリー32と、入力受付部33と、通信部34と、表示部35を備える。また、情報処理装置30は、通信部34を介してロボット制御装置40と通信を行う。これらの構成要素は、バスを介して相互に通信可能に接続されている。   The information processing apparatus 30 includes, for example, a processor 31, a memory 32, an input receiving unit 33, a communication unit 34, and a display unit 35. Further, the information processing device 30 communicates with the robot control device 40 via the communication unit 34. These components are communicably connected to one another via a bus.

プロセッサー31は、例えば、CPU(Central Processing Unit)である。なお、プロセッサー31は、CPUに代えて、FPGA(Field Programmable Gate Array)等の他のプロセッサーであってもよい。プロセッサー31は、メモリー32に格納された各種のプログラムを実行する。なお、プロセッサー31は、1つの情報処理装置(この一例において、情報処理装置30)が備えるCPUによって構成されてもよく、複数の情報処理装置が備えるCPUによって構成されてもよい。   The processor 31 is, for example, a CPU (Central Processing Unit). The processor 31 may be another processor such as an FPGA (Field Programmable Gate Array) instead of the CPU. The processor 31 executes various programs stored in the memory 32. The processor 31 may be configured by a CPU included in one information processing apparatus (in this example, the information processing apparatus 30), or may be configured by a CPU included in a plurality of information processing apparatuses.

メモリー32は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、ROM(Read−Only Memory)、RAM(Random Access Memory)等を含む。なお、メモリー32は、情報処理装置30に内蔵されるものに代えて、USB等のデジタル入出力ポート等によって接続された外付け型の記憶装置であってもよい。メモリー32は、情報処理装置30が処理する各種の情報、各種の画像、動作プログラム等を格納する。なお、メモリー32は、1つの記憶装置によって構成されてもよく、複数の記憶装置によって構成されてもよい。また、当該複数の記憶装置には、情報処理装置30と別体の情報処理装置が備える記憶装置が含まれる構成であってもよい。   The memory 32 includes, for example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), an EEPROM (Electrically Erasable Programmable Read-Only Memory), a ROM (Read-Only Memory), a RAM (Random Access Memory), and the like. The memory 32 may be an external storage device connected by a digital input / output port such as a USB, instead of the one built in the information processing device 30. The memory 32 stores various types of information processed by the information processing apparatus 30, various types of images, operation programs, and the like. The memory 32 may be configured by one storage device, or may be configured by a plurality of storage devices. In addition, the plurality of storage devices may include a storage device included in an information processing device that is separate from the information processing device 30.

入力受付部33は、キーボード、マウス、タッチパッド等の入力装置である。なお、入力受付部33は、表示部35と一体に構成されたタッチパネルであってもよい。   The input receiving unit 33 is an input device such as a keyboard, a mouse, and a touch pad. The input accepting unit 33 may be a touch panel integrally formed with the display unit 35.

通信部34は、例えば、USB等のデジタル入出力ポートやイーサネット(登録商標)ポート等を含んで構成される。   The communication unit 34 includes, for example, a digital input / output port such as USB, an Ethernet (registered trademark) port, and the like.

表示部35は、例えば、液晶ディスプレイパネル、あるいは、有機EL(ElectroLuminescence)ディスプレイパネルである。   The display unit 35 is, for example, a liquid crystal display panel or an organic EL (ElectroLuminescence) display panel.

<ロボット制御装置のハードウェア構成>
以下、図3を参照し、ロボット制御装置40のハードウェア構成について説明する。図3は、ロボット制御装置40のハードウェア構成の一例を示す図である。
<Hardware Configuration of Robot Controller>
The hardware configuration of the robot control device 40 will be described below with reference to FIG. FIG. 3 is a diagram showing an example of a hardware configuration of the robot control device 40. As shown in FIG.

ロボット制御装置40は、例えば、プロセッサー41と、メモリー42と、通信部44を備える。また、ロボット制御装置40は、通信部44を介して情報処理装置30と通信を行う。これらの構成要素は、バスを介して相互に通信可能に接続されている。   The robot control device 40 includes, for example, a processor 41, a memory 42, and a communication unit 44. Further, the robot control device 40 communicates with the information processing device 30 via the communication unit 44. These components are communicably connected to one another via a bus.

プロセッサー41の構成は、プロセッサー31の構成と同様の構成であるため、説明を省略する。   The configuration of the processor 41 is the same as the configuration of the processor 31, so the description will be omitted.

メモリー42の構成は、メモリー32の構成と同様の構成であるため、説明を省略する。   The configuration of the memory 42 is the same as the configuration of the memory 32, so the description will be omitted.

通信部44の構成は、通信部34の構成と同様の構成であるため、説明を省略する。   The configuration of the communication unit 44 is the same as the configuration of the communication unit 34, so the description will be omitted.

なお、ロボット制御装置40は、キーボード、マウス、タッチパッド等の入力装置と、ディスプレイを有する表示装置とのいずれか一方又は両方を備える構成であってもよい。   The robot control device 40 may be configured to include one or both of an input device such as a keyboard, a mouse, and a touch pad, and a display device having a display.

<ロボット制御装置の機能構成>
以下、図4を参照し、情報処理装置30及びロボット制御装置40それぞれの機能構成について説明する。図4は、情報処理装置30及びロボット制御装置40それぞれの機能構成の一例を示す図である。
<Functional Configuration of Robot Controller>
Hereinafter, with reference to FIG. 4, functional configurations of the information processing device 30 and the robot control device 40 will be described. FIG. 4 is a diagram illustrating an example of functional configurations of the information processing device 30 and the robot control device 40.

情報処理装置30は、メモリー32と、入力受付部33と、通信部34と、表示部35と、制御部36を備える。   The information processing apparatus 30 includes a memory 32, an input receiving unit 33, a communication unit 34, a display unit 35, and a control unit 36.

制御部36は、情報処理装置30の全体を制御する。制御部36は、表示制御部361と、処理部363と、通信制御部365を備える。制御部36が備えるこれらの機能部は、例えば、プロセッサー31が、メモリー32に記憶された各種の指令(例えば、プログラム、プログラムに含まれる各コマンド等)を実行することにより実現される。また、当該機能部のうちの一部又は全部は、LSI(Large Scale Integration)、ASIC(Application Specific Integrated Circuit)等のハードウェア機能部であってもよい。   The control unit 36 controls the entire information processing apparatus 30. The control unit 36 includes a display control unit 361, a processing unit 363, and a communication control unit 365. These functional units included in the control unit 36 are realized, for example, by the processor 31 executing various instructions (for example, a program, each command included in the program, and the like) stored in the memory 32. Further, part or all of the functional units may be hardware functional units such as LSI (Large Scale Integration) and ASIC (Application Specific Integrated Circuit).

表示制御部361は、ユーザーから受け付けた操作に応じて、各種の画像を生成する。表示制御部361は、生成した画像を表示部35に表示させる。   The display control unit 361 generates various images in accordance with the operation accepted from the user. The display control unit 361 causes the display unit 35 to display the generated image.

処理部363は、表示部35に表示された画像を介してユーザーから受け付けた操作に応じた処理を行う。   The processing unit 363 performs processing in accordance with the operation received from the user via the image displayed on the display unit 35.

通信制御部365は、通信部34を介したロボット制御装置40との通信を制御する。   The communication control unit 365 controls communication with the robot control device 40 via the communication unit 34.

ロボット制御装置40は、メモリー42と、通信部44と、制御部46を備える。   The robot control device 40 includes a memory 42, a communication unit 44, and a control unit 46.

制御部46は、ロボット制御装置40の全体を制御する。制御部46は、プログラム処理部461と、経路生成部463と、通信制御部465と、ロボット制御部467を備える。制御部46が備えるこれらの機能部は、例えば、プロセッサー41が、メモリー42に記憶された各種の指令(例えば、プログラム、プログラムに含まれる各コマンド等)を実行することにより実現される。また、当該機能部のうちの一部又は全部は、LSI、ASIC等のハードウェア機能部であってもよい。   The control unit 46 controls the entire robot control device 40. The control unit 46 includes a program processing unit 461, a path generation unit 463, a communication control unit 465, and a robot control unit 467. These functional units included in the control unit 46 are realized, for example, by the processor 41 executing various instructions (for example, a program, each command included in the program, and the like) stored in the memory 42. Further, part or all of the functional units may be hardware functional units such as an LSI and an ASIC.

プログラム処理部461は、第1アームA1の制御において、メモリー42に記憶された動作プログラムをメモリー42から読み出す。プログラム処理部461は、読み出した動作プログラムに基づいて、教示点情報が記憶されたメモリー42から、動作プログラムによって指定された1以上の教示点のそれぞれを示す教示点情報を読み出す。プログラム処理部461は、読み出した教示点情報を経路生成部463に出力する。また、プログラム処理部461は、第2アームA2の制御において、第1アームの制御において行う処理と同様の処理を行う。   The program processing unit 461 reads the operation program stored in the memory 42 from the memory 42 in the control of the first arm A1. The program processing unit 461 reads teaching point information indicating each of one or more teaching points designated by the operation program from the memory 42 in which the teaching point information is stored, based on the read operation program. The program processing unit 461 outputs the read teaching point information to the path generation unit 463. The program processing unit 461 performs the same process as the process performed in the control of the first arm in the control of the second arm A2.

経路生成部463は、メモリー42に記憶されたオブジェクト情報をメモリー42から読み出す。また、経路生成部463は、メモリー42に記憶された物***置姿勢情報をメモリー42から読み出す。経路生成部463は、読み出したオブジェクト情報及び物***置姿勢情報に基づいて、周辺物体情報を生成する。経路生成部463は、生成した周辺物体情報をメモリー42に記憶させる。また、経路生成部463は、第1アームA1の制御において、プログラム処理部461から教示点情報を取得する。また、経路生成部463は、当該制御において、メモリー42に記憶されたオブジェクト情報、周辺物体情報、把持情報のそれぞれをメモリー42から読み出す。経路生成部463は、取得した教示点情報と、読み出したオブジェクト情報、周辺物体情報、把持情報のそれぞれとに基づいて、現在の制御点T1の位置及び姿勢を当該教示点情報が示す教示点の位置及び姿勢と一致させるまでに制御点T1を通過させる経路を生成する。経路生成部463は、生成した経路を示す経路情報をメモリー42に記憶させる。また、経路生成部463は、第2アームの制御において、第1アームの制御において行う処理と同様の処理を行う。   The path generation unit 463 reads the object information stored in the memory 42 from the memory 42. In addition, the path generation unit 463 reads the object position and orientation information stored in the memory 42 from the memory 42. The path generation unit 463 generates peripheral object information based on the read object information and object position and orientation information. The path generation unit 463 stores the generated peripheral object information in the memory 42. Further, the path generation unit 463 acquires the teaching point information from the program processing unit 461 in the control of the first arm A1. In addition, the path generation unit 463 reads out each of the object information, the peripheral object information, and the grip information stored in the memory 42 from the memory 42 in the control. The path generation unit 463 determines the position and orientation of the current control point T1 based on the acquired teaching point information, the read object information, the peripheral object information, and the gripping information, of the teaching point indicated by the teaching point information. A path is made to pass the control point T1 until it matches the position and attitude. The path generation unit 463 causes the memory 42 to store path information indicating the generated path. The path generation unit 463 performs the same process as the process performed in the control of the first arm in the control of the second arm.

通信制御部465は、通信部44を介した情報処理装置30との通信を制御する。   The communication control unit 465 controls communication with the information processing device 30 via the communication unit 44.

ロボット制御部467は、第1アームA1の制御において、メモリー42に記憶された経路情報をメモリー42から読み出す。ロボット制御部467は、読み出した経路情報に基づいて、当該経路情報が示す経路上の各点における回動角であって第1アームA1が備える各関節の回動角を算出し、算出した回動角に基づいて第1アームA1を動かし、制御点T1を第1経路に沿って移動させる。また、ロボット制御部467は、第2アームA2の制御において、第1アームの制御において行う処理と同様の処理を行う。   The robot control unit 467 reads the path information stored in the memory 42 from the memory 42 in the control of the first arm A1. The robot control unit 467 calculates the rotation angle of each joint provided in the first arm A1, which is the rotation angle at each point on the route indicated by the route information, based on the read route information, and the calculated time The first arm A1 is moved based on the movement angle, and the control point T1 is moved along the first path. The robot control unit 467 performs the same process as the process performed in the control of the first arm in the control of the second arm A2.

<情報処理装置が行う情報編集処理>
以下、図5を参照し、情報処理装置30が行う情報編集処理について説明する。図5は、情報処理装置30が行う情報編集処理の流れの一例を示す図である。情報編集処理は、情報処理装置30が行う処理のうち、ユーザーから受け付けた操作に応じて各種の情報(例えば、オブジェクト情報、把持情報、教示点情報、動作プログラム等)の編集(例えば、生成、変更、出力等)を行う処理のことである。
<Information Editing Process Performed by Information Processing Device>
Hereinafter, the information editing process performed by the information processing device 30 will be described with reference to FIG. FIG. 5 is a diagram illustrating an example of the flow of the information editing process performed by the information processing device 30. The information editing process is a process (for example, generation, etc.) of various information (for example, object information, gripping information, teaching point information, operation program etc.) according to an operation received from the user among Change, output etc.).

表示制御部361は、情報編集処理を開始する操作をユーザーから受け付けるまで待機する(ステップS110)。表示制御部361は、例えば、表示制御部361によって表示部35に予め表示された図示しない操作画像を介してユーザーから当該操作を受け付ける。   The display control unit 361 stands by until an operation to start the information editing process is received from the user (step S110). The display control unit 361 receives the operation from the user via, for example, an operation image (not shown) displayed in advance on the display unit 35 by the display control unit 361.

情報編集処理を開始する操作をユーザーから受け付けた場合(ステップS110−YES)、表示制御部361は、図示しない情報編集画像を生成する。そして、表示制御部361は、生成した情報編集画像を表示部35に表示させる(ステップS120)。情報編集画像は、各種の情報の編集(例えば、生成、変更、出力等)を行う操作をユーザーから情報処理装置30が受け付ける画像のことである。また、情報編集画像は、複数のタブを有する。表示制御部361は、情報編集画像において、当該複数のタブのうちのいずれかをユーザーが選択する操作を受け付けた場合、受け付けた操作によって選択されたタブに応じた画像を表示部35に表示させる。当該複数のタブには、例えば、オブジェクト情報編集画像に応じたタブと、把持情報編集画像に応じたタブと、教示点情報編集画像に応じたタブと、動作プログラム編集画像に応じたタブとのそれぞれが含まれている。なお、当該タブには、他の画像に応じたタブが含まれる構成であってもよい。また、情報編集画像の構成は、当該複数のタブが含まれる画像であれば、如何なるGUI(Graphical User Interface)を含む画像であってもよい。このため、情報編集画像については、これ以上の説明を省略する。   When an operation to start the information editing process is received from the user (YES in step S110), the display control unit 361 generates an information editing image (not shown). Then, the display control unit 361 causes the display unit 35 to display the generated information editing image (step S120). The information editing image is an image in which the information processing apparatus 30 receives an operation of editing (for example, generation, change, output, etc.) of various types of information from the user. In addition, the information editing image has a plurality of tabs. The display control unit 361 causes the display unit 35 to display an image according to the tab selected by the received operation when the user selects an operation for selecting any one of the plurality of tabs in the information editing image. . The plurality of tabs include, for example, a tab according to the object information edit image, a tab according to the grip information edit image, a tab according to the teaching point information edit image, and a tab according to the operation program edit image. Each is included. Note that the tab may include tabs corresponding to other images. In addition, the configuration of the information editing image may be an image including any graphical user interface (GUI) as long as the image includes the plurality of tabs. For this reason, the information editing image will not be described further.

オブジェクト情報編集画像は、オブジェクト情報の編集(例えば、生成、変更、出力等)を行う操作をユーザーから情報処理装置30が受け付ける画像のことである。また、把持情報編集画像は、把持情報の編集(例えば、生成、変更、出力等)を行う操作をユーザーから情報処理装置30が受け付ける画像のことである。また、教示点情報編集画像は、教示点情報の編集(例えば、生成、変更、出力等)を行う操作をユーザーから情報処理装置30が受け付ける画像のことである。また、動作プログラム編集画像は、動作プログラムの編集(例えば、生成、変更、出力等)を行う操作をユーザーから情報処理装置30が受け付ける画像のことである。   The object information edit image is an image that the information processing apparatus 30 receives from the user an operation to edit (for example, generate, change, output, etc.) object information. Further, the grip information edit image is an image in which the information processing apparatus 30 receives an operation of editing (for example, generation, change, output, etc.) of the grip information from the user. The teaching point information edit image is an image that the information processing apparatus 30 receives from the user an operation to edit (for example, generate, change, output, etc.) the teaching point information. The operation program edit image is an image that the information processing device 30 receives from the user an operation to edit (for example, generate, change, output, etc.) the operation program.

ステップS120の処理が行われた後、処理部363は、情報編集画像を介してユーザーから操作を受け付けるまで待機する(ステップS130)。情報編集画像を介してユーザーから操作を受け付けたと判定した場合(ステップS130−YES)、処理部363は、受け付けた操作が、情報編集画像における各種の情報(例えば、動作プログラム、オブジェクト情報、把持情報等)の編集(例えば、生成、変更、出力等)を行う操作を終了させる編集終了操作であるか否か判定する(ステップS140)。ステップS130において受け付けた操作が編集終了操作ではないと判定した場合(ステップS140−NO)、処理部363は、当該操作に応じた処理(例えば、オブジェクト情報の編集を行う処理、把持情報の編集を行う処理、教示点情報の編集を行う処理、動作プログラムの編集を行う処理等)を行い(ステップS150)、その後、ステップS130に遷移し、情報編集画像を介してユーザーから操作を受け付けるまで再び待機する。一方、ステップS140において受け付けた操作が編集終了操作であると判定した場合(ステップS140−YES)、処理部363は、表示部35における情報編集画像の表示を削除し、処理を終了する。   After the process of step S120 is performed, the processing unit 363 stands by until an operation is received from the user via the information editing image (step S130). When it is determined that the operation is received from the user via the information edit image (step S130-YES), the processing unit 363 determines that the received operation is various information in the information edit image (for example, the operation program, the object information, the grip information It is determined whether it is an editing end operation for ending an operation for editing (e.g., generation, change, output etc.) (step S140). When it is determined that the operation accepted in step S130 is not the editing end operation (step S140-NO), the processing unit 363 performs a process (for example, a process of editing object information, editing of gripping information) according to the operation The process to be performed, the process to edit the teaching point information, the process to edit the operation program, etc. is performed (step S150), and thereafter, the process transitions to step S130 and stands by again until the operation is received from the user via the information editing image. Do. On the other hand, when it is determined that the operation received in step S140 is the editing end operation (YES in step S140), the processing unit 363 deletes the display of the information editing image on the display unit 35, and ends the processing.

<オブジェクト情報編集画像>
以下、図6を参照し、オブジェクト情報編集画像と、オブジェクト情報編集画像における情報処理装置30の処理とのそれぞれについて説明する。図6は、オブジェクト情報編集画像の一例を示す図である。図6に示した画像P1は、オブジェクト編集画像の一例である。画像P1は、例えば、領域VSと、ユーザーから操作を受け付ける各種のGUI(Graphical User Interface)が配置された操作領域である図示しない第1操作領域(図6に示した例では、画像P1が有する領域のうち領域VS以外の領域のうちの少なくとも一部)とを有する。ここで、領域VSは、画像P1が有する領域のうち、処理部363がメモリー32の記憶領域内に生成した仮想空間内に配置された各種の仮想的な物体を表示する領域の一例である。なお、画像P1は、領域VSと、第1操作領域に加えて、他のGUIを有する構成であってもよい。
<Object information edit image>
Each of the object information edit image and the processing of the information processing apparatus 30 in the object information edit image will be described below with reference to FIG. FIG. 6 is a diagram showing an example of the object information edit image. An image P1 illustrated in FIG. 6 is an example of an object editing image. The image P1 is, for example, an operation area in which an area VS and various kinds of GUIs (Graphical User Interfaces) for receiving an operation from the user are arranged (not shown in the drawing, the first operation area (in the example shown in FIG. And at least a part of the region other than the region VS). Here, the area VS is an example of an area for displaying various virtual objects arranged in the virtual space generated by the processing unit 363 in the storage area of the memory 32 among the areas included in the image P1. The image P1 may be configured to have another GUI in addition to the area VS and the first operation area.

画像P1では、ユーザーは、オブジェクト情報の編集として、オブジェクト情報の生成、変更、出力、記憶等を行うことができる。当該出力は、オブジェクト情報のロボット制御装置40への出力のことである。   In the image P1, the user can create, change, output, store, etc. object information as editing of object information. The output is an output of the object information to the robot control device 40.

ここで、画像P1においてユーザーが情報処理装置30に対して行う各種の操作と、当該操作に応じた情報処理装置30の処理について説明する。   Here, various operations performed by the user on the information processing apparatus 30 in the image P1 and processing of the information processing apparatus 30 according to the operations will be described.

ユーザーは、例えば、画像P1において、オブジェクトを生成することができる。オブジェクトを生成する際、ユーザーは、メモリー32に予め記憶された1以上のモデル情報のうちのいずれかを選択する操作を、前述の第1操作領域に対して行う。当該操作が行われた場合、処理部363は、受け付けた操作によって選択されたモデル情報をメモリー32から読み出す。モデル情報は、例えば、ロボット20の周囲に位置する物体それぞれの三次元形状を表すモデルを示す情報のことである。モデル情報は、例えば、当該物体それぞれのCAD(Computer Aided Design)データである。なお、モデル情報は、CADデータに代えて、他の情報であってもよい。メモリー32からモデル情報を読み出した後、処理部363は、メモリー32から読み出したモデル情報が表すモデルに基づいて、当該モデルが表す三次元形状を包含する仮想的な物体のうち、形状が単純であり且つ体積が最も小さい仮想的な物体を、当該モデルが表す三次元形状の物体に応じたオブジェクトとして生成する。ここで、モデル情報が表すモデルに基づいてオブジェクトを生成する処理は、既知の方法であってもよく、これから開発される方法でもよい。表示制御部361は、処理部363によって生成されたオブジェクトを、前述の領域VSに表示された仮想空間内に配置することにより、領域VSに表示させる。当該仮想空間内にオブジェクトを配置する際、表示制御部361は、当該仮想空間内の如何なる位置にオブジェクトを配置してもよい。例えば、表示制御部361は、当該仮想空間内において予め決められた基準となる点と、オブジェクトの重心とが一致するようにオブジェクトを当該仮想空間内に配置する。以下では、一例として、あるオブジェクトが有する部位のうち当該オブジェクトの位置及び姿勢を表す部位が、当該オブジェクトが有する部位のうち当該オブジェクトに応じた物体の位置及び姿勢を表す部位(この一例において、当該物体の重心)に対応する部位である場合について説明する。なお、あるオブジェクトが有する部位のうち当該オブジェクトの位置及び姿勢を表す部位は、当該オブジェクトが有する部位のうち当該オブジェクトに応じた物体の位置及び姿勢を表す部位に対応しない部位であってもよい。   The user can generate an object, for example, in the image P1. When generating an object, the user performs an operation of selecting any one of one or more pieces of model information stored in advance in the memory 32 on the first operation area described above. When the operation is performed, the processing unit 363 reads the model information selected by the received operation from the memory 32. The model information is, for example, information indicating a model representing a three-dimensional shape of each of the objects located around the robot 20. The model information is, for example, CAD (Computer Aided Design) data of each object. The model information may be other information instead of CAD data. After reading out the model information from the memory 32, the processing unit 363 has a simple shape among virtual objects including the three-dimensional shape represented by the model, based on the model represented by the model information read from the memory 32. A virtual object that is present and has the smallest volume is generated as an object according to the three-dimensional shaped object represented by the model. Here, the process of generating an object based on the model represented by the model information may be a known method or a method to be developed. The display control unit 361 causes the area VS to display the object generated by the processing unit 363 by arranging the object in the virtual space displayed in the area VS described above. When placing an object in the virtual space, the display control unit 361 may place the object at any position in the virtual space. For example, the display control unit 361 arranges the object in the virtual space such that a point serving as a predetermined reference in the virtual space matches the center of gravity of the object. In the following, as an example, a portion representing the position and orientation of the object among the portions possessed by an object represents a position and an orientation of the object according to the object among the portions possessed by the object (in this example, the portions The case where the region corresponds to the center of gravity of the object) will be described. In addition, the site | part which represents the position and attitude | position of the said object among the site | parts which a certain object has may be a site | part which does not correspond to the site | part which shows the position and attitude | position of the object according to the said object among site | parts which the said object has.

また、ユーザーは、例えば、画像P1において、メモリー32に予め記憶された1以上のオブジェクト情報のうちのいずれかのオブジェクト情報に応じたオブジェクトを領域VSに表示することができる。メモリー32に予め記憶されたオブジェクト情報のいずれかに応じたオブジェクトを表示する際、ユーザーは、メモリー32に予め記憶された1以上のオブジェクト情報のうちのいずれかを選択する操作を、第1操作領域に対して行う。当該操作が行われた場合、処理部363は、受け付けた操作によって選択されたオブジェクト情報をメモリー32から読み出す。そして、表示制御部361は、メモリー32から処理部363が読み出したオブジェクト情報に応じたオブジェクトを、領域VSに表示された仮想空間内に配置することにより、領域VSに表示させる。   Further, for example, in the image P1, the user can display an object according to any one of the one or more pieces of object information stored in advance in the memory 32 in the area VS. When displaying an object according to any of the object information stored in advance in the memory 32, the user performs an operation of selecting any one of the one or more pieces of object information stored in advance in the memory 32 as the first operation Do it for the area. When the operation is performed, the processing unit 363 reads the object information selected by the received operation from the memory 32. Then, the display control unit 361 causes the area VS to display an object according to the object information read by the processing unit 363 from the memory 32 in the virtual space displayed in the area VS.

ここで、あるオブジェクト情報に応じたオブジェクトは、当該オブジェクト情報に含まれる形状情報が示す形状と、当該オブジェクト情報に含まれる大きさ情報が示す大きさとのそれぞれを有するオブジェクトである。また、当該オブジェクト情報に応じたオブジェクトは、当該オブジェクト情報に含まれるオブジェクト座標系情報が示すオブジェクト座標系が対応付けられたオブジェクトである。すなわち、当該オブジェクトの位置は、前述した通り、当該オブジェクト座標系の原点のロボット座標系RCにおける位置によって表される。また、当該オブジェクトの姿勢は、当該オブジェクト座標系における各座標軸のロボット座標系RCにおける方向によって表される。また、当該オブジェクト情報に応じたオブジェクトには、オブジェクト情報に含まれるオブジェクト識別情報、オブジェクト名称情報のそれぞれが対応付けられている。   Here, an object according to certain object information is an object having each of a shape indicated by shape information included in the object information and a size indicated by size information included in the object information. An object according to the object information is an object associated with an object coordinate system indicated by object coordinate system information included in the object information. That is, as described above, the position of the object is represented by the position in the robot coordinate system RC of the origin of the object coordinate system. Further, the posture of the object is represented by the direction in the robot coordinate system RC of each coordinate axis in the object coordinate system. Further, each of object identification information and object name information included in the object information is associated with an object corresponding to the object information.

なお、以下では、一例として、領域VSに表示させることができるオブジェクトの数は、1つである場合について説明する。すなわち、表示制御部361は、新たなオブジェクトを領域VSに表示させる場合、当該オブジェクトの前に領域VSに表示されていたオブジェクトを領域VSに表示された仮想空間内から削除する。なお、表示制御部361は、2つ以上のオブジェクトを領域VSに表示させることが可能な構成であってもよい。   In the following, as an example, the case where the number of objects that can be displayed in the area VS is one will be described. That is, when displaying a new object in the area VS, the display control unit 361 deletes the object displayed in the area VS before the object from the virtual space displayed in the area VS. The display control unit 361 may be configured to be able to display two or more objects in the area VS.

ここで、図6に示したオブジェクトOBは、図6に示したモデルOが表す三次元形状の物体に応じたオブジェクトであって処理部363によって生成されたオブジェクトの一例である。図6に示した例では、モデルOが表す三次元形状の物体は、バネ(スプリング)である。なお、当該物体は、バネに代えて、他の如何なる物体であってもよい。図6に示したように、オブジェクトOBは、モデルOが表す三次元形状を包含する仮想的な物体のうち、形状が単純であり且つ体積が最も小さい仮想的な物体である。また、当該例では、オブジェクトOBの形状は、直方体形状である。   Here, the object OB illustrated in FIG. 6 is an object corresponding to the three-dimensional shaped object represented by the model O illustrated in FIG. 6 and is an example of the object generated by the processing unit 363. In the example shown in FIG. 6, the three-dimensional shaped object represented by the model O is a spring. The object may be any other object instead of the spring. As shown in FIG. 6, the object OB is a virtual object having a simple shape and the smallest volume among virtual objects including the three-dimensional shape represented by the model O. Moreover, in the said example, the shape of object OB is a rectangular parallelepiped shape.

また、ユーザーは、例えば、画像P1において、領域VSに表示されたオブジェクトの形状を変更することができる。当該オブジェクトの形状を変更する際、ユーザーは、当該形状を変更する操作を、第1操作領域又は領域VSに対して行う。当該操作が行われた場合、処理部363は、当該操作に応じて当該形状を変更する。そして、表示制御部361は、当該形状を変更した後の当該オブジェクトを領域VSに表示させる。   Also, for example, in the image P1, the user can change the shape of the object displayed in the area VS. When changing the shape of the object, the user performs an operation of changing the shape on the first operation area or the area VS. When the operation is performed, the processing unit 363 changes the shape according to the operation. Then, the display control unit 361 causes the area VS to display the object after changing the shape.

また、ユーザーは、例えば、画像P1において、領域VSに表示されたオブジェクトの大きさを変更することができる。当該オブジェクトの大きさを変更する際、ユーザーは、当該大きさを変更する操作を、第1操作領域又は領域VSに対して行う。当該操作が行われた場合、処理部363は、当該操作に応じて当該大きさを変更する。そして、表示制御部361は、当該大きさを変更した後の当該オブジェクトを領域VSに表示させる。   Also, for example, in the image P1, the user can change the size of the object displayed in the area VS. When changing the size of the object, the user performs an operation of changing the size on the first operation area or area VS. When the operation is performed, the processing unit 363 changes the size in accordance with the operation. Then, the display control unit 361 causes the area VS to display the object after changing the size.

また、ユーザーは、例えば、画像P1において、領域VSに表示されたオブジェクトに応じたオブジェクト情報に対応付けるオブジェクト名称情報を入力することができる。当該オブジェクト名称情報を入力する際、ユーザーは、当該オブジェクト名称情報を入力する操作を、第1操作領域に対して行う。当該操作が行われた場合、処理部363は、入力されたオブジェクト名称情報を、当該オブジェクト情報に対応付けるオブジェクト名称情報として特定する。また、表示制御部361は、第1操作領域においてオブジェクト名称情報を入力する欄に、入力されたオブジェクト名称情報を表示する。   In addition, for example, in the image P1, the user can input object name information to be associated with object information corresponding to an object displayed in the area VS. When inputting the object name information, the user performs an operation of inputting the object name information on the first operation area. When the operation is performed, the processing unit 363 specifies the input object name information as object name information to be associated with the object information. Further, the display control unit 361 displays the input object name information in a field for inputting object name information in the first operation area.

また、ユーザーは、例えば、画像P1において、領域VSに表示されたオブジェクトが有する部位のうちユーザーが所望する部位に、オブジェクトのロボット座標系RCにおける位置及び姿勢を表す三次元直交座標系をオブジェクト座標系として当該オブジェクトに対応付けることができる。当該オブジェクトに当該オブジェクト座標系を対応付ける際、ユーザーは、当該オブジェクト座標系を領域VSに表示させる操作を、第1操作領域に対して行う。そして、領域VSに当該オブジェクト座標系を領域VSに表示された後、ユーザーは、例えば、領域VSにおいて、当該オブジェクト座標系をドラッグすることにより、領域VSに表示された仮想空間内において、当該オブジェクト座標系を当該オブジェクトに対して相対的に移動(具体的には、並進又は回転)させ、当該オブジェクトが有する部位のうちユーザーが所望する部位に、ユーザーが所望する位置及び姿勢のオブジェクト座標系を対応付ける。当該オブジェクト座標系を領域VSに表示させる操作が行われた場合、表示制御部361は、当該オブジェクト座標系を領域VSに表示させる。また、表示制御部361は、領域VSにおいて当該オブジェクト座標系を当該オブジェクトに対して相対的に移動させる操作をユーザーから受け付けた場合、領域VSに表示された当該オブジェクト座標系の当該オブジェクトに対する相対的な位置及び姿勢を、当該操作に応じた位置及び姿勢に変更する。また、処理部363は、当該オブジェクト座標系の当該オブジェクトに対する相対的な位置及び姿勢が変更される毎に、当該オブジェクトに対して当該オブジェクト座標系を対応付ける。当該オブジェクト座標系が対応付けられた当該オブジェクトの位置は、当該オブジェクト座標系の原点のロボット座標系RCにおける位置によって表される。また、当該オブジェクトの姿勢は、当該オブジェクト座標系における各座標軸のロボット座標系RCにおける方向によって表される。図6に示した座標系OCは、オブジェクトOBに対応付けられたオブジェクト座標系の一例である。すなわち、図6に示した例では、ユーザーは、領域VSにおいて、座標系OCをドラッグすることにより、領域VSに表示された仮想空間内において、座標系OCをオブジェクトOBに対して相対的に移動(具体的には、並進又は回転)させることができる。   In addition, the user coordinates a three-dimensional orthogonal coordinate system representing the position and orientation of the object in the robot coordinate system RC at a portion desired by the user among the portions possessed by the object displayed in the region VS in the image P1, for example. It can be associated with the object as a system. When the object coordinate system is associated with the object, the user performs an operation of displaying the object coordinate system in the area VS on the first operation area. Then, after the object coordinate system is displayed in the area VS in the area VS, the user drags the object coordinate system in the area VS, for example, in the virtual space displayed in the area VS. The coordinate system is moved (specifically, translated or rotated) relative to the object, and the object coordinate system of the position and orientation desired by the user is selected at the portion desired by the user among the portions possessed by the object. Match. When an operation to display the object coordinate system in the area VS is performed, the display control unit 361 causes the area VS to display the object coordinate system. When the display control unit 361 receives from the user an operation to move the object coordinate system relative to the object in the area VS, the display control unit 361 relative to the object in the object coordinate system displayed in the area VS. Position and attitude are changed to positions and attitudes corresponding to the operation. Also, the processing unit 363 associates the object coordinate system with the object each time the relative position and orientation of the object coordinate system with respect to the object are changed. The position of the object associated with the object coordinate system is represented by the position in the robot coordinate system RC of the origin of the object coordinate system. Further, the posture of the object is represented by the direction in the robot coordinate system RC of each coordinate axis in the object coordinate system. The coordinate system OC shown in FIG. 6 is an example of an object coordinate system associated with the object OB. That is, in the example shown in FIG. 6, the user moves the coordinate system OC relative to the object OB in the virtual space displayed in the area VS by dragging the coordinate system OC in the area VS. (Specifically, translation or rotation).

また、ユーザーは、例えば、画像P1において、領域VSに表示されたオブジェクト及びオブジェクト座標系と、情報処理装置30に入力したオブジェクト名称情報とに基づくオブジェクト情報を生成することができる。オブジェクト情報を生成する際、ユーザーは、オブジェクト情報を生成する操作を、第1操作領域に対して行う。当該操作が行われた場合、処理部363は、領域VSに表示されたオブジェクト(図6に示した例では、オブジェクトOB)と、領域VSに表示されたオブジェクト座標系(図6に示した例では、座標系OC)と、予め入力されたオブジェクト名称情報とに基づいて、オブジェクト情報を生成する。より具体的には、処理部363は、当該操作に応じて、当該オブジェクトにオブジェクト識別情報を割り当てる。また、処理部363は、当該オブジェクトに基づいて、当該オブジェクトの形状を示す形状情報と、当該オブジェクトの大きさを示す大きさ情報とのそれぞれを生成する。また、処理部363は、当該オブジェクトに対応付けられた当該オブジェクト座標系に基づいて、当該オブジェクトに対応付けられた当該オブジェクト座標系を示すオブジェクト座標系情報を生成する。処理部363は、生成した形状情報、大きさ情報、オブジェクト座標系情報のそれぞれを含むオブジェクト関連情報を生成する。処理部363は、生成したオブジェクト識別情報と、予め入力されたオブジェクト名称情報と、生成したオブジェクト関連情報のそれぞれを含むオブジェクト情報を生成する。ここで、図7は、オブジェクト情報の一例を示す図である。図7に示したように、オブジェクト情報では、オブジェクト識別情報と、オブジェクト名称情報と、オブジェクト関連情報とが対応付けられている。なお、図7に示した例では、オブジェクト情報は、オブジェクト識別情報と、オブジェクト名称情報と、オブジェクト関連情報とを対応付けて格納するテーブルであるが、当該テーブルに代えて、オブジェクト識別情報と、オブジェクト名称情報と、オブジェクト関連情報とを対応付ける他の情報であってもよい。   Further, the user can generate object information based on, for example, the object and the object coordinate system displayed in the area VS and the object name information input to the information processing apparatus 30 in the image P1. When generating object information, the user performs an operation of generating object information on the first operation area. When the operation is performed, the processing unit 363 selects the object displayed in the area VS (the object OB in the example illustrated in FIG. 6) and the object coordinate system displayed in the area VS (example illustrated in FIG. 6) Then, object information is generated based on the coordinate system OC) and the object name information input in advance. More specifically, the processing unit 363 assigns object identification information to the object in accordance with the operation. The processing unit 363 also generates, based on the object, shape information indicating the shape of the object and size information indicating the size of the object. The processing unit 363 also generates object coordinate system information indicating the object coordinate system associated with the object based on the object coordinate system associated with the object. The processing unit 363 generates object related information including each of the generated shape information, size information, and object coordinate system information. The processing unit 363 generates object information including each of the generated object identification information, the object name information input in advance, and the generated object related information. Here, FIG. 7 is a diagram showing an example of object information. As shown in FIG. 7, in the object information, object identification information, object name information, and object related information are associated. In the example shown in FIG. 7, the object information is a table that stores object identification information, object name information, and object-related information in association with each other, but instead of the table, object identification information, It may be other information that associates object name information with object related information.

また、ユーザーは、例えば、画像P1において、生成したオブジェクト情報を情報処理装置30にロボット制御装置40へ出力させることができる。当該オブジェクト情報を情報処理装置30にロボット制御装置40へ出力させる際、ユーザーは、当該オブジェクト情報を情報処理装置30にロボット制御装置40へ出力させる操作を、第1操作領域に対して行う。当該操作が行われた場合、通信制御部365は、通信部34と、情報処理装置30とロボット制御装置40とを通信可能に接続するケーブルとを介して、当該オブジェクト情報をロボット制御装置40へ出力する。   Also, the user can cause the information processing device 30 to output the generated object information to the robot control device 40, for example, in the image P1. When causing the information processing apparatus 30 to output the object information to the robot control apparatus 40, the user performs an operation to cause the information processing apparatus 30 to output the object information to the robot control apparatus 40 on the first operation area. When the operation is performed, the communication control unit 365 transmits the object information to the robot control device 40 via the communication unit 34 and the cable communicably connecting the information processing device 30 and the robot control device 40. Output.

また、ユーザーは、例えば、画像P1において、生成したオブジェクト情報をメモリー32に記憶させることができる。当該オブジェクト情報をメモリー32に記憶させる際、ユーザーは、当該オブジェクト名称情報をメモリー32に記憶させる操作を、第1操作領域に対して行う。当該操作が行われた場合、処理部363は、当該オブジェクト情報をメモリー32に記憶させる。   Also, the user can store the generated object information in the memory 32, for example, in the image P1. When storing the object information in the memory 32, the user performs an operation of storing the object name information in the memory 32 on the first operation area. When the operation is performed, the processing unit 363 stores the object information in the memory 32.

以上のように、情報処理装置30は、オブジェクト情報編集画像を介してユーザーから受け付けた操作に基づいて、オブジェクト情報の生成、変更、出力、記憶を行うことができる。   As described above, the information processing apparatus 30 can generate, change, output, and store object information based on an operation received from the user via the object information edit image.

<把持情報編集画像>
以下、図8を参照し、把持情報編集画像について説明する。図8は、把持情報編集画像の一例を示す図である。図8に示した画像P2は、把持編集画像の一例である。画像P2は、例えば、領域VS2と、ユーザーから操作を受け付ける各種のGUIが配置された図示しない操作領域である第2操作領域(図8に示した例では、画像P2が有する領域のうち領域VS2以外の領域のうちの少なくとも一部)とを有する。ここで、領域VS2は、画像P2が有する領域のうち、処理部363がメモリー32の記憶領域内に生成した仮想空間内に配置された各種の仮想的な物体を表示する領域の一例である。当該仮想空間は、領域VSに表示された仮想空間と同じ仮想空間であってもよく、領域VSに表示された仮想空間と異なる仮想空間であってもよい。以下では、一例として、領域VS2に表示された仮想空間が、領域VSに表示された仮想空間と異なる仮想空間である場合について説明する。なお、画像P2は、領域VS2と、第2操作領域に加えて、他のGUIを有する構成であってもよい。
<Grasping information edit image>
Hereinafter, the grip information editing image will be described with reference to FIG. FIG. 8 is a view showing an example of a grip information edit image. The image P2 shown in FIG. 8 is an example of a gripped edited image. The image P2 is, for example, an area VS2 and a second operation area (not shown) in which various types of GUIs for receiving operations from the user are arranged (in the example shown in FIG. And at least a part of the other regions). Here, the area VS2 is an example of an area for displaying various virtual objects arranged in the virtual space generated by the processing unit 363 in the storage area of the memory 32 among the areas included in the image P2. The virtual space may be the same virtual space as the virtual space displayed in the area VS, or may be a virtual space different from the virtual space displayed in the area VS. In the following, as an example, a case where the virtual space displayed in the area VS2 is a virtual space different from the virtual space displayed in the area VS will be described. The image P2 may be configured to have another GUI in addition to the area VS2 and the second operation area.

画像P2では、ユーザーは、例えば、把持情報の編集として、把持情報の生成、変更、出力、記憶等を行うことができる。ここで、当該出力は、把持情報のロボット制御装置40への出力のことである。   In the image P2, for example, the user can perform generation, change, output, storage, and the like of the grip information as editing of the grip information. Here, the output is an output of the gripping information to the robot control device 40.

ここで、画像P2においてユーザーが情報処理装置30に対して行う各種の操作と、当該操作に応じた情報処理装置30の処理について説明する。   Here, various operations performed by the user on the information processing apparatus 30 in the image P2 and processing of the information processing apparatus 30 according to the operations will be described.

ユーザーは、例えば、画像P2において、メモリー32に予め記憶された1以上のオブジェクト情報のうちのいずれかのオブジェクト情報に応じたオブジェクトを領域VS2に表示することができる。メモリー32に予め記憶されたオブジェクト情報のいずれかに応じたオブジェクトを表示する際、ユーザーは、メモリー32に予め記憶された1以上のオブジェクト情報のうちのいずれかを選択する操作を、第2操作領域に対して行う。当該操作が行われた場合、処理部363は、受け付けた操作によって選択されたオブジェクト情報をメモリー32から読み出す。そして、表示制御部361は、メモリー32から処理部363が読み出したオブジェクト情報に応じたオブジェクトを、領域VS2に表示された仮想空間内に配置することにより、領域VS2に表示させる。この際、表示制御部361は、当該オブジェクトに対応付けられたオブジェクト座標系を領域VS2に表示させる構成であってもよく、当該オブジェクト座標系を領域VS2に表示させる構成であってもよい。なお、図8に示したオブジェクトOBは、領域VS2に表示されたオブジェクトの一例である。また、図8に示した例では、オブジェクトOBに対応付けられたオブジェクト座標系の一例である座標系OCは、図が煩雑になるのを防ぐため、省略されている。また、当該仮想空間内にオブジェクトを配置する際、表示制御部361は、当該仮想空間内の如何なる位置にオブジェクトを配置してもよい。例えば、表示制御部361は、当該仮想空間内において予め決められた基準となる点と、オブジェクトの重心とが一致するようにオブジェクトを当該仮想空間内に配置する。   For example, in the image P2, the user can display, in the area VS2, an object corresponding to any one of the one or more pieces of object information stored in advance in the memory 32. When displaying an object according to any of the object information stored in advance in the memory 32, the user performs an operation of selecting any of the one or more pieces of object information stored in advance in the memory 32 as a second operation Do it for the area. When the operation is performed, the processing unit 363 reads the object information selected by the received operation from the memory 32. Then, the display control unit 361 causes the area VS2 to display an object according to the object information read by the processing unit 363 from the memory 32 in the virtual space displayed in the area VS2. At this time, the display control unit 361 may be configured to display the object coordinate system associated with the object in the area VS2, or may be configured to display the object coordinate system in the area VS2. The object OB illustrated in FIG. 8 is an example of the object displayed in the area VS2. Further, in the example shown in FIG. 8, a coordinate system OC, which is an example of an object coordinate system associated with the object OB, is omitted to prevent the drawing from being complicated. In addition, when arranging an object in the virtual space, the display control unit 361 may arrange the object at any position in the virtual space. For example, the display control unit 361 arranges the object in the virtual space such that a point serving as a predetermined reference in the virtual space matches the center of gravity of the object.

また、ユーザーは、例えば、画像P2において、仮想的な第1エンドエフェクターE1である仮想第1エンドエフェクターを、領域VS2に表示されたオブジェクトとともに領域VS2に表示させることができる。仮想第1エンドエフェクターを領域VS2に表示させる際、ユーザーは、仮想第1エンドエフェクターを領域VS2に表示させる操作を、第2操作領域に対して行う。当該操作が行われた場合、処理部363は、仮想第1エンドエフェクターを生成する。そして、表示制御部361は、処理部363によって生成された仮想第1エンドエフェクターを、領域VS2に表示された仮想空間内に配置することにより、領域VS2に表示させる。また、表示制御部361は、第1エンドエフェクターE1に設定された制御点T1に対応付けられた制御点座標系を、仮想第1エンドエフェクターとともに表示させる。ここで、図8に示した仮想第1エンドエフェクターVEは、領域VS2に表示された仮想第1エンドエフェクターの一例である。また、図8に示した座標系TCは、当該制御点座標系の一例である。   In addition, for example, in the image P2, the user can cause the virtual first end effector E1, which is the virtual first end effector E1, to be displayed in the area VS2 together with the object displayed in the area VS2. When displaying the virtual first end effector in the area VS2, the user performs an operation of displaying the virtual first end effector in the area VS2 on the second operation area. When the operation is performed, the processing unit 363 generates a virtual first end effector. Then, the display control unit 361 causes the area VS2 to display the virtual first end effector generated by the processing unit 363 by arranging the virtual first end effector in the virtual space displayed in the area VS2. In addition, the display control unit 361 causes the control point coordinate system associated with the control point T1 set in the first end effector E1 to be displayed together with the virtual first end effector. Here, the virtual first end effector VE illustrated in FIG. 8 is an example of the virtual first end effector displayed in the area VS2. The coordinate system TC shown in FIG. 8 is an example of the control point coordinate system.

また、ユーザーは、例えば、画像P2において、領域VS2に表示された仮想第1エンドエフェクターをオブジェクトに対して相対的に移動(具体的には、並進又は回転)させ、仮想第1エンドエフェクターのオブジェクトに対する相対的な位置及び姿勢を、ユーザーが所望する位置及び姿勢と一致させることができる。仮想第1エンドエフェクターのオブジェクトに対する相対的な位置及び姿勢を、ユーザーが所望する位置及び姿勢と一致させる際、ユーザーは、仮想第1エンドエフェクターのオブジェクトに対する相対的な位置及び姿勢を、ユーザーが所望する位置及び姿勢と一致させる操作を、第2操作領域又は領域VS2に対して行う。例えば、ユーザーは、領域VS2において、仮想第1エンドエフェクターをドラッグすることにより、領域VS2に表示された仮想空間内において、領域VS2に表示されたオブジェクトに対して相対的に移動(具体的には、並進又は回転)させ、仮想第1エンドエフェクターのオブジェクトに対する相対的な位置及び姿勢を、ユーザーが所望する位置及び姿勢と一致させる。当該操作を受け付けた場合、表示制御部361は、領域VS2に表示された仮想第1エンドエフェクターのオブジェクトに対する相対的な位置及び姿勢を、当該操作に応じた位置及び姿勢に変更する。ここで、当該位置及び当該姿勢は、オブジェクトに応じた物体を第1エンドエフェクターE1に把持させる場合における第1エンドエフェクターE1の当該物体に対する相対的な位置及び姿勢のことである。図8に示した例では、ユーザーは、領域VS2において、仮想第1エンドエフェクターVEをドラッグすることにより、領域VS2に表示された仮想空間内において、仮想第1エンドエフェクターVEをオブジェクトOBに対して相対的に移動(具体的には、並進又は回転)させることができる。   Also, for example, in the image P2, the user moves (specifically, translates or rotates) the virtual first end effector displayed in the area VS2 relative to the object, and the object of the virtual first end effector The relative position and orientation to the can be matched with the position and orientation desired by the user. When the relative position and posture of the virtual first end effector with respect to the object match the position and posture desired by the user, the user desires the relative position and posture of the virtual first end effector with respect to the object The second operation area or area VS2 is subjected to an operation of matching the position and attitude of the second operation area. For example, by dragging the virtual first end effector in the area VS2, the user moves relative to the object displayed in the area VS2 (specifically, within the virtual space displayed in the area VS2). , Translate or rotate) to match the relative position and orientation of the virtual first end effector with the object to the position and orientation desired by the user. When the operation is received, the display control unit 361 changes the position and orientation of the virtual first end effector displayed in the area VS2 relative to the object to the position and orientation according to the operation. Here, the position and the posture are the relative position and posture of the first end effector E1 to the object when the first end effector E1 grips the object according to the object. In the example illustrated in FIG. 8, the user drags the virtual first end effector VE in the area VS2 to move the virtual first end effector VE to the object OB in the virtual space displayed in the area VS2. It can be relatively moved (specifically, translated or rotated).

また、ユーザーは、例えば、画像P1において、領域VS2に表示された仮想第1エンドエフェクターが有する指部の開閉量を変化させることができる。当該開閉量を変化させる際、ユーザーは、当該開閉量を変化させる操作を、第2操作領域又は領域VS2に対して行う。例えば、ユーザーは、領域VS2において、当該指部をドラッグすることにより、当該指部を仮想第1エンドエフェクターに対して相対的に移動(具体的には、並進)させることができる。当該操作が行われた場合、表示制御部361は、当該開閉量を、当該操作に応じた開閉量に変化させる。   Further, for example, in the image P1, the user can change the open / close amount of the finger portion of the virtual first end effector displayed in the area VS2. When changing the open / close amount, the user performs an operation of changing the open / close amount on the second operation area or area VS2. For example, the user can move (specifically, translate) the finger relative to the virtual first end effector by dragging the finger in the region VS2. When the operation is performed, the display control unit 361 changes the opening / closing amount to the opening / closing amount according to the operation.

また、ユーザーは、例えば、画像P2において、領域VS2に表示されたオブジェクトが有する部位のうちユーザーが所望する部位に、前述のツール座標系を対応付けることができる。当該オブジェクトにツール座標系を対応付ける際、ユーザーは、ツール座標系を領域VS2に表示させる操作を、第2操作領域に対して行う。そして、領域VS2にツール座標系を領域VS2に表示された後、ユーザーは、例えば、領域VS2において、ツール座標系をドラッグすることにより、領域VS2に表示された仮想空間内において、ツール座標系を当該オブジェクトに対して相対的に移動(具体的には、並進又は回転)させ、当該オブジェクトが有する部位のうちユーザーが所望する部位に、ユーザーが所望する位置及び姿勢のツール座標系を対応付ける。ツール座標系を領域VS2に表示させる操作が行われた場合、表示制御部361は、ツール座標系を領域VS2に表示させる。また、表示制御部361は、領域VS2においてツール座標系を当該オブジェクトに対して相対的に移動させる操作をユーザーから受け付けた場合、領域VS2に表示されたツール座標系の当該オブジェクトに対する相対的な位置及び姿勢を、当該操作に応じた位置及び姿勢に変更する。また、処理部363は、ツール座標系の当該オブジェクトに対する相対的な位置及び姿勢が変更される毎に、当該オブジェクトに対してツール座標系を対応付ける。図8に示した座標系TLCは、このようなツール座標系の一例である。例えば、ユーザーは、領域VS2において、座標系TLCをドラッグすることにより、領域VS2に表示された仮想空間内において、座標系TLCをオブジェクトOBに対して相対的に移動(具体的には、並進又は回転)させることができる。そして、ユーザーは、オブジェクトOBが有する部位のうちユーザーが所望する部位に、ユーザーが所望する位置及び姿勢の座標系TLCを対応付けることができる。座標系TLCが対応付けられた当該部位の位置は、座標系TLCの原点のロボット座標系RCにおける位置によって表される。また、当該部位の姿勢は、座標系TLCにおける各座標軸のロボット座標系RCにおける方向によって表される。   Also, for example, in the image P2, the user can associate the above-described tool coordinate system with a site desired by the user among sites possessed by the object displayed in the area VS2. When the tool coordinate system is associated with the object, the user performs an operation of displaying the tool coordinate system in the area VS2 on the second operation area. Then, after the tool coordinate system is displayed in the area VS2, the user can drag the tool coordinate system in the area VS2, for example, in the virtual space displayed in the area VS2 by dragging the tool coordinate system. The object is moved (specifically, translated or rotated) relative to the object, and the tool coordinate system of the position and orientation desired by the user is associated with the part desired by the user among the parts possessed by the object. When an operation of displaying the tool coordinate system in the area VS2 is performed, the display control unit 361 causes the tool coordinate system to be displayed in the area VS2. When the display control unit 361 receives from the user an operation to move the tool coordinate system relative to the object in the area VS2, the display control unit 361 positions the tool coordinate system displayed in the area VS2 relative to the object. And the posture is changed to the position and posture according to the operation. Also, the processing unit 363 associates the tool coordinate system with the object each time the relative position and orientation of the tool coordinate system with respect to the object is changed. The coordinate system TLC shown in FIG. 8 is an example of such a tool coordinate system. For example, the user moves the coordinate system TLC relative to the object OB in the virtual space displayed in the area VS2 by dragging the coordinate system TLC in the area VS2 (specifically, translation or Can be rotated). Then, the user can associate the coordinate system TLC of the position and posture desired by the user with the part desired by the user among the parts possessed by the object OB. The position of the relevant part associated with the coordinate system TLC is represented by the position in the robot coordinate system RC of the origin of the coordinate system TLC. Further, the posture of the part is represented by the direction in the robot coordinate system RC of each coordinate axis in the coordinate system TLC.

また、ユーザーは、例えば、画像P2において、領域VS2に表示されたオブジェクト、仮想第1エンドエフェクター、ツール座標系のそれぞれに基づく把持情報を生成することができる。把持情報を生成する際、ユーザーは、把持情報を生成する操作を、第2操作領域に対して行う。当該操作が行われた場合、処理部363は、領域VS2に表示されたオブジェクト、仮想第1エンドエフェクター、ツール座標系のそれぞれに基づく把持情報を生成する。より具体的には、処理部363は、領域VS2に表示されたオブジェクトに応じたオブジェクト情報に含まれるオブジェクト識別情報、オブジェクト名称情報のそれぞれを特定する。また、処理部363は、当該オブジェクト情報に含まれるオブジェクト座標系情報が示すオブジェクト座標系と、領域VS2に表示された仮想第1エンドエフェクターに対応付けられた制御点座標系とに基づいて、前述の相対位置情報及び相対姿勢情報とを生成する。また、処理部363は、領域VS2に表示された仮想第1エンドエフェクターVEが備える指部の開閉量を示す開閉量情報を生成する。また、処理部363は、領域VS2に表示されたオブジェクトに対応付けられたツール座標系に基づいて、当該オブジェクトに対応付けられたツール座標系を示すツール座標系情報を生成する。処理部363は、特定したオブジェクト識別情報、オブジェクト名称情報のそれぞれと、生成した相対位置情報、相対姿勢情報、開閉量情報、ツール座標系情報のそれぞれとが対応付けられた情報である把持情報を生成する。この際、処理部363は、把持情報を識別する把持情報識別情報を、生成した把持情報に割り当てる(対応付ける)。把持情報識別情報は、把持情報に対して重複しないように割り当てられたIDである。なお、把持情報識別情報は、当該IDに代えて、把持情報を識別でき、把持情報に対して重複しないように割り当てられる他の情報であってもよい。   Also, for example, in the image P2, the user can generate gripping information based on each of the object displayed in the area VS2, the virtual first end effector, and the tool coordinate system. When generating the grip information, the user performs an operation of generating the grip information on the second operation area. When the operation is performed, the processing unit 363 generates gripping information based on each of the object displayed in the area VS2, the virtual first end effector, and the tool coordinate system. More specifically, the processing unit 363 specifies each of object identification information and object name information included in object information corresponding to the object displayed in the area VS2. Further, the processing unit 363 described above based on the object coordinate system indicated by the object coordinate system information included in the object information and the control point coordinate system associated with the virtual first end effector displayed in the area VS2. Relative position information and relative attitude information of the The processing unit 363 also generates open / close amount information indicating the open / close amount of the finger portion provided in the virtual first end effector VE displayed in the area VS2. Further, the processing unit 363 generates tool coordinate system information indicating a tool coordinate system associated with the object based on the tool coordinate system associated with the object displayed in the region VS2. The processing unit 363 is gripping information which is information in which each of the identified object identification information and object name information is associated with each of the generated relative position information, relative posture information, opening / closing amount information, and tool coordinate system information. Generate At this time, the processing unit 363 assigns (associates) the gripping information identification information for identifying the gripping information to the generated gripping information. The grip information identification information is an ID assigned so as not to overlap with the grip information. Note that the gripping information identification information may be other information that can be used to identify the gripping information and be assigned not to overlap with the gripping information, instead of the ID.

ここで、図9は、把持情報の一例を示す図である。図9に示したように、把持情報では、把持情報識別情報と、オブジェクト識別情報と、オブジェクト名称情報と、相対位置情報と、相対姿勢情報と、開閉量情報と、ツール座標系情報とを対応付けて格納するテーブルであるが、当該テーブルに代えて、把持情報識別情報と、オブジェクト識別情報と、オブジェクト名称情報と、相対位置情報と、相対姿勢情報と、開閉量情報と、ツール座標系情報とを対応付ける他の情報であってもよい。   Here, FIG. 9 is a figure which shows an example of holding information. As shown in FIG. 9, in the grip information, the grip information identification information, the object identification information, the object name information, the relative position information, the relative attitude information, the open / close amount information, and the tool coordinate system information are associated. It is a table to be added and stored, but instead of the table, grasping information identification information, object identification information, object name information, relative position information, relative attitude information, opening / closing amount information, tool coordinate system information And other information that associates the

また、ユーザーは、例えば、画像P2において、生成した把持情報を情報処理装置30にロボット制御装置40へ出力させることができる。当該把持情報を情報処理装置30にロボット制御装置40へ出力させる際、ユーザーは、当該オブジェクト情報を情報処理装置30にロボット制御装置40へ出力させる操作を、第2操作領域に対して行う。当該操作が行われた場合、通信制御部365は、通信部34と、情報処理装置30とロボット制御装置40とを通信可能に接続するケーブルとを介して、当該オブジェクト情報をロボット制御装置40へ出力する。   Also, the user can cause the information processing device 30 to output the generated gripping information to the robot control device 40, for example, in the image P2. When causing the information processing apparatus 30 to output the grip information to the robot control apparatus 40, the user performs an operation to cause the information processing apparatus 30 to output the object information to the robot control apparatus 40 on the second operation area. When the operation is performed, the communication control unit 365 transmits the object information to the robot control device 40 via the communication unit 34 and the cable communicably connecting the information processing device 30 and the robot control device 40. Output.

また、ユーザーは、例えば、画像P2において、生成した把持情報をメモリー32に記憶させることができる。当該把持情報をメモリー32に記憶させる際、ユーザーは、当該把持情報をメモリー32に記憶させる操作を、第2操作領域に対して行う。当該操作が行われた場合、処理部363は、当該把持情報をメモリー32に記憶させる。   In addition, the user can store the generated grip information in the memory 32 in, for example, the image P2. When storing the grip information in the memory 32, the user performs an operation of storing the grip information in the memory 32 on the second operation area. When the operation is performed, the processing unit 363 causes the memory 32 to store the grip information.

また、ユーザーは、例えば、画像P2において、メモリー32に予め記憶された1以上の把持情報のうちのいずれかの把持情報に応じたオブジェクト、仮想第1エンドエフェクター、制御点座標系、ツール座標系のそれぞれを領域VS2に表示することができる。メモリー32に予め記憶された1以上の把持情報のうちのいずれかの把持情報に応じたオブジェクト、仮想第1エンドエフェクター、制御点座標系、ツール座標系のそれぞれを領域VS2に表示する際、ユーザーは、メモリー32に予め記憶された1以上の把持情報のうちのいずれかを選択する操作を、第2操作領域に対して行う。当該操作が行われた場合、処理部363は、受け付けた操作によって選択された把持情報をメモリー32から読み出す。そして、表示制御部361は、メモリー32から処理部363が読み出した把持情報に応じたオブジェクト、仮想第1エンドエフェクター、制御点座標系、ツール座標系のそれぞれを、領域VS2に表示された仮想空間内に配置することにより、領域VS2に表示させる。   Also, for example, in the image P2, the user corresponds to an object according to any one of one or more pieces of grip information stored in advance in the memory 32, a virtual first end effector, a control point coordinate system, a tool coordinate system Can be displayed in the area VS2. When displaying an object, a virtual first end effector, a control point coordinate system, and a tool coordinate system according to any one of the one or more pieces of grip information stored in advance in the memory 32 in the area VS2, the user In the second operation area, an operation of selecting any one of the one or more pieces of grip information stored in advance in the memory 32 is performed. When the operation is performed, the processing unit 363 reads the grip information selected by the received operation from the memory 32. Then, the display control unit 361 is a virtual space in which the object according to the grip information read by the processing unit 363 from the memory 32, the virtual first end effector, the control point coordinate system, and the tool coordinate system are displayed in the area VS2. By arranging in, the area VS2 is displayed.

ここで、ある把持情報に応じたオブジェクトは、当該把持情報に含まれるオブジェクト識別情報が示すオブジェクトのことである。また、当該把持情報に応じた仮想第1エンドエフェクターは、当該把持情報に含まれる相対位置情報及び相対姿勢情報に基づく位置及び姿勢であって当該オブジェクトに対する相対的な位置及び姿勢と、位置及び姿勢が領域VS2に表示された仮想空間内において一致している仮想第1エンドエフェクターのことである。また、当該把持情報に応じた制御点座標系は、当該仮想第1エンドエフェクターに対応付けられた制御点座標系のことである。また、当該把持情報に応じたツール座標系は、当該把持情報に含まれるツール座標系情報が示すツール座標系のことである。   Here, an object corresponding to certain grip information is an object indicated by object identification information included in the grip information. Further, the virtual first end effector according to the grip information is a position and posture based on relative position information and relative posture information included in the grip information, and the relative position and posture with respect to the object, and the position and posture Is a virtual first end effector that matches in the virtual space displayed in the area VS2. Moreover, the control point coordinate system according to the said holding information is a control point coordinate system matched with the said virtual 1st end effector. Moreover, the tool coordinate system according to the said grip information is a tool coordinate system which the tool coordinate system information contained in the said grip information shows.

以上のように、情報処理装置30は、把持情報編集画像を介してユーザーから受け付けた操作に基づいて、把持情報の生成、変更、出力、記憶を行うことができる。   As described above, the information processing apparatus 30 can generate, change, output, and store gripping information based on the operation received from the user via the gripping information edit image.

なお、オブジェクト情報編集画像と、把持情報編集画像とは、1つの画像として構成されていてもよい。この場合、領域VSと、領域VS2とは、1つの領域として構成されている。すなわち、処理部363は、当該1つの領域に表示された1つの仮想空間内に配置されたオブジェクトに基づいて、上記において説明した処理によってオブジェクト情報を生成するとともに、当該1つの領域に表示されたオブジェクト、仮想第1エンドエフェクターのそれぞれに基づいて、上記において説明した処理によって把持情報を生成する。   The object information edit image and the grip information edit image may be configured as one image. In this case, the area VS and the area VS2 are configured as one area. That is, the processing unit 363 generates the object information by the processing described above based on the objects arranged in one virtual space displayed in the one area, and is displayed in the one area. Based on each of the object and the virtual first end effector, gripping information is generated by the processing described above.

<教示点情報編集画像>
以下、教示点情報編集画像と、教示点情報編集画像における情報処理装置30の処理とのそれぞれについて説明する。教示点情報編集画像は、例えば、教示点情報の編集を行うことが可能なエディターを含む画像のことである。
<Teach point information edit image>
Hereinafter, each of the teaching point information editing image and the processing of the information processing apparatus 30 in the teaching point information editing image will be described. The teaching point information editing image is, for example, an image including an editor capable of editing the teaching point information.

教示点情報編集画像では、ユーザーは、例えば、教示点情報の編集として、教示点情報の生成、変更、出力、記憶等を行うことができる。当該出力は、教示点情報のロボット制御装置40への出力のことである。   In the teaching point information edit image, for example, the user can perform generation, change, output, storage, and the like of teaching point information as editing of teaching point information. The said output is an output to the robot control apparatus 40 of teaching point information.

ユーザーは、例えば、教示点情報編集画像において、教示点の位置及び姿勢を入力する。具体的には、ユーザーは、教示点情報編集画像において位置及び姿勢を入力する領域である位置姿勢入力領域に、教示点の位置及び姿勢として所望の位置及び姿勢を入力する。位置姿勢入力領域に位置及び姿勢が入力された場合、表示制御部361は、位置姿勢入力領域に入力された位置及び姿勢を、ユーザーが所望する教示点の位置及び姿勢として当該領域に表示させる。なお、ユーザーにより入力される位置及び姿勢は、オンラインティーチング、ダイレクトティーチング等によって検出された位置及び姿勢等であってもよく、撮像画像に基づいて検出された位置及び姿勢であってもよい。   The user inputs, for example, the position and orientation of the teaching point in the teaching point information editing image. Specifically, the user inputs a desired position and posture as the position and posture of the teaching point in a position and posture input region which is a region for inputting the position and posture in the teaching point information edit image. When the position and orientation are input to the position and orientation input area, the display control unit 361 causes the position and orientation input to the position and orientation input area to be displayed on the area as the position and orientation of the teaching point desired by the user. The position and orientation input by the user may be the position and orientation detected by online teaching, direct teaching or the like, or may be the position and orientation detected based on the captured image.

また、ユーザーは、例えば、教示点情報編集画像において、メモリー32に予め記憶された1以上の教示点情報のうちのいずれかの教示点情報が示す教示点の位置及び姿勢を、位置姿勢入力領域に表示させることができる。メモリー32に予め記憶された1以上の教示点情報のうちのいずれかの教示点情報が示す教示点の位置及び姿勢を位置姿勢入力領域に表示する際、ユーザーは、メモリー32に予め記憶された1以上の教示点情報のうちのいずれかを選択する操作を、教示点情報編集画像に対して行う。当該操作が行われた場合、処理部363は、受け付けた操作によって選択された教示点情報をメモリー32から読み出す。そして、表示制御部361は、メモリー32から処理部363が読み出した教示点情報が示す教示点の位置及び姿勢を、位置姿勢入力領域に表示させる。   Also, for example, in the teaching point information edit image, the position and orientation input area of the position and orientation of the teaching point indicated by any teaching point information of one or more teaching point information stored in advance in the memory 32 in the teaching point information editing image Can be displayed. When displaying the position and orientation of the teaching point indicated by any one of the one or more pieces of teaching point information stored in advance in the memory 32 in the position and orientation input area, the user stores the position and orientation in the memory 32 in advance. An operation of selecting any one of one or more pieces of teaching point information is performed on the teaching point information edit image. When the operation is performed, the processing unit 363 reads the teaching point information selected by the received operation from the memory 32. Then, the display control unit 361 causes the position and orientation input area to display the position and orientation of the teaching point indicated by the teaching point information read by the processing unit 363 from the memory 32.

また、ユーザーは、例えば、位置姿勢入力領域に入力された位置及び姿勢の教示点を示す教示点情報をメモリー32に記憶させることができる。当該教示点情報をメモリー32に記憶させる際、ユーザーは、当該教示点情報をメモリー32に記憶させる操作を教示点情報編集画像に対して行う。当該操作が行われた場合、処理部363は、当該教示点情報をメモリー32に記憶させる。   Also, the user can store, for example, teaching point information indicating teaching points of the position and orientation input to the position and orientation input area in the memory 32. When storing the teaching point information in the memory 32, the user performs an operation of storing the teaching point information in the memory 32 on the teaching point information edit image. When the operation is performed, the processing unit 363 causes the memory 32 to store the teaching point information.

また、ユーザーは、例えば、位置姿勢入力領域に入力された位置及び姿勢の教示点を示す教示点情報を情報処理装置30にロボット制御装置40へ出力させることができる。当該教示点情報をロボット制御装置40に情報処理装置30へ出力させる際、ユーザーは、当該教示点情報をロボット制御装置40に情報処理装置30へ出力させる操作を教示点情報編集画像に対して行う。当該操作が行われた場合、通信制御部365は、当該教示点情報をロボット制御装置40へ出力する。   In addition, the user can cause the information processing apparatus 30 to output to the robot control apparatus 40, for example, teaching point information indicating the teaching point of the position and orientation input to the position and orientation input area. When causing the robot control apparatus 40 to output the teaching point information to the information processing apparatus 30, the user performs an operation on the teaching point information edit image to cause the robot control apparatus 40 to output the teaching point information to the information processing apparatus 30. . When the operation is performed, the communication control unit 365 outputs the teaching point information to the robot control device 40.

以上のように、情報処理装置30は、教示点情報編集画像を介してユーザーから受け付けた操作に基づいて、教示点情報の生成、変更、出力、記憶を行うことができる。   As described above, the information processing apparatus 30 can generate, change, output, and store teaching point information based on an operation received from the user via the teaching point information edit image.

<動作プログラム編集画像>
以下、動作プログラム編集画像と、教示点情報編集画像における情報処理装置30の処理とのそれぞれについて説明する。動作プログラム編集画像は、例えば、動作プログラムの編集を行うことが可能なエディターを含む画像のことである。
<Operation program edit image>
Hereinafter, each of the operation program editing image and the process of the information processing apparatus 30 in the teaching point information editing image will be described. The operation program editing image is, for example, an image including an editor capable of editing the operation program.

動作プログラム編集画像では、ユーザーは、例えば、動作プログラムの編集として、動作プログラムの生成、変更、出力、記憶等を行うことができる。ここで、当該出力は、把持情報のロボット制御装置40への出力のことである。   In the operation program edit image, for example, the user can perform generation, change, output, storage, and the like of the operation program as editing of the operation program. Here, the output is an output of the gripping information to the robot control device 40.

ここで、情報処理装置30によって編集される動作プログラムについて説明する。当該動作プログラムは、ロボット制御装置40にロボット20を動作させる複数のコマンド、及びロボット制御装置40に情報の送受信を行わせる複数のコマンドによって構成される。当該複数のコマンドには、ロボット20を動作させる各種のコマンドに加えて、ロボット20の周囲に位置する物体に関する情報の生成、削除、変更をロボット制御装置40に行わせる第1コマンドと、ロボット20の動作に関する情報の生成、削除、変更をロボット制御装置40に行わせる第2コマンドとの2種類のコマンドが少なくとも含まれている。   Here, an operation program edited by the information processing apparatus 30 will be described. The operation program includes a plurality of commands for operating the robot 20 and a plurality of commands for transmitting and receiving information to and from the robot control device 40. The plurality of commands include, in addition to various commands for operating the robot 20, a first command that causes the robot control device 40 to generate, delete, and change information related to an object located around the robot 20; At least two types of commands are included: a second command that causes the robot control device 40 to generate, delete, and change information related to the operation of.

第1コマンドには、例えば、第11コマンド〜第16コマンドの6つの設定コマンドが含まれている。   The first command includes, for example, six setting commands of an eleventh command to a sixteenth command.

第11コマンドは、経路生成部463が経路を生成する際に参照する周辺物体情報であってメモリー32に記憶された周辺物体情報に対して、新たな物体の物***置姿勢情報と、当該物体に応じたオブジェクトに関するオブジェクト情報に含まれるオブジェクト識別情報とが対応付けられた情報を追加するコマンドである。   The eleventh command is peripheral object information to be referred to when the path generation unit 463 generates a path, and with respect to peripheral object information stored in the memory 32, object position / posture information of a new object, and the object This command is a command for adding information associated with object identification information included in object information on a corresponding object.

第12コマンドは、経路生成部463が経路を生成する際に参照する周辺物体情報であってメモリー32に記憶された周辺物体情報から、指定された物体の物***置姿勢情報と、当該物体に応じたオブジェクトに関するオブジェクト情報に含まれるオブジェクト識別情報とが対応付けられた情報を削除するコマンドである。   The twelfth command is peripheral object information to be referred to when the path generation unit 463 generates a path, and from the peripheral object information stored in the memory 32, the object position / posture information of the specified object and the object The command is a command for deleting information associated with object identification information included in object information on an object.

第13コマンドは、経路生成部463が経路を生成する際に参照する周辺物体情報であってメモリー32に記憶された周辺物体情報に含まれる情報のうち、指定された物体の物***置姿勢情報が示す位置及び姿勢を、指定された位置及び姿勢に変更するコマンドである。   The thirteenth command is peripheral object information to be referred to when the path generation unit 463 generates a path, and among information included in the peripheral object information stored in the memory 32, the object position / posture information of the specified object is It is a command to change the position and orientation shown to the specified position and orientation.

第14コマンドは、指定されたアーム(この一例において、第1アームA1又は第2アームA2)毎に、経路生成部463が経路を生成する際に参照する周辺物体情報であってメモリー32に記憶された周辺物体情報に含まれる情報のうち、指定された物体を識別する物体識別情報に対して、障害物と、障害物ではない物体である非障害物とのいずれかであることを示す情報を対応付けるコマンドである。   The fourteenth command is peripheral object information that the path generation unit 463 refers to when generating a path for each designated arm (in this example, the first arm A1 or the second arm A2 in this example), and is stored in the memory 32 Information indicating that the object identification information for identifying the specified object among the information included in the peripheral object information that is specified is either an obstacle or a non-obstruction that is an object that is not an obstacle Is a command to associate.

第15コマンドは、メモリー32の記憶領域のうち経路生成部463が参照する記憶領域である参照記憶領域に記憶された現在の周辺物体情報を、メモリー32の記憶領域のうち経路生成部463が参照しない非参照記憶領域に、周辺物体情報を識別する情報を対応付けて記憶させるコマンドである。   The fifteenth command refers to the current peripheral object information stored in the reference storage area, which is a storage area referred to by the path generation unit 463 in the storage area of the memory 32, the path generation unit 463 in the storage area of the memory 32 It is a command which associates and stores information identifying surrounding object information in a non-reference storage area.

第16コマンドは、指定された情報であって周辺物体情報を識別する情報に基づいて、前述の非参照記憶領域に記憶された周辺物体情報を読み出し、読み出した周辺物体情報を、新たな周辺物体情報として参照記憶領域に記憶するコマンドである。   The sixteenth command is designated information and based on the information for identifying the peripheral object information, the peripheral object information stored in the non-reference storage area described above is read out, and the read out peripheral object information is used as a new peripheral object It is a command stored in the reference storage area as information.

なお、第1コマンドには、第11コマンド〜第16コマンドのうちの一部又は全部に代えて、他のコマンドが含まれる構成であってもよく、第11コマンド〜第16コマンドの全部に加えて、他のコマンドが含まれる構成であってもよい。   The first command may be configured to include another command instead of part or all of the eleventh command to the sixteenth command, and may be added to all of the eleventh command to the sixteenth command. And other commands may be included.

第2コマンドには、例えば、第21コマンド〜第26コマンドの6つの動作コマンドが含まれている。   The second command includes, for example, six operation commands of a 21st command to a 26th command.

第21コマンドは、ロボット20が備える第1撮像部C1〜第4撮像部C4のうちの一部又は全部によって撮像された撮像画像から検出された位置及び姿勢であって第1エンドエフェクターE1のロボット座標系RCにおける位置及び姿勢を、ロボット制御装置40に情報処理装置30へ出力させるコマンドである。当該第1エンドエフェクターE1のロボット座標系RCにおける位置及び姿勢は、物体を把持した状態の第1エンドエフェクターE1のロボット座標系RCにおける位置及び姿勢のことである。   The 21st command is a position and a posture detected from a captured image captured by a part or all of the first imaging unit C1 to the fourth imaging unit C4 included in the robot 20, and the robot of the first end effector E1 It is a command that causes the robot control device 40 to output the position and orientation in the coordinate system RC to the information processing device 30. The position and orientation of the first end effector E1 in the robot coordinate system RC refer to the position and orientation of the first end effector E1 in the robot coordinate system RC in a state in which an object is gripped.

第22コマンドは、メモリー32に記憶されたオブジェクト情報のうち、指定されたオブジェクト情報をロボット制御装置40に特定させるコマンドである。そして、第22コマンドは、ロボット制御装置40に特定されたオブジェクトに応じた物体を識別する物体識別情報と、メモリー32に記憶された周辺物体情報とに基づいて、当該物体を第1エンドエフェクターE1に把持させるコマンドである。また、第22コマンドは、ロボット制御装置40に特定されたオブジェクト情報にツール座標系情報が含まれている場合、制御点T1のロボット座標系RCにおける位置及び姿勢を表す三次元座標系を、制御点座標系から、当該ツール座標系情報が示すツール座標系に変更するとともに、第1力検出部S1が検出する外力の大きさ及び方向を表す三次元座標系である力検出座標系を、ツール座標系に応じた三次元座標系に変更するコマンドでもある。   The twenty-second command is a command for causing the robot control apparatus 40 to specify specified object information among the object information stored in the memory 32. The twenty-second command is based on object identification information for identifying an object according to the object specified by the robot control device 40, and peripheral object information stored in the memory 32. It is a command to make it hold. The 22nd command controls a three-dimensional coordinate system representing the position and orientation of the control point T1 in the robot coordinate system RC when the tool coordinate system information is included in the object information specified by the robot control device 40. The point coordinate system is changed to the tool coordinate system indicated by the tool coordinate system information, and the force detection coordinate system, which is a three-dimensional coordinate system representing the magnitude and direction of the external force detected by the first force detection unit S1, is It is also a command to change to a three-dimensional coordinate system according to the coordinate system.

第23コマンドは、第1エンドエフェクターE1に把持された把持対象を第1エンドエフェクターE1に解放させるコマンドである。また、第23コマンドは、制御点T1のロボット座標系RCにおける位置及び姿勢を表す三次元座標系がツール座標系に変更されている場合、制御点T1のロボット座標系RCにおける位置及び姿勢を表す三次元座標系を、制御点座標系に変更するとともに、力検出座標系を、制御点座標系に応じた三次元座標系に変更するコマンドでもある。   The twenty-third command is a command for causing the first end effector E1 to release the gripping target gripped by the first end effector E1. The 23rd command represents the position and orientation of the control point T1 in the robot coordinate system RC when the three-dimensional coordinate system representing the position and orientation of the control point T1 in the robot coordinate system RC is changed to the tool coordinate system. It is also a command to change the three-dimensional coordinate system to the control point coordinate system and to change the force detection coordinate system to the three-dimensional coordinate system according to the control point coordinate system.

第24コマンドは、経路生成部463が経路を生成する際に参照する周辺物体情報であってメモリー32に記憶された周辺物体情報に含まれる情報のうち、第1エンドエフェクターE1によって載置された(解放された)把持対象の物***置姿勢情報を、指定された位置及び姿勢であってロボット座標系RCにおける位置及び姿勢を示す情報に変更するコマンドである。   The twenty-fourth command is peripheral object information to be referred to when the path generation unit 463 generates a path, and is mounted by the first end effector E1 among information included in the peripheral object information stored in the memory 32. It is a command to change the (released) object position / posture information of the gripping object to information indicating the specified position / posture and the position / posture in the robot coordinate system RC.

第25コマンドは、第1エンドエフェクターE1に把持された把持対象の現在のロボット座標系RCにおける位置及び姿勢を示す情報を、ロボット制御装置40に情報処理装置30へ出力させる。   The twenty-fifth command causes the robot control device 40 to output information indicating the position and orientation in the current robot coordinate system RC of the gripping target gripped by the first end effector E1 to the information processing device 30.

第26コマンドは、ロボット制御装置40に設定されている第1エンドエフェクターE1が有する指部の開閉量を示す開閉量情報を、ロボット制御装置40に情報処理装置30へ出力させる。   The twenty-sixth command causes the robot control device 40 to output to the information processing apparatus 30 open / close amount information indicating the open / close amount of the finger portion of the first end effector E1 set in the robot control device 40.

なお、第2コマンドには、第21コマンド〜第26コマンドのうちの一部又は全部に代えて、他のコマンドが含まれる構成であってもよく、第21コマンド〜第26コマンドの全部に加えて、他のコマンドが含まれる構成であってもよい。   The second command may be configured to include another command instead of part or all of the 21st command to the 26th command, and may be added to all of the 21st command to the 26th command. And other commands may be included.

ユーザーは、例えば、動作プログラム編集画像において、上記の第1コマンドと、上記の第2コマンドとの少なくとも一方を含む動作プログラムを生成する。具体的には、ユーザーは、動作プログラム編集画像が有する領域のうちの動作プログラムを入力する領域であるプログラム入力領域に、動作プログラムを入力する。プログラム入力領域に動作プログラムが入力された場合、表示制御部361は、プログラム入力領域に入力された動作プログラムを当該領域に表示させる。   For example, the user generates an operation program including at least one of the first command and the second command described above in the operation program editing image. Specifically, the user inputs the operation program into a program input area which is an area for inputting the operation program among the areas included in the operation program editing image. When the operation program is input to the program input area, the display control unit 361 displays the operation program input to the program input area in the area.

また、ユーザーは、例えば、プログラム入力領域に入力された動作プログラムをメモリー32に記憶させることができる。当該動作プログラムをメモリー32に記憶させる際、ユーザーは、当該動作プログラムをメモリー32に記憶させる操作を動作プログラム編集画像に対して行う。当該操作が行われた場合、処理部363は、当該動作プログラムをメモリー32に記憶させる。   Also, the user can store, for example, the operation program input to the program input area in the memory 32. When storing the operation program in the memory 32, the user performs an operation of storing the operation program in the memory 32 on the operation program editing image. When the operation is performed, the processing unit 363 stores the operation program in the memory 32.

また、ユーザーは、例えば、プログラム入力領域に入力された動作プログラムを情報処理装置30にビルドさせることができる。当該動作プログラムをビルドする際、ユーザーは、当該動作プログラムを情報処理装置30にビルドさせる操作を動作プログラム編集画像に対して行う。当該操作が行われた場合、処理部363は、当該動作プログラムをビルドする。また、当該場合、処理部363は、オブジェクト情報編集画像において領域VSに表示されたオブジェクトに基づくオブジェクト情報を生成する。当該オブジェクト情報を処理部363が生成する処理については、上記において説明済みのため、説明を省略する。また、当該場合、処理部363は、把持情報編集画像において領域VS2に表示されたオブジェクト及び仮想第1エンドエフェクターに基づく把持情報を生成する。当該把持情報を処理部363が生成する処理については、上記において説明済みのため、説明を省略する。また、当該場合、処理部363は、動作プログラムにおいて指定されている1以上の教示点情報のそれぞれを特定する。そして、通信制御部365は、ビルドされた当該動作プログラムと、生成されたオブジェクト情報と、生成された把持情報と、特定された1以上の教示点情報とのそれぞれを、通信部34と、情報処理装置30とロボット制御装置40とを通信可能に接続しているケーブルとを介して、ロボット制御装置40に出力する。   Also, the user can cause the information processing apparatus 30 to build the operation program input in the program input area, for example. When building the operation program, the user performs an operation of causing the information processing apparatus 30 to build the operation program on the operation program editing image. When the operation is performed, the processing unit 363 builds the operation program. In addition, in this case, the processing unit 363 generates object information based on the object displayed in the area VS in the object information edited image. About the processing which processing part 363 generates the object information concerned, explanation is omitted, since it is explained above. In addition, in this case, the processing unit 363 generates gripping information based on the object displayed in the region VS2 and the virtual first end effector in the gripping information edit image. About the process which the process part 363 produces | generates the said holding | grip information, since it was demonstrated above, description is abbreviate | omitted. In addition, in this case, the processing unit 363 identifies each of the one or more pieces of teaching point information specified in the operation program. Then, the communication control unit 365 causes the communication unit 34 to transmit each of the built operation program, the generated object information, the generated grip information, and the one or more specified teaching point information. The robot controller 40 outputs the data to the robot controller 40 via a cable communicably connecting the processor 30 and the robot controller 40.

以上のように、情報処理装置30は、動作プログラム編集画像を介してユーザーから受け付けた操作に基づいて、動作プログラムの生成、変更、出力、記憶を行うことができる。   As described above, the information processing apparatus 30 can generate, change, output, and store the operation program based on the operation received from the user via the operation program editing image.

<ロボット制御装置が行う情報生成処理>
以下、図10を参照し、ロボット制御装置40が行う情報生成処理について説明する。情報生成処理は、ロボット制御装置40が情報処理装置30から動作プログラム、オブジェクト情報、把持情報、教示点情報のそれぞれを取得した場合に、動作プログラム、オブジェクト情報、把持情報、教示点情報のそれぞれに基づいて、経路情報と、前述の周辺物体情報との少なくとも一方を生成する処理のことである。図10は、ロボット制御装置40が行う情報生成処理の流れの一例を示す図である。なお、以下では、前述した通り、ロボット制御装置40のメモリー42には、物***置姿勢情報が予め記憶されている場合について説明する。
<Information Generation Process Performed by Robot Controller>
Hereinafter, the information generation process performed by the robot control device 40 will be described with reference to FIG. The information generation process is performed for each of the operation program, the object information, the gripping information, and the teaching point information when the robot control device 40 acquires each of the operation program, the object information, the gripping information, and the teaching point information from the information processing device 30. It is a process of generating at least one of route information and the above-mentioned peripheral object information based on the above. FIG. 10 is a diagram showing an example of the flow of information generation processing performed by the robot control device 40. In the following, as described above, a case where object position and orientation information is stored in advance in the memory 42 of the robot control device 40 will be described.

通信制御部465は、情報処理装置30から動作プログラム、オブジェクト情報、把持情報、教示点情報のそれぞれを取得するまで待機する(ステップS210)。情報処理装置30から動作プログラム、オブジェクト情報、把持情報、教示点情報のそれぞれを取得したと判定した場合(ステップS210−YES)、通信制御部465は、取得した動作プログラム、オブジェクト情報、把持情報、教示点情報のそれぞれをメモリー42に記憶させる(ステップS220)。   The communication control unit 465 stands by until each of the operation program, object information, gripping information, and teaching point information is acquired from the information processing device 30 (step S210). When it is determined that each of the operation program, object information, gripping information, and teaching point information has been acquired from the information processing apparatus 30 (step S210-YES), the communication control unit 465 determines the acquired operating program, object information, gripping information, Each of the teaching point information is stored in the memory 42 (step S220).

次に、経路生成部463は、ステップS220においてメモリー42に記憶されたオブジェクト情報をメモリー42から読み出す。また、経路生成部463は、メモリー42に記憶された物***置姿勢情報をメモリー42から読み出す。経路生成部463は、読み出したオブジェクト情報及び物***置姿勢情報に基づいて、メモリー42に記憶された周辺物体情報を更新する(ステップS230)。ここで、ステップS230においてメモリー42に周辺物体情報が記憶されていない場合、経路生成部463は、周辺物体情報を生成し、生成した周辺物体情報をメモリー42に記憶させる。これにより、ロボット制御装置40は、動作プログラムを更新することなく、周辺物体情報を更新することができる。すなわち、ロボットシステム1では、動作プログラムを変更することなく、ロボット制御装置40が経路を生成する際に参照する周辺物体情報をロボット制御装置40に変更(すなわち、更新)させることができる。   Next, the path generation unit 463 reads from the memory 42 the object information stored in the memory 42 in step S220. In addition, the path generation unit 463 reads the object position and orientation information stored in the memory 42 from the memory 42. The path generation unit 463 updates the peripheral object information stored in the memory 42 based on the read object information and object position and posture information (step S230). Here, when the peripheral object information is not stored in the memory 42 in step S230, the path generation unit 463 generates the peripheral object information and stores the generated peripheral object information in the memory 42. Thus, the robot control device 40 can update the peripheral object information without updating the operation program. That is, in the robot system 1, the robot control apparatus 40 can change (that is, update) peripheral object information to be referred to when the robot control apparatus 40 generates a route without changing the operation program.

次に、経路生成部463は、ステップS220においてメモリー42に記憶された把持情報をメモリー42から読み出す。そして、経路生成部463は、読み出した把持情報に基づいて、メモリー42に記憶された把持情報であって経路生成部463が参照する把持情報を更新する(ステップS240)。これにより、ロボット制御装置40は、動作プログラムを更新することなく、把持情報を更新することができる。すなわち、ロボットシステム1では、動作プログラムを変更することなく、ロボット20が把持対象を把持する位置及び姿勢の少なくとも一方をロボット制御装置40に変更(すなわち、更新)させることができる。   Next, the path generation unit 463 reads the grip information stored in the memory 42 in step S220 from the memory 42. Then, the path generation unit 463 updates, based on the read grip information, the grip information which is stored in the memory 42 and which the path generation unit 463 refers to (step S240). Thereby, the robot control device 40 can update the gripping information without updating the operation program. That is, in the robot system 1, at least one of the position and the posture at which the robot 20 grips the gripping target can be changed (i.e., updated) in the robot control device 40 without changing the operation program.

次に、プログラム処理部461は、ステップS220においてメモリー42に記憶された動作プログラム及び教示点情報に基づいて、経路生成部463に経路情報を生成させる(ステップS250)。具体的には、プログラム処理部461は、当該動作プログラムにおいて指定された教示点情報を、経路生成部463に出力する。経路生成部463は、
当該教示点情報を取得する。また、経路生成部463は、メモリー42に記憶された周辺物体情報、オブジェクト情報、把持情報のそれぞれをメモリー42から読み出す。経路生成部463は、読み出した周辺物体情報と、プログラム処理部461からの要求と、読み出したオブジェクト情報と、読み出した把持情報と、取得した教示点情報とに基づく経路であってロボット20の周囲に位置する物体のうちの障害物に第1エンドエフェクターE1が干渉しない経路を生成する。当該経路を生成する方法は、既知の方法であってもよく、これから開発される方法であってもよい。経路生成部463は、生成した経路を示す経路情報を生成する。経路生成部463は、生成した経路情報をメモリー42に記憶させる。
Next, the program processing unit 461 causes the path generation unit 463 to generate path information based on the operation program and the teaching point information stored in the memory 42 in step S220 (step S250). Specifically, the program processing unit 461 outputs the teaching point information specified in the operation program to the path generation unit 463. The path generation unit 463
Acquire the corresponding teaching point information. The path generation unit 463 also reads out each of the peripheral object information, the object information, and the grip information stored in the memory 42 from the memory 42. The route generation unit 463 is a route based on the read peripheral object information, the request from the program processing unit 461, the read object information, the read grip information, and the acquired teaching point information, and the surroundings of the robot 20. The first end effector E1 generates a path that does not interfere with the obstacle among the objects located in The method of generating the route may be a known method or a method to be developed from now on. The path generation unit 463 generates path information indicating the generated path. The path generation unit 463 stores the generated path information in the memory 42.

通信制御部465は、メモリー42に記憶された周辺物体情報と、経路情報とのそれぞれを情報処理装置30へ出力し(ステップS260)、処理を終了する。   The communication control unit 465 outputs each of the peripheral object information stored in the memory 42 and the route information to the information processing apparatus 30 (step S260), and ends the process.

<情報処理装置が行う情報表示処理>
以下、図11を参照し、情報処理装置30が行う情報表示処理について説明する。情報表示処理は、情報処理装置30がロボット制御装置40から周辺物体情報、経路情報のそれぞれを取得した場合に、周辺物体情報に応じた画像と、経路情報に応じた画像との少なくとも一方を表示部35に表示させる処理のことである。図11は、情報処理装置30が行う情報表示処理の流れの一例を示す図である。
<Information Display Process Performed by Information Processing Device>
Hereinafter, the information display process performed by the information processing device 30 will be described with reference to FIG. In the information display process, when the information processing device 30 acquires each of the peripheral object information and the route information from the robot control device 40, at least one of an image according to the peripheral object information and an image according to the route information is displayed. This is processing to be displayed on the unit 35. FIG. 11 is a diagram illustrating an example of the flow of the information display process performed by the information processing device 30.

通信制御部365は、ロボット制御装置40から周辺物体情報、経路情報のそれぞれを取得するまで待機する(ステップS310)。ロボット制御装置40から周辺物体情報、経路情報のそれぞれを取得したと判定した場合(ステップS310−YES)、通信制御部365は、取得した周辺物体情報、経路情報のそれぞれをメモリー32に記憶させる。また、表示制御部361は、周辺物体情報、経路情報のそれぞれを情報処理装置30がロボット制御装置40から取得したことを報せる画像を表示部35に表示させる。   The communication control unit 365 stands by until each of peripheral object information and path information is obtained from the robot control apparatus 40 (step S310). When it is determined that each of the peripheral object information and the route information has been acquired from the robot control device 40 (YES in step S310), the communication control unit 365 causes the memory 32 to store each of the acquired peripheral object information and the route information. The display control unit 361 also causes the display unit 35 to display an image informing that the information processing device 30 has acquired each of the peripheral object information and the route information from the robot control device 40.

次に、処理部363は、周辺物体情報に応じた画像を表示部35に表示させる操作である周辺物体表示操作を受け付けたか否かを判定する(ステップS320)。周辺物体情報に応じた画像を表示部35に表示させる操作である周辺物体表示操作を受け付けたと処理部363が判定した場合(ステップS320−YES)、処理部363及び表示制御部361は、ステップS310において取得した周辺物体情報に応じた画像を表示部35に表示する周辺物体表示処理を行う(ステップS330)。   Next, the processing unit 363 determines whether or not the peripheral object display operation, which is an operation to cause the display unit 35 to display an image according to the peripheral object information, is received (step S320). When the processing unit 363 determines that the peripheral object display operation that is an operation to display the image according to the peripheral object information on the display unit 35 is received (step S320-YES), the processing unit 363 and the display control unit 361 perform step S310. Peripheral object display processing for displaying on the display unit 35 an image corresponding to the peripheral object information acquired in step S is performed (step S330).

ここで、図12を参照し、周辺物体情報に応じた画像と、周辺物体表示処理とのそれぞれについて説明する。図12は、周辺物体情報に応じた画像の一例を示す図である。図12に示した画像P3は、周辺物体情報に応じた画像の一例である。画像P3は、例えば、領域VS3と、ユーザーから操作を受け付ける各種のGUIが配置された図示しない操作領域である第3操作領域(図12に示した例では、画像P3が有する領域のうち領域VS3以外の領域のうちの少なくとも一部)とを有する。ここで、領域VS3は、画像P3が有する領域のうち、処理部363がメモリー32の記憶領域内に生成した仮想空間内に配置された各種の仮想的な物体を表示する領域の一例である。また、当該仮想空間内における位置及び姿勢を表す三次元直交座標系は、ロボット座標系RCである。なお、画像P3は、領域VS3と、第3操作領域に加えて、他のGUIを有する構成であってもよい。   Here, with reference to FIG. 12, each of an image according to peripheral object information and peripheral object display processing will be described. FIG. 12 is a diagram showing an example of an image according to surrounding object information. An image P3 illustrated in FIG. 12 is an example of an image corresponding to peripheral object information. The image P3 is, for example, an area VS3 and a third operation area (not shown) in which various types of GUIs for receiving operations from the user are arranged (in the example shown in FIG. And at least a part of the other regions). Here, the area VS3 is an example of an area for displaying various virtual objects arranged in the virtual space generated by the processing unit 363 in the storage area of the memory 32 among the areas included in the image P3. The three-dimensional orthogonal coordinate system representing the position and orientation in the virtual space is a robot coordinate system RC. The image P3 may be configured to have another GUI in addition to the area VS3 and the third operation area.

処理部363は、取得した周辺物体情報と、メモリー32に記憶されたオブジェクト情報とに基づいて、ロボット20の周囲に位置する1以上の物体それぞれに応じたオブジェクトを、領域VS3に表示された仮想空間内に配置する。この際、処理部363は、当該1以上の物体のそれぞれ毎に、周辺物体情報に含まれる物***置姿勢情報、オブジェクト識別情報のそれぞれと、メモリー32に記憶されたオブジェクト情報とに基づくオブジェクトを当該仮想空間内に配置する。そして、表示制御部361は、当該仮想空間内に配置されたオブジェクトであって当該1以上の物体それぞれに応じたオブジェクトのそれぞれを領域VS3に表示させる。なお、表示制御部361は、この際、仮想的なロボット20である仮想ロボットを、当該オブジェクトのそれぞれとともに領域VS3に表示させる。図12に示したロボットVRは、当該仮想ロボットの一例である。また、図12に示したオブジェクトOB2は、当該仮想空間内に配置されたオブジェクトの一例である。図12に示した例では、当該仮想空間内には、オブジェクトOB2が1つ配置されている。ユーザーは、領域VS3に表示された各オブジェクトと仮想ロボットとの相対的な位置関係を見ることによって、ロボット制御装置40に記憶された周辺物体情報に意図しない第1対応情報が記憶されていないか否かを判定することができる。すなわち、ユーザーは、ロボット制御装置40が認識している物体であってロボット20の周囲に位置する物体と、実際にロボット20の周囲に位置している物体との位置関係にずれがないか否かを確認することができる。なお、周辺物体情報に応じた画像は、物体とロボットとの相対的な位置関係を示す画像の一例である。   The processing unit 363 is a virtual object in which an object corresponding to each of one or more objects located around the robot 20 is displayed in the area VS3 based on the acquired peripheral object information and the object information stored in the memory 32. Arrange in space. At this time, the processing unit 363 sets an object based on each of the object position and orientation information and the object identification information included in the surrounding object information and the object information stored in the memory 32 for each of the one or more objects. Place in virtual space. Then, the display control unit 361 causes the region VS3 to display each of the objects arranged in the virtual space and corresponding to each of the one or more objects. At this time, the display control unit 361 causes the virtual robot that is the virtual robot 20 to be displayed in the area VS3 together with each of the objects. The robot VR illustrated in FIG. 12 is an example of the virtual robot. The object OB2 illustrated in FIG. 12 is an example of an object arranged in the virtual space. In the example shown in FIG. 12, one object OB2 is disposed in the virtual space. Whether the user does not store unintended first correspondence information in the peripheral object information stored in the robot control device 40 by looking at the relative positional relationship between each object displayed in the area VS3 and the virtual robot It can be determined whether or not. That is, there is no deviation in the positional relationship between the object recognized by the robot control device 40 and located around the robot 20 and the object actually located around the robot 20. You can check. In addition, the image according to surrounding object information is an example of the image which shows the relative positional relationship of an object and a robot.

ステップS330の処理が行われた後、処理部363は、情報表示処理を終了させる操作を情報処理装置30がユーザーから受け付けたか否かを判定する(ステップS340)。情報表示処理を終了させる操作を情報処理装置30がユーザーから受け付けたと判定した場合(ステップS340−YES)、処理部363は、処理を終了する。一方、情報表示処理を終了させる操作を情報処理装置30がユーザーから受け付けていないと判定した場合(ステップS340−NO)、処理部363は、ステップS320に遷移し、周辺物体情報に応じた画像を表示部35に表示させる操作である周辺物体表示操作を受け付けたか否かを再び判定する。   After the process of step S330 is performed, the processing unit 363 determines whether the information processing apparatus 30 has received an operation for ending the information display process from the user (step S340). When it is determined that the information processing apparatus 30 receives an operation of ending the information display process from the user (YES in step S340), the processing unit 363 ends the process. On the other hand, when it is determined that the information processing apparatus 30 has not received from the user the operation to end the information display processing (step S340-NO), the processing unit 363 transitions to step S320, and the image corresponding to the surrounding object information is displayed. It is determined again whether or not the peripheral object display operation which is the operation to be displayed on the display unit 35 is accepted.

一方、周辺物体情報に応じた画像を表示部35に表示させる操作である周辺物体表示操作を受け付けていないと処理部363が判定した場合(ステップS320−NO)、処理部363及び表示制御部361は、ステップS310において取得した経路情報に応じた画像を表示部35に表示する動作表示処理を行う(ステップS350)。   On the other hand, when the processing unit 363 determines that the peripheral object display operation that is an operation to display the image according to the peripheral object information on the display unit 35 is not received (step S320-NO), the processing unit 363 and the display control unit 361 The operation display process is performed to display an image corresponding to the route information acquired in step S310 on the display unit 35 (step S350).

ここで、図13を参照し、経路情報に応じた画像と、動作表示処理とのそれぞれについて説明する。図13は、経路情報に応じた画像の一例を示す図である。図13に示した画像P4は、経路情報に応じた画像の一例である。画像P4は、例えば、領域VS4と、ユーザーから操作を受け付ける各種のGUIが配置された図示しない操作領域である第4操作領域(図13に示した例では、画像P4が有する領域のうち領域VS4以外の領域のうちの少なくとも一部)とを有する。ここで、領域VS4は、画像P4が有する領域のうち、処理部363がメモリー32の記憶領域内に生成した仮想空間内に配置された各種の仮想的な物体を表示する領域の一例である。また、当該仮想空間内における位置及び姿勢を表す三次元直交座標系は、ロボット座標系RCである。なお、画像P4は、領域VS4と、第4操作領域に加えて、他のGUIを有する構成であってもよい。   Here, with reference to FIG. 13, each of the image according to the route information and the operation display process will be described. FIG. 13 is a diagram showing an example of an image according to the route information. The image P4 shown in FIG. 13 is an example of an image according to the route information. The image P4 is, for example, an area VS4 and a fourth operation area (not shown) in which various types of GUIs for receiving operations from the user are arranged (in the example shown in FIG. And at least a part of the other regions). Here, the area VS4 is an example of an area for displaying various virtual objects arranged in the virtual space generated by the processing unit 363 in the storage area of the memory 32 among the areas included in the image P4. The three-dimensional orthogonal coordinate system representing the position and orientation in the virtual space is a robot coordinate system RC. The image P4 may be configured to have another GUI in addition to the area VS4 and the fourth operation area.

処理部363は、領域VS4に表示された仮想空間内に前述の仮想ロボットを配置する。そして、処理部363は、取得した経路情報が示す経路に基づく動作を当該仮想ロボットに行わせる。また、表示制御部361は、当該仮想空間内において当該動作を行う当該仮想ロボットを領域VS4に表示させる。この際、表示制御部361は、当該仮想空間内に、前述の領域VS3に表示された1以上のオブジェクトを配置する構成であってもよく、当該1以上のオブジェクトを配置しない構成であってもよい。図13に示した例では、領域VS4には、ロボットVRの動作のうち、仮想第1エンドエフェクターVEによって把持したオブジェクトOBを移動させている動作を表す動画像が表示されている。ユーザーは、領域VS4に表示された仮想ロボットの動作を見ることによって、ロボット制御装置40に記憶された動作プログラムに応じたロボット20の動作が所望の動作であるか否かを判定することができる。すなわち、ユーザーは、ロボット制御装置40によるロボット20の動作を、ロボット20を動作させることなく確認することができる。なお、経路情報は、動作情報の一例である。   The processing unit 363 arranges the above-described virtual robot in the virtual space displayed in the area VS4. Then, the processing unit 363 causes the virtual robot to perform an operation based on the route indicated by the acquired route information. Further, the display control unit 361 causes the area VS4 to display the virtual robot performing the operation in the virtual space. At this time, the display control unit 361 may be configured to arrange one or more objects displayed in the above-described area VS3 in the virtual space, or may be configured not to arrange the one or more objects. Good. In the example illustrated in FIG. 13, in the area VS <b> 4, a moving image representing an operation of moving the object OB gripped by the virtual first end effector VE in the operation of the robot VR is displayed. The user can determine whether the operation of the robot 20 corresponding to the operation program stored in the robot control device 40 is a desired operation by looking at the operation of the virtual robot displayed in the area VS4. . That is, the user can confirm the operation of the robot 20 by the robot control device 40 without operating the robot 20. The route information is an example of operation information.

<実施形態の変形例>
以下、図14を参照し、実施形態の変形例について説明する。図14は、実施形態の変形例に係るロボットシステム1の一例を示す構成図である。なお、実施形態の変形例では、実施形態と同様な構成部に対して同じ符号を付して説明を省略する。
<Modification of Embodiment>
Hereinafter, a modification of the embodiment will be described with reference to FIG. FIG. 14 is a block diagram showing an example of a robot system 1 according to a modification of the embodiment. In addition, in the modification of embodiment, the code | symbol same about the structure part similar to embodiment is attached | subjected, and description is abbreviate | omitted.

実施形態の変形例では、ロボットシステム1は、双腕ロボットであるロボット20に代えて、単腕ロボットであるロボット20aを備える構成であってもよい。   In a modification of the embodiment, the robot system 1 may be configured to include a robot 20a that is a single arm robot instead of the robot 20 that is a double arm robot.

<ロボットの構成>
図14に示した通り、ロボット20aは、前述の第1アームA1が支持台B3によって支持されている単腕ロボットである。なお、ロボット20aは、ロボット20と異なり、外部に設置されたロボット制御装置40によって制御される。
<Configuration of robot>
As shown in FIG. 14, the robot 20a is a single-arm robot in which the aforementioned first arm A1 is supported by a support B3. Unlike the robot 20, the robot 20a is controlled by a robot control device 40 installed outside.

ロボット20aは、アームA3と、アームA3を支持する支持台B3を備える単腕ロボットである。   The robot 20a is a single-arm robot including an arm A3 and a support B3 supporting the arm A3.

アームAは、エンドエフェクターE3と、マニピュレーターM3と、力検出部S3を備える。
エンドエフェクターE3は、物体を保持するエンドエフェクターである。この一例において、エンドエフェクターE3は、指部を備え、当該指部によって物体を挟んで持つことにより当該物体を保持する。なお、エンドエフェクターE3は、これに代えて、空気の吸引や磁力、他の治具等によって物体を持ち上げることにより当該物体を保持する構成であってもよい。エンドエフェクターE3は、保持部の一例である。
The arm A includes an end effector E3, a manipulator M3, and a force detection unit S3.
The end effector E3 is an end effector that holds an object. In this example, the end effector E3 includes a finger, and holds the object by holding the object by the finger. Note that, instead of this, the end effector E3 may be configured to hold the object by lifting the object by suction of air, magnetic force, another jig or the like. The end effector E3 is an example of a holder.

マニピュレーターM3は、6つの関節を備える。また、当該6つの関節はそれぞれ、図示しないアクチュエーターを備える。すなわち、マニピュレーターM3を備えるアームA3は、6軸垂直多関節型のアームである。アームA3は、支持台B3と、エンドエフェクターE3と、マニピュレーターM3と、マニピュレーターM3が備える6つの関節それぞれのアクチュエーターとによる連携した動作によって6軸の自由度の動作を行う。なお、アームA3は、5軸以下の自由度で動作する構成であってもよく、7軸以上の自由度で動作する構成であってもよい。   The manipulator M3 comprises six joints. Each of the six joints is provided with an actuator (not shown). That is, the arm A3 including the manipulator M3 is a six-axis vertical articulated arm. The arm A3 performs six-axis degrees of freedom by cooperative operations by the support base B3, the end effector E3, the manipulator M3, and the actuators of the six joints provided in the manipulator M3. The arm A3 may be configured to operate with five or less axes of freedom, or may be configured to operate with seven or more axes of freedom.

力検出部S3は、エンドエフェクターE3とマニピュレーターM3の間に備えられる。力検出部S3は、例えば、力センサーである。力検出部S3は、エンドエフェクターE3に作用した外力、又はエンドエフェクターE3により保持された物体に作用した外力を検出する。なお、力検出部S3は、エンドエフェクターE3に作用した外力、又はエンドエフェクターE3により保持された物体に作用した外力を検出するトルクセンサーであってもよい。   The force detection unit S3 is provided between the end effector E3 and the manipulator M3. The force detection unit S3 is, for example, a force sensor. The force detection unit S3 detects an external force acting on the end effector E3 or an external force acting on an object held by the end effector E3. The force detection unit S3 may be a torque sensor that detects an external force acting on the end effector E3 or an external force acting on an object held by the end effector E3.

上記において説明したロボット20aが備える各機能部(すなわち、エンドエフェクターE3、マニピュレーターM3、力検出部S3)のそれぞれは、ケーブルによってロボット制御装置40と通信可能に接続されている。これにより、当該各機能部のそれぞれは、ロボット制御装置40から取得される制御信号に基づく動作を行う。なお、ケーブルを介した有線通信は、例えば、イーサネット(登録商標)、USB等の規格によって行われる。また、当該各機能部のうちの一部又は全部は、Wi−Fi(登録商標)等の通信規格により行われる無線通信によってロボット制御装置40と接続される構成であってもよい。   The respective functional units (that is, the end effector E3, the manipulator M3, and the force detection unit S3) included in the robot 20a described above are communicably connected to the robot control device 40 by a cable. Thus, each of the functional units performs an operation based on the control signal acquired from the robot control device 40. Wired communication via a cable is performed according to a standard such as Ethernet (registered trademark) or USB, for example. In addition, a part or all of the functional units may be connected to the robot control device 40 by wireless communication performed according to a communication standard such as Wi-Fi (registered trademark).

以上のように、ロボットシステム1は、ロボット(この一例において、ロボット20、ロボット20a)と、ロボットを制御するロボット制御装置(この一例において、ロボット制御装置40)と、ロボット制御装置に回線(この一例において、情報処理装置30とロボット制御装置40とを通信可能に接続するケーブル)を介して接続された情報処理装置(この一例において、情報処理装置30)と、を備える。また、情報処理装置は、ロボットを制御するロボット制御装置に当該回線を介して接続される。また、情報処理装置は、動作プログラムに基づいてロボットを動作させるロボット制御装置の動作プログラムにより参照される把持情報を、ロボット制御装置に当該回線を介して出力する。また、把持情報には、ロボットにより把持される物体である把持対象と、ロボットに装着されたエンドエフェクター(この一例において、第1エンドエフェクターE1、第2エンドエフェクターE2、エンドエフェクターE3)との相対的な位置を示す情報(この一例において、相対位置情報)が含まれる。これにより、ロボットシステム1は、動作プログラムを変更することなく、ロボットが把持対象を把持する位置をロボット制御装置に変更させることができる。   As described above, the robot system 1 includes a robot (in this example, the robot 20 and the robot 20a), a robot control device that controls the robot (in this example, the robot control device 40), and a circuit (the robot control device). In one example, an information processing apparatus (in this example, the information processing apparatus 30) connected via a cable communicably connecting the information processing apparatus 30 and the robot control apparatus 40 is provided. Further, the information processing apparatus is connected to a robot control apparatus that controls the robot via the line. Further, the information processing apparatus outputs gripping information referred to by the operation program of the robot control apparatus for operating the robot based on the operation program to the robot control apparatus via the line. Further, in the grip information, the relative between the grip target which is the object gripped by the robot and the end effector (in this example, the first end effector E1, the second end effector E2, the end effector E3) mounted on the robot Information (in this example, relative position information) indicating a specific position is included. Thus, the robot system 1 can change the position at which the robot grips the gripping target to the robot control device without changing the operation program.

また、ロボットシステム1では、情報処理装置は、ロボット制御装置に回線を介して把持情報を出力し、ロボット制御装置に記憶された把持情報を更新する。これにより、ロボットシステム1は、動作プログラムの変更を伴うことなく更新された把持情報に基づいて、ロボット制御装置にロボットを制御させることができる。   Further, in the robot system 1, the information processing apparatus outputs the gripping information to the robot control apparatus via the line, and updates the gripping information stored in the robot control apparatus. Thus, the robot system 1 can cause the robot control device to control the robot based on the updated gripping information without changing the operation program.

また、ロボットシステム1では、情報処理装置は、動作プログラムと把持情報とに基づくロボットの動作を示す動作情報(この一例において、経路情報)を取得し、取得した動作情報に応じた画像(この一例において、経路情報に応じた画像)を表示する。これにより、ロボットシステム1は、動作プログラムと把持情報とに基づいてロボット制御装置がロボットに行わせる動作を、ロボットを動作させる前に確認させることができる。   Further, in the robot system 1, the information processing apparatus acquires operation information (in this example, path information) indicating the operation of the robot based on the operation program and the grip information, and an image according to the acquired operation information (this example , An image corresponding to the route information is displayed. As a result, the robot system 1 can confirm the operation that the robot control device causes the robot to perform based on the operation program and the gripping information before operating the robot.

また、ロボットシステム1では、情報処理装置は、ロボットの周囲に位置する物体の位置であってロボット制御装置によって検出された位置を示す情報と当該物体に応じたオブジェクトを示す情報とが対応付けられた情報(この一例において、周辺物体情報)をロボット制御装置から取得し、取得した当該位置を示す情報及び当該オブジェクトを示す情報と、予め記憶されたオブジェクトに関する情報であるオブジェクト情報とに基づいて、当該物体と前記ロボットとの相対的な位置関係を示す画像(この一例において、周辺物体情報に応じた画像)を表示する。これにより、ロボットシステム1は、ロボット制御装置に設定された位置のうちロボットの周囲に位置する物体のロボット座標系(この一例において、ロボット座標系RC)における位置を、ロボットを動作させる前に確認させることができる。   Further, in the robot system 1, in the information processing apparatus, information indicating the position of an object located around the robot and indicating the position detected by the robot control apparatus is associated with information indicating an object corresponding to the object. The acquired information (in this example, the peripheral object information) is acquired from the robot control device, and the acquired information indicating the position and the information indicating the object are obtained based on the object information which is information on the object stored in advance. An image showing the relative positional relationship between the object and the robot (in this example, an image corresponding to peripheral object information) is displayed. Thereby, the robot system 1 confirms the position in the robot coordinate system (the robot coordinate system RC in this example) of the objects located around the robot among the positions set in the robot control device before operating the robot It can be done.

また、ロボットシステム1では、把持情報には、把持対象と、ロボットに装着されたエンドエフェクターとの相対的な姿勢を示す情報(この一例において、相対姿勢情報)が含まれる。これにより、ロボットシステム1は、対象物とロボットに装着されたエンドエフェクターとの相対的な位置及び姿勢を示す情報が含まれる把持情報に基づいて、動作プログラムを変更することなく、ロボットの動作のうちロボットが対象物を把持する動作を所望の動作に変更することができる。   Further, in the robot system 1, the gripping information includes information (in this example, relative posture information) indicating the relative posture between the gripping target and the end effector attached to the robot. As a result, the robot system 1 does not change the operation program of the robot without changing the operation program based on the holding information including the information indicating the relative position and posture of the object and the end effector mounted on the robot. Among them, the operation of the robot gripping the object can be changed to a desired operation.

また、ロボットシステム1では、把持情報には、ロボットに装着されたエンドエフェクターが備える指部の開閉量を示す情報(この一例において、開閉量情報)が含まれる。これにより、ロボットシステム1は、ロボットに装着されたエンドエフェクターが備える指部の開閉量を示す情報が含まれる把持情報に基づいて、動作プログラムを変更することなく、ロボットの動作のうちロボットが対象物を把持する動作を所望の動作に変更することができる。   Further, in the robot system 1, the grip information includes information (in this example, open / close amount information) indicating the open / close amount of the finger provided in the end effector attached to the robot. Thereby, the robot system 1 targets the robot among the operations of the robot without changing the operation program based on the holding information including the information indicating the opening / closing amount of the finger portion provided in the end effector mounted on the robot. The operation of gripping an object can be changed to a desired operation.

また、ロボットシステム1では、把持情報には、把持対象の位置及び姿勢を表す部位(この一例において、把持対象の重心)と、把持対象が有する部位のうち指定された部位との相対的な位置及び姿勢を示す情報(この一例において、ツール座標系情報)が含まれる。これにより、ロボットシステム1は、把持対象の位置及び姿勢を表す部位と、把持対象が有する部位のうち指定された部位との相対的な位置及び姿勢を示す情報が含まれる把持情報に基づいて、動作プログラムを変更することなく、ロボットの動作のうちロボットが対象物を把持する動作を所望の動作に変更することができる。   Further, in the robot system 1, the relative position between the part indicating the position and posture of the object to be grasped (in this example, the center of gravity of the object to be grasped) in the grasping information and the designated part of the area possessed by the object to be grasped And information indicating the posture (in this example, tool coordinate system information). Thus, the robot system 1 uses the gripping information including the information indicating the relative position and orientation of the part representing the position and orientation of the object to be grasped and the designated part of the region of the object to be grasped. Among the motions of the robot, the motion of the robot gripping the target can be changed to a desired motion without changing the motion program.

以上、この発明の実施形態を、図面を参照して詳述してきたが、具体的な構成はこの実施形態に限られるものではなく、この発明の要旨を逸脱しない限り、変更、置換、削除等されてもよい。   The embodiment of the present invention has been described in detail with reference to the drawings, but the specific configuration is not limited to this embodiment, and changes, replacements, deletions and the like can be made without departing from the scope of the present invention. It may be done.

また、以上に説明した装置(例えば、情報処理装置30、ロボット制御装置40)における任意の構成部の機能を実現するためのプログラムを、コンピューター読み取り可能な記録媒体に記録し、そのプログラムをコンピューターシステムに読み込ませて実行するようにしてもよい。なお、ここでいう「コンピューターシステム」とは、OS(Operating System)や周辺機器等のハードウェアを含むものとする。また、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD(Compact Disk)−ROM等の可搬媒体、コンピューターシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピューター読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバーやクライアントとなるコンピューターシステム内部の揮発性メモリー(RAM)のように、一定時間プログラムを保持しているものも含むものとする。   In addition, a program for realizing the function of an arbitrary component in the device described above (for example, the information processing device 30 and the robot control device 40) is recorded in a computer readable recording medium, and the program is a computer system It may be read and executed. Note that the “computer system” referred to here includes hardware such as an operating system (OS) and peripheral devices. The term "computer-readable recording medium" refers to a flexible disk, a magneto-optical disk, a ROM, a portable medium such as a CD (Compact Disk) -ROM, or a storage device such as a hard disk built in a computer system. . Furthermore, "computer-readable recording medium" means volatile memory (RAM) in a computer system as a server or client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those that hold the program for a certain period of time are also included.

また、上記のプログラムは、このプログラムを記憶装置等に格納したコンピューターシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピューターシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記のプログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、上記のプログラムは、前述した機能をコンピューターシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。
In addition, the above program may be transmitted from a computer system in which the program is stored in a storage device or the like to another computer system via a transmission medium or by transmission waves in the transmission medium. Here, the “transmission medium” for transmitting the program is a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
In addition, the above program may be for realizing a part of the functions described above. Furthermore, the program described above may be a so-called difference file (difference program) that can realize the functions described above in combination with the program already recorded in the computer system.

1…ロボットシステム、20、20a…ロボット、30…情報処理装置、40…ロボット制御装置、31、41…プロセッサー、32、42…メモリー、33…入力受付部、34、44…通信部、35…表示部、36、46…制御部、361…表示制御部、363…処理部、365、465…通信制御部、461…プログラム処理部、463…経路生成部、467…ロボット制御部 DESCRIPTION OF SYMBOLS 1 ... Robot system, 20, 20a ... Robot, 30 ... Information processing apparatus, 40 ... Robot control apparatus, 31, 41 ... Processor, 32, 42 ... Memory, 33 ... Input reception part, 34, 44 ... Communications part, 35 ... Display unit 36, 46: Control unit, 361: Display control unit, 363: Processing unit, 365, 465: Communication control unit, 461: Program processing unit, 463: Path generation unit, 467: Robot control unit

Claims (10)

ロボットと、
前記ロボットを制御するロボット制御装置と、
前記ロボット制御装置に回線を介して接続された情報処理装置と、
を備えるロボットシステムであって、
前記情報処理装置は、
ロボットを制御するロボット制御装置に回線を介して接続される情報処理装置であって、
動作プログラムに基づいて前記ロボットを動作させる前記ロボット制御装置の前記動作プログラムにより参照される把持情報を、前記ロボット制御装置に前記回線を介して出力し、
前記把持情報には、前記ロボットにより把持される物体である把持対象と、前記ロボットに装着されたエンドエフェクターとの相対的な位置を示す情報が含まれる、
ロボットシステム。
With the robot,
A robot control device for controlling the robot;
An information processing apparatus connected to the robot control apparatus via a line;
A robot system comprising
The information processing apparatus is
An information processing apparatus connected via a line to a robot control apparatus that controls a robot,
The gripping information referred to by the operation program of the robot control device for operating the robot based on the operation program is output to the robot control device via the line.
The grip information includes information indicating a relative position between a grip target which is an object gripped by the robot and an end effector mounted on the robot.
Robot system.
前記情報処理装置は、
前記ロボット制御装置に前記回線を介して前記把持情報を出力し、前記ロボット制御装置に記憶された前記把持情報を更新する、
請求項1に記載のロボットシステム。
The information processing apparatus is
Outputting the gripping information to the robot control device via the line, and updating the gripping information stored in the robot control device;
The robot system according to claim 1.
前記情報処理装置は、
前記動作プログラムと前記把持情報とに基づく前記ロボットの動作を示す動作情報を取得し、取得した前記動作情報に応じた画像を表示する、
請求項1又は2に記載のロボットシステム。
The information processing apparatus is
Acquiring motion information indicating the motion of the robot based on the motion program and the grip information, and displaying an image according to the obtained motion information;
A robot system according to claim 1 or 2.
前記情報処理装置は、
前記ロボットの周囲に位置する物体の位置であって前記ロボット制御装置によって検出された位置を示す情報と当該物体に応じたオブジェクトを示す情報とが対応付けられた情報を前記ロボット制御装置から取得し、取得した当該位置を示す情報及び当該オブジェクトを示す情報と、予め記憶されたオブジェクトに関する情報であるオブジェクト情報とに基づいて、当該物体と前記ロボットとの相対的な位置関係を示す画像を表示する、
請求項1から3のうちいずれか一項に記載のロボットシステム。
The information processing apparatus is
The robot control apparatus acquires information in which information indicating a position of an object located around the robot and indicating a position detected by the robot control device is associated with information indicating an object according to the object. And displaying an image indicating a relative positional relationship between the object and the robot based on the acquired information indicating the position and the information indicating the object, and the object information which is information on the object stored in advance. ,
The robot system according to any one of claims 1 to 3.
前記把持情報には、前記把持対象と、前記ロボットに装着されたエンドエフェクターとの相対的な姿勢を示す情報が含まれる、
請求項1から4のうちいずれか一項に記載のロボットシステム。
The grip information includes information indicating a relative posture between the grip target and an end effector mounted on the robot.
The robot system according to any one of claims 1 to 4.
前記把持情報には、前記ロボットに装着されたエンドエフェクターが備える指部の開閉量を示す情報が含まれる、
請求項1から5のうちいずれか一項に記載のロボットシステム。
The grip information includes information indicating an open / close amount of a finger provided to an end effector mounted on the robot.
The robot system according to any one of claims 1 to 5.
前記把持情報には、前記把持対象の位置及び姿勢を表す部位と、前記把持対象が有する部位のうち指定された部位との相対的な位置及び姿勢を示す情報が含まれる、
請求項1から6のうちいずれか一項に記載のロボットシステム。
The grip information includes information indicating a relative position and posture between a portion representing the position and posture of the grip target and a portion designated among the portions of the grip target.
The robot system according to any one of claims 1 to 6.
ロボットを制御するロボット制御装置に回線を介して接続される情報処理装置であって、
動作プログラムに基づいて前記ロボットを動作させる前記ロボット制御装置の前記動作プログラムにより参照される把持情報を、前記ロボット制御装置に前記回線を介して出力し、
前記把持情報には、前記ロボットにより把持される物体である把持対象と、前記ロボットに装着されたエンドエフェクターとの相対的な位置を示す情報が含まれる、
情報処理装置。
An information processing apparatus connected via a line to a robot control apparatus that controls a robot,
The gripping information referred to by the operation program of the robot control device for operating the robot based on the operation program is output to the robot control device via the line.
The grip information includes information indicating a relative position between a grip target which is an object gripped by the robot and an end effector mounted on the robot.
Information processing device.
ロボットを制御するロボット制御装置に回線を介して接続された情報処理装置のコンピューターに、
動作プログラムに基づいて前記ロボットを動作させる前記ロボット制御装置の前記動作プログラムにより参照される把持情報を、前記ロボット制御装置に前記回線を介して出力させるプログラムであって、
前記把持情報には、前記ロボットにより把持される物体である把持対象と、前記ロボットに装着されたエンドエフェクターとの相対的な位置を示す情報が含まれる、
プログラム。
In a computer of an information processing apparatus connected via a line to a robot control apparatus that controls a robot,
A program for causing the robot control device to output gripping information referred to by the operation program of the robot control device for operating the robot based on the operation program, via the line.
The grip information includes information indicating a relative position between a grip target which is an object gripped by the robot and an end effector mounted on the robot.
program.
ロボットを制御するロボット制御装置に回線を介して接続された情報処理装置であって、
プロセッサーを備え、
前記プロセッサーは、
動作プログラムに基づいて前記ロボットを動作させる前記ロボット制御装置の前記動作プログラムにより参照される把持情報を、前記ロボット制御装置に前記回線を介して出力し、
前記把持情報には、前記ロボットにより把持される物体である把持対象と、前記ロボットに装着されたエンドエフェクターとの相対的な位置を示す情報が含まれる、
情報処理装置。
An information processing apparatus connected via a line to a robot control apparatus that controls a robot,
Equipped with a processor
The processor is
The gripping information referred to by the operation program of the robot control device for operating the robot based on the operation program is output to the robot control device via the line.
The grip information includes information indicating a relative position between a grip target which is an object gripped by the robot and an end effector mounted on the robot.
Information processing device.
JP2017244397A 2017-12-20 2017-12-20 Robot system, information processor, and program Pending JP2019111588A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017244397A JP2019111588A (en) 2017-12-20 2017-12-20 Robot system, information processor, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017244397A JP2019111588A (en) 2017-12-20 2017-12-20 Robot system, information processor, and program

Publications (1)

Publication Number Publication Date
JP2019111588A true JP2019111588A (en) 2019-07-11

Family

ID=67221123

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017244397A Pending JP2019111588A (en) 2017-12-20 2017-12-20 Robot system, information processor, and program

Country Status (1)

Country Link
JP (1) JP2019111588A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024080210A1 (en) * 2022-10-14 2024-04-18 Telexistence株式会社 Article moving device and control method for same

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2024080210A1 (en) * 2022-10-14 2024-04-18 Telexistence株式会社 Article moving device and control method for same

Similar Documents

Publication Publication Date Title
JP6733239B2 (en) Controller and robot system
JP6816364B2 (en) Controls, robots, and robot systems
US10589424B2 (en) Robot control device, robot, and robot system
JP6361213B2 (en) Robot control apparatus, robot, robot system, teaching method, and program
JP6380828B2 (en) Robot, robot system, control device, and control method
US20180029232A1 (en) Control apparatus and robot
JP2017071018A (en) Robot system, robot, and robot controlling device
US20170277167A1 (en) Robot system, robot control device, and robot
US20180085920A1 (en) Robot control device, robot, and robot system
JP2017019068A (en) Teaching device, robot, and robot system
JP6706777B2 (en) Controller, robot, and robot system
Nandikolla et al. Teleoperation Robot Control of a Hybrid EEG‐Based BCI Arm Manipulator Using ROS
JP2018122376A (en) Image processing device, robot control device, and robot
JP6488571B2 (en) Teaching apparatus and robot system
JP2019111588A (en) Robot system, information processor, and program
JP6958091B2 (en) Robot system and robot control method
JP6455869B2 (en) Robot, robot system, control device, and control method
JP2018015856A (en) Robot, robot control device, and robot system
JP2017159429A (en) Robot control device, information processing device, and robot system
JP2016013590A (en) Teaching device, and robot system
US20180150231A1 (en) Data management device, data management method, and robot system
JP2018001321A (en) Robot, robot control device and robot system
JP7447568B2 (en) Simulation equipment and programs
JP2017100197A (en) Robot and control method
JP2018034245A (en) Robot, robot control device, and robot system