CN108687770A - 自动地生成机器人的动作轨迹的装置、***以及方法 - Google Patents
自动地生成机器人的动作轨迹的装置、***以及方法 Download PDFInfo
- Publication number
- CN108687770A CN108687770A CN201810312084.0A CN201810312084A CN108687770A CN 108687770 A CN108687770 A CN 108687770A CN 201810312084 A CN201810312084 A CN 201810312084A CN 108687770 A CN108687770 A CN 108687770A
- Authority
- CN
- China
- Prior art keywords
- workpiece
- benchmark
- shape
- elemental motion
- motion pattern
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Classifications
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1656—Programme controls characterised by programming, planning systems for manipulators
- B25J9/1664—Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1628—Programme controls characterised by the control loop
- B25J9/1633—Programme controls characterised by the control loop compliant, force, torque control, e.g. combined with position control
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Numerical Control (AREA)
- Manipulator (AREA)
Abstract
本发明提供一种自动地生成机器人的动作轨迹的装置、***以及方法。一种能够防止生产线的效率降低的装置。装置具备:形状获取部,其获取工件的形状;动作模式获取部,其获取基本动作模式,该基本动作模式包含基准工件形状、该基准工件形状上的基准作业位置以及针对该基准作业位置的作业种类;类似判定部,其判定工件的形状是否与基准工件形状类似;位置决定部,其根据工件的形状和基准工件形状,来决定工件上的与基准作业位置对应的作业位置;以及轨迹生成部,其通过将基准作业位置变更为所决定的作业位置来生成动作轨迹。
Description
技术领域
本发明涉及一种自动地生成机器人的动作轨迹的装置、***以及方法。
背景技术
已知一种自动地生成机器人的动作轨迹的技术(例如,日本特开平8-90232号公报)。
发明内容
以往,每当工件的形状稍有变更时,都需要对针对变更后的该工件进行作业的机器人重新进行动作的示教,该情形导致生产线的效率降低。
在本公开的一个方式中,自动地生成机器人的动作轨迹的装置具备:形状获取部,其获取成为机器人的作业对象的工件的形状;动作模式获取部,其获取基本动作模式,该基本动作模式包含基准工件形状、该基准工件形状上的基准作业位置以及针对该基准作业位置的作业种类;类似判定部,其判定由形状获取部获取到的工件的形状是否与基本动作模式中所包含的基准工件形状类似;位置决定部,其根据由类似判定部判定为彼此类似的工件的形状和基准工件形状,来决定工件上的与基本动作模式中所包含的基准作业位置对应的作业位置;以及轨迹生成部,其通过将基准作业位置变更为由位置决定部决定的作业位置,来生成用于机器人对作业位置执行基本动作模式中所包含的作业的动作轨迹。
在本公开的其它方式中,自动地生成机器人的动作轨迹的方法包括:获取成为机器人的作业对象的工件的形状;获取基本动作模式,该基本动作模式包含基准工件形状、该基准工件形状上的基准作业位置以及针对该基准作业位置的作业种类;判定获取到的工件的形状是否与基本动作模式中所包含的基准工件形状类似;根据判定为彼此类似的工件的形状和基准工件形状,来决定工件上的与基本动作模式中所包含的基准作业位置对应的作业位置;以及通过将基准作业位置变更为所决定的作业位置,来生成用于机器人对作业位置执行基本动作模式中所包含的作业的动作轨迹。
根据本公开的一个方式,无需对机器人再次示教,能够利用基本动作模式自动地构建由机器人对工件进行作业时的动作轨迹。由此,能够削减机器人的再次示教所施加的负担,因此能够使生产线的效率提高。
附图说明
通过与附图相关联的以下的实施方式的说明将更加明确本发明的目的、特征以及优点。
图1是一个实施方式所涉及的装置的框图。
图2是一个实施方式所涉及的机器人***的概要图。
图3是一个实施方式所涉及的基准工件的概要图。
图4A表示图3所示的基准工件,图4B表示与该基准工件类似的工件的例子。
图5A和图5B是用于说明映射理论的图。
图6是表示由图1所示的位置决定部计算出的图4B所示的工件上的作业位置的图。
图7是其它实施方式所涉及的装置的框图。
图8A表示其它实施方式所涉及的基准工件,图8B表示与该基准工件类似的工件的例子。
图9是表示图7所示的装置的动作流程的一例的流程图。
图10是其它实施方式所涉及的装置的框图。
图11是其它实施方式所涉及的装置的框图。
图12表示用于对多个种类的基本动作模式进行说明的表。
图13是表示图11所示的装置的动作流程的一例的流程图。
图14是表示图13中的步骤S22的流程的一例的流程图。
图15表示由图11中的视觉传感器拍摄到的工件的图像的例子。
图16表示绘制于坐标系中的工件和第一种基准工件的图像的例子。
图17表示绘制于坐标系中的工件和第二种基准工件的图像的例子。
图18是表示绘制于坐标系中的工件和第三种基准工件的图像的例子。
图19是表示由图11所示的位置决定部计算出的图15所示的工件上的作业位置的图。
图20是一个实施方式所涉及的***的框图。
具体实施方式
以下,根据附图详细地说明本公开的实施方式。此外,在以下说明的各种实施方式中,对同样的要素标注相同的附图标记,并省略重复说明。首先,参照图1说明一个实施方式所涉及的装置10。
装置10自动地生成机器人的动作轨迹,具备形状获取部12、动作模式获取部14、类似判定部16、位置决定部18以及轨迹生成部20。装置10也可以由具有CPU及存储器等的一个计算机构成。或者,也可以是形状获取部12、动作模式获取部14、类似判定部16、位置决定部18以及轨迹生成部20各自由具有CPU或存储器等的一个计算机构成。
在本实施方式中,在设置于装置10的外部的存储部22中预先存储有基本动作模式24。基本动作模式24是包含与基准工件形状、该基准工件形状上的基准作业位置以及针对该基准作业位置的作业种类有关的信息的计算机程序,用于使机器人针对该基准作业位置执行规定的作业。
以下,参照图2和图3来说明一个实施方式所涉及的机器人***和基本动作模式。图2所示的机器人***30用于对工件W进行点焊,具备机器人控制部32和机器人34。
机器人控制部32具有CPU及存储器(未图示)等,用于直接或间接地对机器人34的各结构要素进行控制。机器人34例如是垂直多关节机器人,具有基座40、旋转主体42、机械臂44、手腕部46以及末端执行器48。基座40被固定于作业室的地面。
旋转主体42以能够绕铅垂轴转动的方式设置于基座40。机械臂44具有以能够转动的方式与旋转主体42连结的下臂部50以及以能够转动的方式与该下臂部50的前端连结的上臂部52。手腕部46以能够转动的方式与上臂部52的前端连结,并支承末端执行器48。
在旋转主体42、机械臂44以及手腕部46中各自内置有伺服电动机(未图示)。作为自动控制的坐标系之一,针对机器人34设定了机器人坐标系CR。
机器人控制部32将机器人坐标系CR作为基准向各伺服电动机发送指令,来对旋转主体42、机械臂44以及手腕部46进行驱动。由此,末端执行器48在机器人坐标系CR下被配置为任意的位置和姿势。
末端执行器48为点焊枪,具备基座部54、固定臂56、可动臂58、驱动部60、固定电极芯片62以及可动电极芯片64。
基座部54与机器人34的手腕部46连结。固定臂56的基端被固定于基座部54,固定电极芯片62被固定于固定臂56的前端。
可动臂58以与固定电极芯片62接近和分离的方式可动地设置于基座部54。驱动部60例如具有伺服电动机,根据来自机器人控制部32的指令来使可动臂58以与固定电极芯片62接近和分离的方式移动。
固定电极芯片62和可动电极芯片64根据来自机器人控制部32的指令进行通电。由此,固定电极芯片62和可动电极芯片64对夹持于该固定电极芯片62和可动电极芯片64之间的工件W进行点焊。
图3表示一个实施方式所涉及的基准工件WR1。基准工件WR1例如是车体,具有预先决定的基准工件形状。在该基准工件WR1上设定有合计12个基准作业位置A1~A12。这些基准作业位置A1~A12是由用户预先决定的。机器人34针对各个该基准作业位置A1~A12进行点焊作业。
本实施方式所涉及的基本动作模式24使机器人34针对各个基准作业位置A1~A12执行点焊。具体地说,在机器人坐标系CR下,机器人控制部32按照基本动作模式24对机器人34进行控制,利用末端执行器48对各个基准作业位置A1~A12进行点焊。
基本动作模式24使机器人34以预先决定的基准顺序针对各个基准作业位置A1~A12进行点焊。该基准顺序例如能够规定为作业位置A1→A2→A3→A4→A5→A6→A7→A8→A9→A10→A11→A12的顺序。
通过利用示教操作板或仿真等对机器人34示教点焊作业,来预先构建该基本动作模式24并存储于存储部22。
基本动作模式24包含基准工件WR1的基准工件形状、机器人坐标系CR下的各基准作业位置A1~A12的坐标、基准顺序以及用于使末端执行器48按照基准顺序从基准作业位置An向基准作业位置An+1(n=1~11)移动的机器人34的动作轨迹的信息等。
在此,在对基准工件WR1进行作业的生产线上,存在想要针对只是相对于基准工件WR1稍微变更了形状的具有与该基准工件WR类似的形状的工件W1进行同样的作业的要求。
在图4B中示出这样的工件W1的一例。工件W1具有使基准工件WR1的长度方向的尺寸缩小了那样的形状。图4A和图4B所示的基准工件WR1和工件W1的形状能够表示为图4A和图4B中的坐标系C1下的坐标或函数。
作为一例,基准工件WR1和工件W1能够由于彼此遵照不同的标准进行制作,从而具有彼此稍微不同的形状(例如,基准工件WR1是面向日本的标准,另一方面,工件W1是面向美国的标准)。
本实施方式所涉及的装置10无需对机器人34进行示教而是自动地生成用于使机器人34对这样的工件W1进行作业的动作轨迹。
以下,参照图1、图3~图6来对装置10的功能进行说明。形状获取部12接收与成为机器人34的作业对象的工件W1的形状有关的信息。作为一例,形状获取部12从后述的形状输入部、视觉传感器或标记读取传感器接收与工件W1的形状有关的信息。
动作模式获取部14获取基本动作模式24。在本实施方式中,动作模式获取部14与存储部22以能够进行通信的方式连接,从该存储部22获取基本动作模式24。
类似判定部16根据由形状获取部12接收到的工件W1的形状,来判定该工件W1的形状是否与基准工件WR1的基准工件形状类似。作为一例,如后述的那样,类似判定部16构成为在形状获取部12接收到工件W1的形状时,自动地判定为该工件W1的形状与基准工件WR1的基准工件形状类似。
位置决定部18根据由类似判定部16判定为类似的工件W1的形状和基准工件WR1的基准工件形状,求出工件W1上的与该基准工件形状上的基准作业位置A1~A12分别对应的作业位置。
参照图5A和图5B来对该计算方法进行说明。图5A示出长方形的基准工件形状B来作为一例,图5B表示使该基准工件形状B任意地变形得到的变形形状B’。在图5A所示的例子中,在基准工件形状B中的任意位置设定了点C。利用图5A和图5B中的坐标系C2使基准工件形状B、变形形状B’以及点C坐标化。
在此,与针对基准工件形状B的点C的位置对应的针对变形形状B’的位置为图5B中的点C’的位置。如果坐标系C2下的基准工件形状B和变形形状B’的坐标(或函数)已知,则通过将这些坐标(或函数)的信息导入到公知的映射理论式,能够将该点C’的位置(即,坐标系C2的坐标)计算为坐标系C2的坐标。
将映射理论式的一例表示为以下的数式1。
数式1:
在上述的数式1中,f(x(k))表示变形形状B’的特征点(例如,顶角、边等)的坐标,x(k)’表示基准工件形状B的特征点的坐标。
位置决定部18利用这样的计算方法,计算工件W1上的与基准工件WR1的基准工件形状上的基准作业位置A1~A12分别对应的作业位置。具体地说,位置决定部18基于预先存储的基准工件WR1的图形数据(例如,2D CAD数据或3D CAD数据),获取图4A和图4B中的坐标系C1下的基准工件WR1的基准工件形状的坐标(或函数)。
另外,位置决定部18基于由形状获取部12接收到的工件W1的基准工件形状的信息,来获取图4A和图4B中的坐标系C1下的工件W1的形状的坐标(或函数)。然后,位置决定部18通过将表示基准工件WR1和工件W1的形状的坐标(或函数)导入到映射理论式,来计算工件W1上的与基准作业位置A1~A12分别对应的作业位置A1’~A12’。
在图6中表示像这样计算出的作业位置A1’~A12’。这些作业位置A1’~A12’被表示为坐标系C1的坐标。接着,位置决定部18通过对计算出的作业位置A1’~A12’在坐标系C1下的坐标乘以坐标变换矩阵(例如,雅可比矩阵)来变换到三维的机器人坐标系CR中,计算机器人坐标系CR下的作业位置A1’~A12’的坐标。
通过这样,位置决定部18能够决定工件W1上的与基准工件WR1的基准工件形状上的基准作业位置A1~A12分别对应的作业位置A1’~A12’。
轨迹生成部20将基本动作模式24中所包含的基准作业位置A1~A12的信息(具体地说,是机器人坐标系CR的坐标)变更为由位置决定部18决定的作业位置A1’~A12’(具体地说,是机器人坐标系CR下的坐标)。通过这样,轨迹生成部20自动地生成用于使机器人34对作业位置A1’~A12’执行点焊作业的动作轨迹。
根据本实施方式,无需再次对机器人34进行示教,能够利用基本动作模式24自动地构建由该机器人34对工件W1进行作业(点焊)时的该机器人34的动作轨迹。根据该结构,能够削减机器人34的再次示教所施加的负担,因此能够使生产线的效率提高。
接着,参照图7说明其它实施方式所涉及的装置70。与上述的装置10同样地,装置70自动地生成由机器人34对工件W1进行点焊作业时的该机器人34的动作轨迹。
装置70具备CPU 72、***存储器74、工件存储器76、输入/输出接口(I/O接口)78、显示部80以及输入部82。例如,CPU 72、***存储器74、工件存储器76以及I/O接口78也可以被构成为一个计算机(PC、平板电脑终端等)。
CPU 72经由总线84来与***存储器74、工件存储器76以及I/O接口78以能够进行通信的方式连接,CPU 72与这些要素进行通信并执行后述的各种处理。
***存储器74是电可擦除/记录的非易失性存储器,例如由EEPROM(注册商标)等构成。***存储器74将CPU 72执行后述的各种处理所需要的常数、变量、设定值、程序等以在装置70不进行动作时也不会消失的方式进行存储。
在本实施方式中,***存储器74预先存储有多个种类的基本动作模式24和86、多个种类的基准工件WR1和WR2的图形数据(例如,2D CAD数据或3D CAD数据)以及多个种类的工件W1和W2的图形数据。
工件存储器76暂时保管CPU 72执行各种处理所需要的数据。另外,***存储器74中所记录的常数、变量、设定值、参数、程序等被适当地解压缩到工件存储器76中。CPU 72将工件存储器76中的被解压缩的数据用于执行各种处理。
I/O接口78与显示部80及输入部82以能够进行通信的方式连接,在来自CPU 72的指令下,I/O接口78与输入部82及显示部80进行通信。I/O接口78例如也可以由以太网端口或USB端口等构成,以有线的方式与显示部80及输入部82进行通信。或者,I/O接口78例如也可以经由Wi-Fi等无线LAN来以无线的方式与显示部80及输入部82进行通信。
显示部80例如由CRT、液晶显示器(LCD)或有机EL显示器构成,接收从I/O接口78发送的图像数据,并显示为用户能够视觉识别的图像。输入部82例如具有按键装置、键盘、触摸面板或鼠标,用户通过对输入部82进行操作,能够输入信息。
在***存储器74中保存有第一种基本动作模式24和第二种基本动作模式86。第一种基本动作模式24与上述的实施方式同样地,用于使机器人34以预先决定的基准顺序对图3所示的第一种基准工件WR1的各个基准作业位置A1~A12进行点焊。
另一方面,第二种基本动作模式86是用于使机器人34对图8A所示的第二种基准工件WR2进行点焊的计算机程序。第二种基准工件WR2例如为车体,具有预先决定的基准工件形状。在第二种基准工件WR2中设定了合计7个基准作业位置D1~D7。
第二种基本动作模式86使机器人34以预先决定的基准顺序对各个基准作业位置D1~D7执行点焊。该基准顺序例如能够设定为作业位置D1→D2→D3→D4→D5→D6→D7的顺序。
通过利用示教操作板或仿真对机器人34示教作业(即,点焊)来预先构建第二种基本动作模式86,并存储于***存储器74。
第二种基本动作模式86包含基准工件WR2的基准工件形状、机器人坐标系CR下的各基准作业位置D1~D7的坐标、基准顺序以及用于使末端执行器48按照基准顺序从基准作业位置Dn向基准作业位置Dn+1(n=1~7)移动的机器人34的动作轨迹的信息等。
在图8B中表示具有与第二种基准工件WR2的基准工件形状类似的形状的工件W2的例子。该工件W2具有如使第二种基准工件WR2的长度方向的尺寸缩小了那样的形状。
作为一例,第二种基准工件WR2和工件W2能够由于彼此遵照不同的标准进行制作,从而具有彼此稍微不同的形状(例如,基准工件WR2是面向日本的标准,另一方面,工件W2是面向美国的标准)。
CPU 72参照图5A和图5B并利用上述的计算方法求出工件W2上的与第二种基准工件WR2上的基准作业位置D1~D7分别对应的作业位置D1’~D7’。
另外,CPU 72与上述的实施方式同样地求出与第一种基准工件WR1上的基准作业位置A1~A12分别对应的作业位置A1’~A12’。这样,在本实施方式中,CPU 72承担作为用于决定与基准作业位置A1~A12、D1~D7对应的作业位置A1’~A12’、D1’~D7’的位置决定部88(图7)的功能。
接着,参照图9对装置70的动作流程的一例进行说明。在CPU 72从用户接收到动作开始指令时开始图9所示的动作流程。在开始进行图9所示的动作流程时,CPU 72生成用于能够由用户输入与工件的形状有关的信息的输入画面的图像数据,并显示于显示部80。
例如,CPU 72生成能够选择第一种车体的“日本标准”(相当于第一种基准工件WR1)、第一种车体的“美国标准”(相当于工件W1)、第二种车体的“日本标准”(相当于第二种基准工件WR2)、或第二种车体的“美国标准”(相当于工件W2)的输入画面。用户对输入部82进行操作,来在显示部80所显示的输入画面上选择这四个选项中的一个。
输入部82将用户所输入的形状输入数据发送到I/O接口78。该形状输入数据包含与用户所选择的第一种基准工件WR1、第二种基准工件WR2、工件W1或W2有关的信息,相当于与工件WR1、WR2、W1、W2的形状有关的信息。
这样,在本实施方式中,输入部82作为用于接收工件WR1、WR2、W1、W2的形状的输入的形状输入部90(图7)发挥功能。
I/O接口78从输入部82接收形状输入数据,CPU 72将接收到的形状输入数据存储到工件存储器76。这样,在本实施方式中,I/O接口78作为用于接收与工件WR1、W1的形状有关的信息的形状获取部92(图7)发挥功能。
在步骤S1中,CPU 72判定是否接收了与工件WR1、WR2、W1、W2的形状有关的信息的输入。具体地说,CPU 72判定I/O接口78是否接收到形状输入数据。
CPU 72在判定为接收到形状输入数据(即,是(YES))的情况下,进入步骤S2。另一方面,CPU 72在判定为没有接收到形状输入数据(即,否(NO))的情况下,进入步骤S12。
在步骤S2中,CPU 72判定I/O接口78接收到的形状输入数据是否表示选择了基准工件WR1或WR2(即,“日本标准”)。在此,***存储器74中所存储的基本动作模式24和86分别与基准工件WR1和WR2相关联地进行存储。
CPU 72从***存储器74读出基本动作模式24和86,从而获取基本动作模式24和86。这样,CPU 72作为用于获取基本动作模式24和86的动作模式获取部94(图7)发挥功能。
CPU 72通过将I/O接口78接收到的形状输入数据与获取到的基本动作模式24和86对照,能够判定该形状输入数据是否表示选择了基准工件WR1或WR2。
CPU 72在判定为I/O接口78接收到的形状输入数据表示选择了基准工件WR1或WR2(即,是)的情况下,进入步骤S9。
另一方面,CPU 72在判定为I/O接口78接收到的形状输入数据表示选择了工件W1或W2(即,“美国标准”)(即,否)的情况下,进入步骤S3。
在步骤S3中,CPU 72判定为工件W1、W2的形状与基准工件WR1、WR2的基准工件形状类似。具体地说,为了确定工件W1的形状与第一种基准工件WR1的基准工件形状类似,而在***存储器中将工件W1的信息(图形数据)与第一种基准工件WR1的信息相关联地进行了存储。
同样地,为了确定工件W2的形状与第二种基准工件WR2的基准工件形状类似,而在***存储器中将工件W2的信息与第二种基准工件WR2的信息相关联地进行了存储。
假设CPU 72通过I/O接口78接收到工件W1的形状输入数据并在步骤S2中判定为否。在该情况下,CPU 72在该步骤S3中自动地判定为被接收输入的工件W1与同该工件W1的信息相关联的第一种基准工件WR1类似,并从***存储器74读出工件W1和第一种基准工件WR1的图形数据。
另一方面,假设CPU 72通过I/O接口78接收到工件W2的形状输入数据并在步骤S2中判定为否。在该情况下,CPU 72在该步骤S3中自动地判定为被接收输入的工件W2与第二种基准工件WR2类似,并从***存储器74读出工件W2和第二种基准工件WR2的图形数据。
这样,在本实施方式中,CPU 72承担作为用于判定由形状获取部92获取到的工件W1、W2的形状是否与由动作模式获取部94获取到的基本动作模式24、86中所包含的基准工件WR1、WR2的基准工件形状类似的类似判定部96(图7)的功能。
在此,CPU 72按照预先决定的规则判定为被接收输入的工件W1或W2与基准工件WR1或WR2类似。本实施方式所涉及的预先决定的规则是指判定为被接收输入的工件W1或W2与同其信息相关联的基准工件WR1或WR2类似这样的规则。
在步骤S4中,CPU 72决定工件W1、W2上的作业位置A1’~A12’、D1’~D7’。具体地说,CPU 72作为位置决定部88发挥功能,来使用在步骤S3中读出的工件W1或W2和基准工件WR1或WR2的图形数据以及上述的计算方法决定图6所示的作业位置A1’~A12’或图8B所示的作业位置D1’~D7’。
在步骤S5中,CPU 72显示在步骤S4中所决定的作业位置作A1’~A12’或D1’~D7’的信息。具体地说,CPU 72生成表示在步骤S4中所决定的作业位置A1’~A12’或D1’~D7’的图6或图8B的图像数据,并显示于显示部80。
此时,在显示部80所显示的图像中同时示出基准顺序(例如,D1→D2→D3→D4→D5→D6→D7的顺序)的信息和用于输入该基准顺序的变更的顺序输入画面。用户能够对输入部82进行操作来在显示部80所显示的顺序输入画面上输入基准顺序的变更。
例如,在显示部80显示图8B所示的工件W2并且显示了顺序输入图像的情况下,用户能够对输入部82进行操作来将对工件W2进行点焊的顺序从基准顺序:D1→D2→D3→D4→D5→D6→D7变更为任意的顺序(例如,D7→D1→D6→D2→D3→D5→D4)。
这样,在本实施方式中,输入部82作为接收使机器人34执行作业(点焊)的顺序的输入的顺序输入部98(图7)发挥功能。输入部82将用户所输入的顺序输入数据发送到I/O接口78。I/O接口78从输入部82接收顺序输入数据,CPU72将接收到的顺序输入数据存储到工件存储器76。
在步骤S6中,CPU 72判定是否接收了执行作业的顺序的输入。具体地说,CPU 72判定I/O接口78是否从输入部82接收到顺序输入数据。
CPU 72在判定为I/O接口78接收到顺序输入数据(即,是)的情况下,进入步骤S7。另一方面,CPU 72在判定为I/O接口78没有接收到顺序输入数据(即,否)的情况下,进入步骤S8。
在步骤S7中,CPU 72将机器人34对基准作业位置(A1’~A12’或D1’~D7’)执行作业(点焊)的顺序决定为从用户接收到的顺序,并存储于工件存储器76。
在步骤S8中,CPU 72生成动作轨迹。具体地说,CPU 72将基本动作模式24或86中所包含的基准作业位置A1~A12或D1~D7的信息变更为在步骤S4中所决定的作业位置A1’~A12’或D1’~D7’。
另外,在执行步骤S7之后执行该步骤S8的情况下,CPU 72将基本动作模式24或86中所包含的基准顺序(例如,D1→D2→D3→D4→D5→D6→D7)变更为在步骤S7中所决定的顺序(例如,D7→D1→D6→D2→D3→D5→D4)。
另一方面,在步骤S6中判定为否之后执行该步骤S8的情况下,CPU 72维持基本动作模式24或86中所包含的基准顺序的设定。
通过这样,CPU 72自动地生成用于使机器人34以用户所指定的顺序或基准顺序对作业位置A1’~A12’或D1’~D7’执行作业(点焊)的动作轨迹。
例如,在用户选择第二种车体的“美国标准”(工件W2)且将作业的顺序设定为D7→D1→D6→D2→D3→D5→D4的情况下,CPU 72在该步骤S8中生成使机器人34以D7’→D1’→D6’→D2’→D3’→D5’→D4’的顺序对工件W1的作业位置D1’~D7’执行点焊时的该机器人34的动作轨迹。
这样,在本实施方式中,CPU 72承担作为生成用于使机器人34对作业位置A1’~A12’、D1’~D7’执行作业的动作轨迹的轨迹生成部99(图7)的功能。
在步骤S9中,CPU 72显示动作轨迹。在执行步骤S8之后执行该步骤S9的情况下,CPU 72生成表示在步骤S8中所生成的动作轨迹的图像数据,并显示于显示部80。
另一方面,在步骤S2中判定为是之后执行该步骤S9的情况下,CPU 72从***存储器74读出与在步骤S1中从用户接收到的种类的基准工件WR1或WR2对应的基本动作模式24或86。然后,CPU 72生成表示所读出的基本动作模式24或86的图像数据,并显示于显示部80。
此时,在显示部80所显示的图像中同时示出认可按钮和不认可按钮的图像。用户通过点击图像中的认可按钮和不认可按钮,能够选择认可显示部80所显示的动作轨迹或者不认可显示部80所显示的动作轨迹。
在步骤S10中,CPU 72判定用户是否认可动作轨迹。具体地说,CPU 72判定是否接收了对在步骤S9中显示部80所显示的认可按钮进行了点击的输入。
在判定为接收了认可按钮的点击输入(即,是)的情况下,CPU 72进入步骤S11。另一方面,在判定为接收了不认可按钮的点击输入(即,否)的情况下,CPU 72与图9的流程开始时同样地将用于输入与工件的形状有关的信息的输入画面显示于显示部80,并进入步骤S12。
在步骤S11中,CPU 72将在步骤S9中所显示的动作轨迹作为在实际的生产线中由机器人34对工件进行作业所使用的实际使用动作轨迹来存储于***存储器74。然后,CPU72结束图9所示的流程。
另一方面,在步骤S1或S10中判定为否的情况下,在步骤S12中,CPU 72判定是否从用户接收到动作结束指令。CPU 72在判定为接收到动作结束指令(即,是)的情况下,结束图9所示的流程。另一方面,CPU 72在判定为没有接收到动作结束指令(即,否)的情况下,返回到步骤S1。
这样,根据本实施方式,无需再次对机器人34进行示教,就能够利用基本动作模式24或86自动地构建由机器人34对工件W1或W2进行点焊时的该机器人34的动作轨迹。由此,能够削减机器人34的再次示教所施加的负担,因此能够使生产线的效率提高。
另外,在本实施方式中,装置70具备形状输入部90。由此,用户能够通过形状输入部90容易地输入与成为作业对象的工件的形状有关的信息。
另外,在本实施方式中,装置70具备顺序输入部98,CPU 72生成按照由用户指定的顺序执行作业的动作轨迹。根据该结构,用户无需机器人34的再次示教,能够自动地构建使机器人34以任意的顺序执行作业时的动作轨迹。因而,能够更有利地提高生产线的效率。
此外,在本实施方式中,记述了在***存储器74中存储有两个种类的基准工件WR1和WR2的信息以及与该基准工件WR1和WR2对应的两个种类的基本动作模式24和86的情况。
然而,不限于此,也可以在***存储器74中预先存储n个种类(n为3以上的整数)的基准工件WR1~WRn的信息以及与该基准工件WR1~WRn分别对应的n个种类的基本动作模式。
另外,也可以将由作为与各个基准工件WR1~WRn类似之物的多个工件构成的工件群的信息与各个该基准工件WR1~WRn相关联地存储于***存储器74。
例如,也可以将由作为与基准工件WR1类似之物的工件W1、W1-2、W1-3、···W1-m的合计m个(m为2以上的整数)工件构成的工件群作为与基准工件WR1类似的工件来与该基准工件WR1相关联地进行存储。
在该情况下,在图9的流程开始时,CPU 72生成能够从基准工件WR1~WRn以及与各个该基准工件WR1~WRn相关联的多个工件群中选择用户所期望的工件的输入画面的图像数据,并显示于显示部80。而且,CPU 72以来自用户的形状输入数据为触发来如上述那样执行步骤S1~S12的流程。
接着,参照图10说明其它实施方式所涉及的装置100。装置100在以下的结构中不同于上述的装置70。即,装置100具备标记读取传感器102来代替形状输入部90。
标记读取传感器102与I/O接口78以能够进行通信的方式连接。标记读取传感器102例如是条形码读取器或QR读取器,能够读取规定的标记(例如,条形码或QR码)。
在本实施方式中,该标记被设置于在生产线上流通的工件的表面。在该情况下,标记既可以被直接刻印在工件的表面,也可以设置为与工件不同的构件(例如,贴条)来贴附在工件的表面。
作为一例,标记读取传感器102也可以是用户能够携带的手持式装置。在该情况下,用户通过手持式的标记读取传感器102来手动读取在生产线上流通过来的工件上所设置的标记。
作为另一例,标记读取传感器102也可以被固定于生产线上的规定位置。在该情况下,标记读取传感器102自动地读取在生产线上流通过来的工件上所设置的标记。
在本实施方式中,在标记中记述有与要进行作业的工件的形状有关的信息,标记读取传感器102读取该标记并将该标记中所包含的与工件的形状有关的信息发送到I/O接口78。
接着,参照图9说明装置100的动作流程的一例。装置100的CPU 72与上述的装置70同样地执行图9所示的流程。在此,在本实施方式中,在各个工件WR1、WR2、W1以及W2上设置有记述自己的信息的标记。
标记读取传感器102读取设置于在生产线上流通过来的工件WR1、WR2、W1或W2的标记,并获取该标记所记述的标记信息。该标记信息包含用于确定工件WR1、WR2、W1、W2的形状的种类的信息,相当于与工件WR1、WR2、W1、W2的形状有关的信息。
标记读取传感器102将获取到的标记信息发送到I/O接口78。I/O接口78作为形状获取部92发挥功能,来从标记读取传感器102接收标记信息,CPU 72将接收到的标记信息存储于工件存储器76。
在步骤S1中,CPU 72判定是否接收了与工件WR1、WR2、W1、W2的形状有关的信息的输入。具体地说,CPU 72判定I/O接口78是否从标记读取传感器102接收到标记信息。
CPU 72在判定为接收到标记信息(即,是)的情况下,进入步骤S2。另一方面,CPU72在判定为没有接收到标记信息(即,否)的情况下,进入步骤S12。
在步骤S2中,CPU 72判定I/O接口78所接收到的标记信息是否是用于确定基准工件WR1或WR2的标记信息。CPU 72在判定为接收到的标记信息是用于确定基准工件WR1或WR2的标记信息(即,是)的情况下,进入步骤S9。
另一方面,CPU 72在判定为I/O接口78所接收到的标记信息是用于确定工件W1或W2的标记信息(即,否)的情况下,进入步骤S3。在步骤S2之后,CPU 72与上述的装置70同样地依次执行步骤S3~S12。
在本实施方式中,装置100具备标记读取传感器102。由此,能够容易地确定在生产线上流通的工件WR1、WR2、W1、W2的形状。
接着,参照图11说明其它实施方式所涉及的装置110。装置110在以下的结构中不同于上述的装置100。即,装置110具备视觉传感器112和作业输入部116。
视觉传感器112例如是三维视觉传感器,具有调焦透镜等光学***以及CCD传感器或CMOS传感器等摄像传感器。视觉传感器112被固定于能够拍摄在生产线上流通过来的工件的位置,与I/O接口78以能够进行通信的方式连接。视觉传感器112根据来自控制部72的指令拍摄生产线上的工件,并将拍摄到的图像发送到I/O接口78。
图12表示用于对在本实施方式中预先保存于***存储器74中的合计12个种类的基本动作模式130、132、134、136、138、140、142、144、146、148、150以及152进行说明的表。
图12中的“作业”的“把持”的列中所示的基本动作模式130、136、142以及148分别是用于使机器人把持在具有四边形的基准工件形状的基准工件WR3、具有圆形的基准工件形状的基准工件WR4、具有三角形的基准工件形状的基准工件WR5以及具有线状的基准工件形状的基准工件WR6上所设定的多个基准作业位置En(n=1、2)的计算机程序。
例如,图12中的基本动作模式136用于使机器人把持在圆形的基准工件WR4上所设定的2个基准作业位置E1和E2。在进行把持基准作业位置En的作业时,作为图2所示的机器人34的末端执行器,安装能够把持物品的机械手(未图示)来代替末端执行器48。
另外,图12中的“作业”的“点焊”的列中所示的基本动作模式132、138、144以及150分别是用于使机器人34对4个种类的基准工件WR3、WR4、WR5以及WR6各自上设定的多个基准作业位置Fn(n=1~4)以Fn→Fn+1的基准顺序进行点焊的计算机程序。
例如,图12中的基本动作模式132用于使机器人34以F1→F2→F3→F4的基准顺序对四边形的基准工件WR3上所设定的4个基准作业位置F1~F4进行点焊。
另外,图12中的“作业”的“电弧焊”的列中所示的基本动作模式134、140、146以及152分别是用于使机器人34对4个种类的基准工件WR3、WR4、WR5以及WR6各自上设定的多个基准作业位置Gn(n=1~5)以Gn→Gn+1的基准顺序进行电弧焊的计算机程序。
例如,图12中的基本动作模式146用于使机器人以G1→G2→G3→G4的基准顺序对三角形的基准工件WR5上所设定的4个基准作业位置G1~G4进行电弧焊。在进行电弧焊作业时,在图2所示的机器人34上安装电弧焊用的末端执行器(未图示),来代替末端执行器48。
这样,12个种类的基本动作模式130~152分别用于对4个种类的基准工件WR3、WR4、WR5以及WR6各自执行3个种类的作业(把持、点焊、电弧焊)。
12个种类的基本动作模式130~152分别包含与基准工件WR3、WR4、WR5、WR6的基准工件形状、基准作业位置Fn、Gn、En以及针对该基准作业位置的作业种类(把持、点焊、电弧焊)有关的信息。
***存储器74预先保存12个种类的基本动作模式130~152以及4个种类的基准工件WR3、WR4、WR5以及WR6的图形数据。CPU 72作为动作模式获取部94发挥功能,来从***存储器74读出并获取基本动作模式130~152。
接着,参照图13说明装置110的动作流程的一例。此外,在图13所示的流程中,对与图9所示的流程同样的处理附加相同的步骤编号,并省略详细的说明。
在步骤S21中,视觉传感器112检测工件的形状。具体地说,控制部72向视觉传感器112发送指令,由视觉传感器112对生产线上的工件进行拍摄。
在图15中表示由视觉传感器112拍摄到的工件W3的图像的例子。如图15所示,能够将由视觉传感器112拍摄到的工件W3的形状(边等特征点)在针对视觉传感器112设定的传感器坐标系Cs中进行坐标化。
通过这样,视觉传感器112检测工件W3的形状,并将获取到的图像数据发送到I/O接口78。该图像数据相当于与工件W3的形状有关的信息。
I/O接口78从视觉传感器112接收图像数据,CPU 72将接收到的图像数据存储于工件存储器76。这样,在本实施方式中,I/O接口78作为接收与工件W3的形状有关的信息的形状获取部114(图11)发挥功能。
在步骤S22中,CPU 72判定在步骤S21中检测出的工件W3与基准工件WR3、WR4、WR5、WR6的类似性。在该步骤S22中,参照图14进行说明。
在步骤S31中,CPU 72计算在步骤S21中检测出的工件W3与***存储器74中所存储的多个种类的基准工件WR3、WR4、WR5、WR6中的第一种基准工件的差异度δ1。能够使用以下的数式2计算该差异度δ。
数式2:
该数式2相当于上述数式1中的项E。通过该数式2求出的差异度δ是表示两个形状的差异的程度的参数,其值越小则意味着两个形状越类似。
在此,作为第一种基准工件,设定了图12所示的四边形的基准工件WR3。在该情况下,CPU 72基于在步骤S21中获取到的工件W3的图像数据,将在传感器坐标系CS中进行坐标化所得到的工件W3的形状(特征点)绘制于图16所示的坐标系C3。
并且,CPU 72基于***存储器74中所存储的基准工件WR3的图形数据,将该基准工件WR3的形状以与工件W3叠加的方式绘制于坐标系C3。
而且,通过对数式2中的f(x(k))代入工件W3的特征点的坐标,并对x(k)’代入基准工件WR3的特征点的坐标,能够基于数式2计算工件W3与基准工件WR3的差异度δ1。在图16所示的例子中,差异度δ1为δ1≈6.2×10-4。
在步骤S32中,CPU 72判定在步骤S31中计算出的差异度δ1是否为阈值α以下。该阈值α由用户预先决定并存储于***存储器74。
CPU 72在判定为差异度δ1为阈值α以下(即,是)的情况下,进入步骤S33。另一方面,CPU 72在判定为差异度δ1大于阈值α(即,否)的情况下,进入步骤S34。
例如,该阈值α被设定为α=4.5×10-4。在该情况下,当在步骤S31中计算出工件W3与基准工件WR3的差异度δ1(≈6.2×10-4)时,由于δ1>α,因此CPU 72判定为否,进入步骤S34。
在步骤S34中,CPU 72计算在步骤S21中检测出的工件W3与***存储器74中所存储的多个种类的基准工件WR3、WR4、WR5、WR6中的第二种基准工件的差异度δ2。
例如,作为第二种基准工件,设定了图12所示的圆形的基准工件WR4。在该情况下,如图17所示,CPU 72将在步骤S21中获取到的工件W3的形状和基准工件WR4的形状绘制于坐标系C3。而且,CPU 72使用数式2计算工件W3与基准工件WR4的差异度δ2。在图17所示的例子中,差异度δ2为δ2≈6.7×10-4。
在步骤S35中,CPU 72判定在步骤S34中计算出的差异度δ2是否为阈值α以下。CPU72在判定为差异度δ2为阈值α以下(即,是)的情况下,进入步骤S33。另一方面,CPU 72在判定为差异度δ2大于阈值α(即,否)的情况下,进入步骤S36。
例如,阈值α被设定为α=4.5×10-4,当在步骤S34中计算出工件W3与基准工件WR4的差异度δ2(≈6.7×10-4)时,由于δ2>α,因此CPU 72判定为否,进入步骤S36。
在步骤S36中,CPU 72计算在步骤S21中检测出的工件W3与***存储器74中所存储的多个种类的基准工件WR3、WR4、WR5、WR6中的第三种基准工件的差异度δ3。
例如,作为第三种基准工件,设定了图12所示的三角形的基准工件WR5。在该情况下,如图18所示,CPU 72将在步骤S21中获取到的工件W3的形状和基准工件WR5的形状绘制于坐标系C3。而且,CPU 72使用数式2计算工件W3与基准工件WR5的差异度δ3。在图18所示的例子中,差异度δ3为δ3≈4.1×10-4。
在步骤S37中,CPU 72判定在步骤S36中计算出的差异度δ3是否为阈值α以下。CPU72在判定为差异度δ3为阈值α以下(即,是)的情况下,进入步骤S33。另一方面,CPU 72在判定为差异度δ3大于阈值α(即,否)的情况下,进入步骤S38。
例如,阈值α被设定为α=4.5×10-4,当在步骤S36中计算出工件W3与基准工件WR5的差异度δ3(≈4.1×10-4)时,由于δ3≤α,因此CPU 72判定为是,进入步骤S33。
在步骤S38中,CPU 72计算在步骤S21中检测出的工件W3与***存储器74中所存储的多个种类的基准工件WR3、WR4、WR5、WR6中的第四种基准工件的差异度δ4。
例如,作为第四种基准工件,设定了图12所示的线状的基准工件WR6。在该情况下,CPU 72利用上述的计算方法计算工件W3与基准工件WR6的差异度δ4。
在步骤S39中,CPU 72判定在步骤S38中计算出的差异度δ4是否为阈值α以下。CPU72在判定为差异度δ4为阈值α以下(即,是)的情况下,进入步骤S33。另一方面,CPU 72在判定为差异度δ4大于阈值α(即,否)的情况下,进入图13中的步骤S26。
在步骤S33中,CPU 72判定为工件W3的形状与同在步骤S32、S35、S37或S39中判定为是的差异度δ1、δ2、δ3或δ4对应的基准工件WR3、WR4、WR5或WR6的基准工件形状类似。
在步骤S21中检测出图15所示的工件W3的情况下,CPU 72在步骤S37中判定为是,因此判定为工件W3的形状与基准工件WR5的基准工件形状类似,从而从***存储器74读出基准工件WR5的图形数据。然后,CPU 72进入图13中的步骤S23。
这样,在本实施方式中,CPU 72承担作为判定由形状获取部114接收到的工件W3的形状是否与基准工件WR3、WR4、WR5或WR6的基准工件形状类似的类似判定部117(图11)的功能。
在此,CPU 72按照预先决定的规则判定为检测出的工件W3与基准工件WR3、WR4、WR5或WR6类似。本实施方式所涉及的预先决定的规则是指在使用数式2计算出的差异度δ为阈值α以下时判定为工件的形状与基准工件形状类似的规则。
在结束了步骤S33时,CPU 72生成用户能够选择作业的作业输入画面的图像数据,并显示于显示部80。此时,在显示部80所显示的图像中示出能够选择图12所示的3个种类的作业:“把持”、“点焊”、或“电弧焊”的图像。
用户能够视觉识别显示部80所显示的作业输入画面并对输入部82进行操作来选择“把持”、“点焊”或“电弧焊”。这样,在本实施方式中,输入部82作为用于接收作业种类的输入的作业输入部116(图11)发挥功能。
输入部82将用户输入的作业输入数据发送到I/O接口78。I/O接口78从输入部82接收作业输入数据,CPU 72将接收到的作业输入数据存储于工件存储器76。
再次参照图13,在步骤S23中,CPU 72判定是否接收了作业的输入。具体地说,CPU72判定I/O接口78是否从输入部82接收到作业输入数据。
CPU 72在判定为I/O接口78接收到作业输入数据(即,是)的情况下,进入步骤S24。另一方面,CPU 72在判定为I/O接口78没有接收到作业输入数据(即,否)的情况下,反复进行步骤S23。
在步骤S24中,CPU 72决定工件W3上的与在步骤S33中判定为类似的基准工件WR5上的基准作业位置对应的作业位置。例如,设为在步骤S23中接收“点焊”作业的选择。
在该情况下,CPU 72将在步骤S33中判定为与工件W3类似的基准工件WR5的在坐标系C3(图18)中的坐标以及工件W3的在坐标系C3中的坐标代入到上述的数式1,求出工件W3上的与图12中的基本动作模式144中所包含的作业位置F1~F3分别对应的作业位置F1’~F3’。
在图19中示出像这样求出的作业位置F1’~F3’。这样,在本实施方式中,CPU 72承担作为用于决定工件W3上的与基准工件WR5上的作业位置F1~F3对应的作业位置F1’~F3’的位置决定部118(图11)的功能。
在步骤S25中,CPU 72生成动作轨迹。具体地说,CPU 72将基本动作模式144中所包含的基准作业位置F1~F3的信息(机器人坐标系CR的坐标)变更为在步骤S24中所决定的作业位置F1’~F3’(机器人坐标系CR的坐标)。
另外,在执行步骤S7之后执行该步骤S25的情况下,CPU 72将基本动作模式144中所包含的基准顺序(例如,F1→F2→F3)变更为在步骤S7中所决定的顺序(例如,F3→F2→F1)。另一方面,在步骤S6中判定为否之后执行该步骤S25的情况下,CPU 72维持基本动作模式144中所包含的基准顺序的设定。
通过这样,CPU 72自动地生成使机器人34以用户所指定的顺序或基准顺序对作业位置F1’~F3’执行在步骤S23中从用户接收到的作业时的该机器人34的动作轨迹。
这样,在本实施方式中,CPU 72承担作为生成使机器人34对作业位置F1’~F3’执行作业时的动作轨迹的轨迹生成部120(图11)的功能。
在步骤S10中判定为否的情况下,在步骤S27中,CPU 72接收用于对在步骤S9中正显示的动作轨迹进行修正的输入。具体地说,CPU 72生成用于使用户能够变更在步骤S9中显示于显示部80的动作轨迹的修正输入画面的图像数据,并显示于显示部80。
用户视觉识别显示部80所显示的修正输入画面并对输入部82进行操作来修正动作轨迹。CPU 72经由I/O接口78来从输入部82接收修正输入数据,根据该修正输入数据来修正动作轨迹。
另一方面,在图14中的步骤S39中判定为否的情况下,在步骤S26中,CPU 72显示警告。例如,CPU 72生成表示“检测出的工件的形状与任一种基准工件形状都不类似”的警告的警告图像数据。然后,CPU 72将所生成的警告图像数据显示于显示部80。
或者,CPU 72也可以以声音信号的方式生成警告信号,通过设置于装置110的扬声器(未图示)来将警告输出为声音。
根据本实施方式,无需再次对机器人34进行示教,能够利用基本动作模式144自动地构建由机器人34对工件W3进行作业时的该机器人34的动作轨迹。根据该结构,能够削减机器人34的再次示教所施加的负担,因此能够使生产线的效率提高。
另外,在本实施方式中,装置110具备能够检测工件的形状的视觉传感器112。根据该结构,即使是关于形状未知的工件W3,也能够求出与作业位置F1~F3对应的作业位置F1’~F3’。
另外,在本实施方式中,CPU 72计算差异度δ,基于该差异度δ判定工件W3与基准工件WR3、WR4、WR5、WR6的类似性。根据该结构,能够更高精度且自动地判定工件W3与基准工件WR3、WR4、WR5、WR6的类似性。
此外,也能够使用用于判定检测出的工件W3与基准工件WR3、WR4、WR5、WR6的类似性的其它参数来代替差异度δ。例如,也可以使用表示两个形状的类似程度的类似度。
该类似度是能够根据两个形状顶角(或边)的数量、顶角(或边)的角度、占有面积等通过规定的算法求出的参数,其值越大则意味着两个形状越类似。
因而,在使用类似度的情况下,CPU 72在图14中的步骤S31、S34、S36以及S38中计算类似度,在步骤S32、S35、S37以及S39中判定类似度是否为预先决定的阈值β以上。
CPU 72在判定为类似度为阈值β以上(即,是)的情况下,进入步骤S33,另一方面,在判定为类似度小于阈值β(即,否)的情况下,进入步骤S34、S36或S38。
此外,在图1所示的实施方式中,存储部22也可以内置于在装置10的外部设置的服务器。在图20中表示这样的实施方式。图20所示的***160具备多个装置10A、10B及10C以及服务器162。
装置10A、10B及10C与上述的装置10同样地各自具备形状获取部12、动作模式获取部14、类似判定部16、位置决定部18以及轨迹生成部20。装置10A、10B及10C各自与服务器162以能够经由通信网络164进行通信的方式连接。
保存基本动作模式24的存储部22被内置于服务器162。通信网络164例如是内部网等LAN或因特网。
作为一例,装置10A、10B及10C分别被设置在不同的工厂内。装置10A、10B及10C的动作模式获取部14通过通信网络164从服务器162下载来获取基本动作模式24。
然后,装置10A、10B及10C使用上述的方法来利用该基本动作模式24生成动作轨迹。根据该结构,在处于不同场所的多个工厂中,能够共享基本动作模式24。
此外,在上述的装置70、100或110中,也可以将基本动作模式保存于内置于上述的服务器162的存储部22,来代替将基本动作模式保存于***存储器74。在该情况下,I/O接口78能够与服务器162以能够经由通信网络164进行通信的方式连接。
另外,在上述的实施方式中,记述了在各个基准工件WR1、WR2、WR3、WR4、WR5以及WR6上设定了多个基准作业位置的情况。然而,不限于此,基准作业位置也可以是一个。
另外,上述的装置10、10A、10B、10C、70、100或110也可以被嵌入于机器人***30的机器人控制部32,还可以作为与机器人控制部32不同的要素来设置。
另外,在图9所示的流程中,CPU 72也可以在步骤S10中判定为否之后,执行图13中的步骤S27,接着返回到步骤S9。另外,也能够将上述的各种实施方式的特征进行组合。
以上,通过实施方式对本公开进行了说明,但是上述的实施方式并不是对权利要求书所涉及的技术方案进行限定。
Claims (8)
1.一种自动地生成机器人的动作轨迹的装置,其具备:
形状获取部,其获取成为机器人的作业对象的工件的形状;
动作模式获取部,其获取基本动作模式,该基本动作模式包含基准工件形状、该基准工件形状上的基准作业位置以及针对该基准作业位置的作业种类;
类似判定部,其判定由所述形状获取部获取到的所述工件的形状是否与所述基本动作模式中所包含的所述基准工件形状类似;
位置决定部,其基于由所述类似判定部判定为彼此类似的所述工件的形状和所述基准工件形状,来决定所述工件上的与所述基本动作模式中所包含的所述基准作业位置对应的作业位置;以及
轨迹生成部,其通过将所述基准作业位置变更为由所述位置决定部决定的所述作业位置,来生成用于所述机器人对所述作业位置执行所述基本动作模式中所包含的所述作业的动作轨迹。
2.根据权利要求1所述的装置,其特征在于,还具备:
形状输入部,其接收所述工件的形状的输入并向所述形状获取部发送;
视觉传感器,其检测所述工件的形状,将检测出的该工件的形状发送到所述形状获取部;或者
标记读取传感器,其读取记述有所述工件的形状的标记并发送到所述形状获取部。
3.根据权利要求1或2所述的装置,其特征在于,
所述基本动作模式包含多个所述基准作业位置,
所述位置决定部分别计算所述工件上的与多个所述基准作业位置对应的多个所述作业位置。
4.根据权利要求3所述的装置,其特征在于,
还具备顺序输入部,该顺序输入部接收对由所述位置决定部决定的多个所述作业位置执行所述作业的顺序的输入,
所述基本动作模式包含用于规定针对多个所述作业位置的所述作业的顺序的基准顺序,
所述轨迹生成部通过将多个所述基准作业位置变更为由所述位置决定部决定的多个所述作业位置、将所述基准顺序变更为由所述顺序输入部接收到的所述顺序,来生成用于所述机器人按照由所述顺序输入部接收到的所述顺序来对多个所述作业位置执行所述作业的所述动作轨迹。
5.根据权利要求1~4中的任一项所述的装置,其特征在于,
所述动作模式获取部获取多个种类的所述基本动作模式,该多个种类的所述基本动作模式分别包含具有互不相同的形状的多个种类的所述基准工件形状,
所述类似判定部按照预先决定的规则来判定所述工件的形状是否与所述多个种类的所述基准工件形状中的某一个类似,
所述轨迹生成部通过变更如下的所述基本动作模式中所包含的所述基准作业位置来生成所述动作轨迹,所述基本动作模式是所述多个种类的基本动作模式中的包含由所述类似判定部判定为类似的所述基准工件形状的基本动作模式。
6.根据权利要求1~4中的任一项所述的装置,其特征在于,
所述动作模式获取部获取多个种类的所述基本动作模式,该多个种类的所述基本动作模式分别包含互不相同的多个种类的所述作业,
所述装置还具备接收所述作业种类的输入的作业输入部,
所述轨迹生成部通过变更如下的所述基本动作模式中所包含的所述基准作业位置来生成所述动作轨迹,所述基本动作模式是所述多个种类的基本动作模式中的包含由所述作业输入部接收到的所述作业种类的基本动作模式。
7.一种***,具备:
根据权利要求1~6中的任一项所述的装置;以及
服务器,其与所述装置以能够经由通信网络进行通信的方式连接,
其中,所述基本动作模式被存储于所述服务器。
8.一种自动地生成机器人的动作轨迹的方法,包括:
获取成为机器人的作业对象的工件的形状;
获取基本动作模式,该基本动作模式包含基准工件形状、该基准工件形状上的基准作业位置以及针对该基准作业位置的作业种类;
判定获取到的所述工件的形状是否与所述基本动作模式中所包含的所述基准工件形状类似;
根据判定为彼此类似的所述工件的形状和所述基准工件形状,来决定所述工件上的与所述基本动作模式中所包含的所述基准作业位置对应的作业位置;以及
通过将所述基准作业位置变更为所决定的所述作业位置,来生成用于所述机器人对所述作业位置执行所述基本动作模式中所包含的所述作业的动作轨迹。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017077711A JP6680720B2 (ja) | 2017-04-10 | 2017-04-10 | ロボットの動作軌跡を自動で生成する装置、システム、および方法 |
JP2017-077711 | 2017-04-10 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN108687770A true CN108687770A (zh) | 2018-10-23 |
CN108687770B CN108687770B (zh) | 2022-01-11 |
Family
ID=63588156
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201810312084.0A Active CN108687770B (zh) | 2017-04-10 | 2018-04-09 | 自动地生成机器人的动作轨迹的装置、***以及方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10814485B2 (zh) |
JP (1) | JP6680720B2 (zh) |
CN (1) | CN108687770B (zh) |
DE (1) | DE102018107857A1 (zh) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109822568A (zh) * | 2019-01-30 | 2019-05-31 | 北京镁伽机器人科技有限公司 | 机器人控制方法、***及存储介质 |
CN111993410A (zh) * | 2019-05-27 | 2020-11-27 | 发那科株式会社 | 控制装置、机械***以及时刻同步方法 |
CN114025928A (zh) * | 2019-06-27 | 2022-02-08 | 松下知识产权经营株式会社 | 末端执行器的控制***以及末端执行器的控制方法 |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6826069B2 (ja) | 2018-04-18 | 2021-02-03 | ファナック株式会社 | ロボットの動作教示装置、ロボットシステムおよびロボット制御装置 |
CN111152229B (zh) * | 2020-02-24 | 2023-08-25 | 群滨智造科技(苏州)有限公司 | 3d机械视觉的机械手引导方法和装置 |
US11945117B2 (en) | 2021-03-10 | 2024-04-02 | Samsung Electronics Co., Ltd. | Anticipating user and object poses through task-based extrapolation for robot-human collision avoidance |
US20220288777A1 (en) * | 2021-03-10 | 2022-09-15 | Samsung Electronics Company, Ltd. | Parameterized Waypoint Generation on Dynamically Parented Non-Static Objects for Robotic Autonomous Tasks |
US11833691B2 (en) | 2021-03-30 | 2023-12-05 | Samsung Electronics Co., Ltd. | Hybrid robotic motion planning system using machine learning and parametric trajectories |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07311613A (ja) * | 1994-05-18 | 1995-11-28 | Fanuc Ltd | ロボット動作プログラミング方法及びプログラミング装置 |
JPH0890232A (ja) * | 1994-09-16 | 1996-04-09 | Komatsu Ltd | 作業ロボットの作業プログラム作成装置 |
JP2004243215A (ja) * | 2003-02-13 | 2004-09-02 | Suzuki Motor Corp | シーラー塗布装置のロボットティーチング方法及びシーラー塗布装置 |
CN1868690A (zh) * | 2005-05-27 | 2006-11-29 | 发那科株式会社 | 用于修正示教点的装置、程序、记录介质及方法 |
US20070083291A1 (en) * | 2005-10-12 | 2007-04-12 | Fanuc Ltd | Offline teaching apparatus for robot |
JP2009172608A (ja) * | 2008-01-21 | 2009-08-06 | Toyota Auto Body Co Ltd | 溶接検査方法、溶接検査装置、溶接検査プログラム |
DE102010015031A1 (de) * | 2010-04-15 | 2010-11-04 | Daimler Ag | Verfahren und Vorrichtung zur lagegenauen Durchführung eines Bearbeitungsprozesses an einer Kraftfahrzeugkomponente |
CN104203503A (zh) * | 2012-04-02 | 2014-12-10 | 株式会社安川电机 | 机器人***及作业设备 |
CN104570940A (zh) * | 2013-10-24 | 2015-04-29 | 鸿富锦精密工业(深圳)有限公司 | Cnc加工调机***及方法 |
JP2016110536A (ja) * | 2014-12-10 | 2016-06-20 | カシオ計算機株式会社 | 商品処理システム及び商品処理方法 |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH09244724A (ja) * | 1996-03-11 | 1997-09-19 | Asahi Sanac Kk | ロボットの動作プログラム作成方法及びその作成装置 |
JP2000075910A (ja) * | 1998-09-01 | 2000-03-14 | Sekisui Chem Co Ltd | 類似形状ワークのロボットプログラム作成装置 |
JP2005138223A (ja) * | 2003-11-06 | 2005-06-02 | Fanuc Ltd | ロボット用位置データ修正装置 |
JP2006343975A (ja) * | 2005-06-08 | 2006-12-21 | Mitsubishi Heavy Ind Ltd | ロボット教示装置 |
JP4221014B2 (ja) * | 2006-06-20 | 2009-02-12 | ファナック株式会社 | ロボット制御装置 |
JP5164811B2 (ja) * | 2008-11-26 | 2013-03-21 | キヤノン株式会社 | 作業システム及び情報処理方法 |
JP5509645B2 (ja) * | 2009-03-25 | 2014-06-04 | 富士ゼロックス株式会社 | 位置・姿勢認識方法、部品把持方法、部品配置方法、部品組立方法、位置・姿勢認識装置、部品把持装置、部品配置装置、および部品組立装置 |
US8319831B2 (en) * | 2009-03-25 | 2012-11-27 | Fuji Xerox Co., Ltd. | Component manipulating method, component extracting method, component assembling method, component manipulating apparatus, component extracting apparatus, and component assembling apparatus |
JP2011209064A (ja) * | 2010-03-29 | 2011-10-20 | Fuji Xerox Co Ltd | 物品認識装置及びこれを用いた物品処理装置 |
JP5715809B2 (ja) * | 2010-03-29 | 2015-05-13 | 株式会社ダイヘン | ロボットの作業プログラム作成方法、ロボットの作業プログラム作成装置、及びロボット制御システム |
EP2585975B1 (en) * | 2010-06-28 | 2018-03-21 | Precitec GmbH & Co. KG | A method for classifying a multitude of images recorded by a camera observing a processing area and laser material processing head using the same |
JP2012091304A (ja) * | 2010-10-29 | 2012-05-17 | Honda Motor Co Ltd | ティーチングデータ作成方法およびティーチングデータ作成装置 |
TWI408037B (zh) * | 2010-12-03 | 2013-09-11 | Ind Tech Res Inst | 機械手臂的定位方法及校正方法 |
US8886359B2 (en) * | 2011-05-17 | 2014-11-11 | Fanuc Corporation | Robot and spot welding robot with learning control function |
CN103889650B (zh) * | 2011-11-16 | 2017-05-24 | 日产自动车株式会社 | 接合体的制造方法及其制造装置 |
JP6022393B2 (ja) * | 2013-03-28 | 2016-11-09 | 株式会社神戸製鋼所 | 溶接線情報設定装置、プログラム、自動教示システム、および溶接線情報設定方法 |
JP5850962B2 (ja) * | 2014-02-13 | 2016-02-03 | ファナック株式会社 | ビジュアルフィードバックを利用したロボットシステム |
EP3329433A1 (en) * | 2015-07-29 | 2018-06-06 | Illinois Tool Works Inc. | System and method to facilitate welding software as a service |
JP6126174B2 (ja) * | 2015-07-31 | 2017-05-10 | ファナック株式会社 | 機械学習装置、アーク溶接制御装置、アーク溶接ロボットシステムおよび溶接システム |
-
2017
- 2017-04-10 JP JP2017077711A patent/JP6680720B2/ja active Active
-
2018
- 2018-04-03 DE DE102018107857.9A patent/DE102018107857A1/de active Pending
- 2018-04-06 US US15/947,281 patent/US10814485B2/en active Active
- 2018-04-09 CN CN201810312084.0A patent/CN108687770B/zh active Active
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH07311613A (ja) * | 1994-05-18 | 1995-11-28 | Fanuc Ltd | ロボット動作プログラミング方法及びプログラミング装置 |
JPH0890232A (ja) * | 1994-09-16 | 1996-04-09 | Komatsu Ltd | 作業ロボットの作業プログラム作成装置 |
JP2004243215A (ja) * | 2003-02-13 | 2004-09-02 | Suzuki Motor Corp | シーラー塗布装置のロボットティーチング方法及びシーラー塗布装置 |
CN1868690A (zh) * | 2005-05-27 | 2006-11-29 | 发那科株式会社 | 用于修正示教点的装置、程序、记录介质及方法 |
US20070083291A1 (en) * | 2005-10-12 | 2007-04-12 | Fanuc Ltd | Offline teaching apparatus for robot |
JP2009172608A (ja) * | 2008-01-21 | 2009-08-06 | Toyota Auto Body Co Ltd | 溶接検査方法、溶接検査装置、溶接検査プログラム |
DE102010015031A1 (de) * | 2010-04-15 | 2010-11-04 | Daimler Ag | Verfahren und Vorrichtung zur lagegenauen Durchführung eines Bearbeitungsprozesses an einer Kraftfahrzeugkomponente |
CN104203503A (zh) * | 2012-04-02 | 2014-12-10 | 株式会社安川电机 | 机器人***及作业设备 |
CN104570940A (zh) * | 2013-10-24 | 2015-04-29 | 鸿富锦精密工业(深圳)有限公司 | Cnc加工调机***及方法 |
JP2016110536A (ja) * | 2014-12-10 | 2016-06-20 | カシオ計算機株式会社 | 商品処理システム及び商品処理方法 |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN109822568A (zh) * | 2019-01-30 | 2019-05-31 | 北京镁伽机器人科技有限公司 | 机器人控制方法、***及存储介质 |
CN111993410A (zh) * | 2019-05-27 | 2020-11-27 | 发那科株式会社 | 控制装置、机械***以及时刻同步方法 |
CN114025928A (zh) * | 2019-06-27 | 2022-02-08 | 松下知识产权经营株式会社 | 末端执行器的控制***以及末端执行器的控制方法 |
Also Published As
Publication number | Publication date |
---|---|
DE102018107857A1 (de) | 2018-10-11 |
US20180290302A1 (en) | 2018-10-11 |
CN108687770B (zh) | 2022-01-11 |
JP2018176332A (ja) | 2018-11-15 |
JP6680720B2 (ja) | 2020-04-15 |
US10814485B2 (en) | 2020-10-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108687770A (zh) | 自动地生成机器人的动作轨迹的装置、***以及方法 | |
CN110977931B (zh) | 使用了增强现实和混合现实的机器人控制装置及显示装置 | |
CN104936748B (zh) | 徒手机器人路径教导 | |
CN110394780B (zh) | 机器人的仿真装置 | |
CN106873549B (zh) | 模拟装置以及模拟方法 | |
EP1709519B1 (en) | A virtual control panel | |
US20080013825A1 (en) | Simulation device of robot system | |
CN104589354B (zh) | 机器人控制装置、机器人***以及机器人 | |
Pai et al. | Augmented reality–based programming, planning and simulation of a robotic work cell | |
US20160346921A1 (en) | Portable apparatus for controlling robot and method thereof | |
EP3354418B1 (en) | Robot control method and device | |
CN108572625B (zh) | 机床的控制*** | |
US20190193268A1 (en) | Robotic arm processing system and method, and non-transitory computer-readable storage medium therefor | |
JP2018183845A (ja) | ロボットを操作するための操作装置、ロボットシステム、および操作方法 | |
US20180345490A1 (en) | Robot system displaying information for teaching robot | |
CN106514667A (zh) | 基于Kinect骨骼追踪和无标定视觉伺服的人机协作*** | |
KR101471852B1 (ko) | 스마트장치, 로봇정보 제공장치, 로봇 궤적 생성 방법 및 로봇 작업교시 방법 | |
CN114730177A (zh) | 用于将信息与工件数据组关联的方法和平面工具机 | |
CN109116807A (zh) | 复合现实模拟装置以及计算机可读介质 | |
JP6905651B1 (ja) | ロボットシステム及びワークの3次元モデルの形成方法 | |
Pajor et al. | Kinect sensor implementation in FANUC robot manipulation | |
Rückert et al. | Calibration of a modular assembly system for personalized and adaptive human robot collaboration | |
WO2016147834A1 (ja) | 工作機械 | |
US11518025B2 (en) | Robot teaching device, robot teaching method, and method of storing operation instruction | |
CN106041966A (zh) | 机器人示教动作控制方法和装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |