CN113840697A - 控制装置、控制***、机械装置***以及控制方法 - Google Patents

控制装置、控制***、机械装置***以及控制方法 Download PDF

Info

Publication number
CN113840697A
CN113840697A CN202080036398.8A CN202080036398A CN113840697A CN 113840697 A CN113840697 A CN 113840697A CN 202080036398 A CN202080036398 A CN 202080036398A CN 113840697 A CN113840697 A CN 113840697A
Authority
CN
China
Prior art keywords
information
unit
data
command
correction
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080036398.8A
Other languages
English (en)
Inventor
长谷川省吾
吉田哲也
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kawasaki Motors Ltd
Original Assignee
Kawasaki Jukogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kawasaki Jukogyo KK filed Critical Kawasaki Jukogyo KK
Publication of CN113840697A publication Critical patent/CN113840697A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • B25J9/161Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/087Controls for manipulators by means of sensing devices, e.g. viewing or touching devices for sensing other physical parameters, e.g. electrical or chemical properties
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • B25J13/088Controls for manipulators by means of sensing devices, e.g. viewing or touching devices with position, velocity or acceleration sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J3/00Manipulators of master-slave type, i.e. both controlling unit and controlled unit perform corresponding spatial movements
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1602Programme controls characterised by the control system, structure, architecture
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/1651Programme controls characterised by the control loop acceleration, rate control
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/409Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by using manual data input [MDI] or by using control panel, e.g. controlling functions with the panel; characterised by control panel details or by setting parameters
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/42Recording and playback systems, i.e. in which the programme is recorded from a cycle of operations, e.g. the cycle of operations being manually controlled, after which this record is played back on the same machine
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39271Ann artificial neural network, ffw-nn, feedforward neural network
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39443Portable, adapted to handpalm, with joystick, function keys, display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • Automation & Control Theory (AREA)
  • Software Systems (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Evolutionary Computation (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Fuzzy Systems (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Manufacturing & Machinery (AREA)
  • Molecular Biology (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Manipulator (AREA)

Abstract

机械装置(10)的控制装置(30)包括:动作控制部(32),根据用于使所述机械装置动作的动作指令,控制所述机械装置的动作;修正控制部(33),根据从所述机械装置的操作装置(20)输出的操作信息,修正所述机械装置的动作;存储部(38,39),存储表示所述机械装置的动作的第一动作信息、和表示由所述修正控制部进行的修正的修正信息;以及学习部(36),使用所述第一动作信息和与所述第一动作信息对应的所述修正信息进行机器学习,将所述第一动作信息作为输入数据且将与所述第一动作信息对应的指令作为输出数据,所述动作控制部根据基于所述学习部的所述指令的所述动作指令,控制所述机械装置的动作,所述操作装置输出基于表示所述操作装置的动作的第二动作信息的所述操作信息。

Description

控制装置、控制***、机械装置***以及控制方法
技术领域
本发明涉及控制装置、控制***、机械装置***以及控制方法。
背景技术
以往,公知有使包括神经网络等的机器学习模型对人所进行的作业进行机器学习,并使用通过使用该机器学习模型而被控制的机械装置,从而使人的作业自动化的技术。例如,专利文献1公开了使用神经网络来控制机器人照相机的机器人照相机控制装置。机器人照相机控制装置具备机器人照相机、检测被拍摄体的位置的被拍摄体检测装置、机器人照相机的操作器、具有神经网络且控制机器人照相机的拍摄动作的学习控制装置。机器人照相机根据对操作器的操作来拍摄被拍摄体,将表示其拍摄动作的状态的状态数据输出至学习控制装置。学习控制装置使用由被拍摄体检测装置检测到的被拍摄体的位置数据,使神经网络对状态数据进行学习。在自动控制时,学习控制装置将输入被拍摄体的位置数据而得到的神经网络的输出用于机器人照相机的控制。
专利文献1:日本特开2009-211294号公报
在专利文献1所记载的技术中,在自动控制时仅由神经网络控制机器人照相机,因此为了提高其拍摄的品质,需要提高神经网络的精度。并且,机器人照相机的拍摄动作的状态根据被拍摄体的位置而变化,但被拍摄体的位置无限地存在。因此,神经网络的学习需要庞大的学习用数据。由此,难以在短期内实现由使用了机器学习的机器人照相机进行的拍摄的自动化。
发明内容
本公开的目的在于提供一种可以缩短机器学习所需要的时间的控制装置、控制***、机械装置***以及控制方法。
为了实现上述目的,本公开的一个方式所涉及的控制装置是机械装置的控制装置,包括:动作控制部,根据用于使上述机械装置动作的动作指令,控制上述机械装置的动作;修正控制部,根据从用于操作上述机械装置的操作装置输出的操作信息,修正上述机械装置的动作;存储部,存储表示上述机械装置的动作的第一动作信息、和表示由上述修正控制部进行的修正的修正信息;以及学习部,使用上述第一动作信息和与上述第一动作信息对应的上述修正信息进行机器学习,将上述第一动作信息作为输入数据且将与上述第一动作信息对应的指令作为输出数据,上述动作控制部根据基于上述学习部的上述指令的上述动作指令,控制上述机械装置的动作,上述操作装置输出基于表示上述操作装置的动作的第二动作信息的上述操作信息。
另外,本公开的一个方式所涉及的控制***具备:本公开的一个方式所涉及的控制装置;和上述操作装置,用于操作上述机械装置。
另外,本公开的一个方式所涉及的机械装置***具备:本公开的一个方式所涉及的控制装置;上述机械装置;以及上述操作装置,用于操作上述机械装置。
另外,本公开的一个方式所涉及的控制方法根据用于使机械装置动作的动作指令,使上述机械装置动作,根据从用于操作上述机械装置的操作装置输出的操作信息,修正上述机械装置的动作,取得表示上述机械装置的动作的第一动作信息、和表示上述机械装置的动作的修正的修正信息,使用上述第一动作信息和与上述第一动作信息对应的上述修正信息,使学习模型进行机器学习,向上述学习模型输入上述第一动作信息,并使其输出与上述第一动作信息对应的指令,根据基于上述学习模型的上述指令的上述动作指令,使上述机械装置动作,上述操作信息是基于表示上述操作装置的动作的第二动作信息的信息。
根据本公开的技术,能够缩短机器学习所需要的时间。
附图说明
图1是表示实施方式所涉及的机械装置***的结构的一个例子的功能框图。
图2是表示神经网络的模型的一个例子的图。
图3是表示神经网络的模型的另一例子的图。
图4是表示实施方式所涉及的学习部的结构的一个例子的功能框图。
图5是表示实施方式所涉及的机械装置***的动作的一个例子的流程图。
图6是表示变形例所涉及的机械装置***的结构的一个例子的功能框图。
图7是表示变形例所涉及的机器人的结构的一个例子的侧视图。
图8是表示变形例所涉及的操作装置的外观的一个例子的图。
图9是表示变形例所涉及的操作装置的结构的一个例子的功能框图。
图10是表示变形例所涉及的学习部的结构的一个例子的功能框图。
具体实施方式
以下,参照附图,对本公开的实施方式进行说明。此外,以下说明的实施方式均是表示综合性的或者具体性的例子的实施方式。另外,关于以下的实施方式中的构成要素中的、未记载于表示最上位概念的独立权利要求的构成要素,作为任意的构成要素进行说明。另外,附图中的各图是示意性的图,并非一定准确地图示的图。并且,在各图中,存在对实质上相同的构成要素标注相同的附图标记,省略或简化重复的说明的情况。另外,在本说明书及权利要求书中,“装置”不仅能够意味着一个装置,也可以意味着由多个装置构成的***。
(实施方式)
对实施方式所涉及的机械装置***1进行说明。图1是表示实施方式所涉及的机械装置***1的结构的一个例子的功能框图。在图1中,实线的箭头表示用于使机械装置10动作的指令、数据以及信息等的流动,点划线的箭头表示用于使学习部36学习的指令、数据以及信息等的流动。这一点在以下的功能框图中均相同。
[1-1.结构]
[1-1-1.机械装置***]
如图1所示,实施方式所涉及的机械装置***1具备机械装置10、操作装置20、控制装置30、动作信息检测装置50以及输出装置60。机械装置10具备:作用部11,对处理的对象物施加作用;和动作部12,移动作用部11以执行该作用的方式。操作装置20及控制装置30构成用于控制机械装置10的控制***100。
操作装置20是用于操作机械装置10的装置,将输入至操作装置20的信息亦即操作信息输出至控制装置30。控制装置30控制机械装置10整体的动作。动作信息检测装置50检测表示机械装置10的作用部11及动作部12的动作的动作信息,输出至控制装置30。例如,动作信息检测装置50也可以具备将作用部11的位置及姿势、作用部11向对象物施加的力、对象物的图像、作用部11处的振动、冲击、光、声、温度、湿度以及气压等信息作为动作信息进行检测的各种传感器。控制装置30为了动作的状态的反馈及提示,将动作信息输出至操作装置20及输出装置60。输出装置60将动作信息变换为视觉上及听觉上等的信息,向操作装置20的操作者提示。例如,也可以照相机等拍摄装置配置于从机械装置10远离的位置,控制装置30将由该拍摄装置拍摄到的图像输出至输出装置60。这样的输出装置60能够向操作者提示机械装置10的状态。输出装置60的例子是液晶显示器(Liquid Crystal Display)以及有机或无机EL显示器(Electro-Luminescence Display),但并不限定于这些。输出装置60也可以具备发出声音的扬声器。
虽不限定于此,但在本实施方式中,机械装置***1能够使机械装置10执行手动运转模式下的动作和自动运转模式下的动作。本实施方式中的手动运转模式及自动运转模式设为不包括教机械装置10作业等动作的教示(也被称为“示教”)动作。在手动运转模式下,机械装置10执行遵从由操作者输入至操作装置20的操作的动作,即、追迹该操作的动作。机械装置10由操作者手动运转。
在自动运转模式下,机械装置10执行遵从预先设定的规定动作进行的动作。机械装置10进行根据其控制程序自动地执行规定动作的自动运转。规定动作可以是水平移动、铅垂移动以及旋转等单个动作,也可以是根据执行顺序组合了一系列的多个单个动作的复合动作。此外,单个动作可以包括一个动作,也可以包括两个以上的动作。复合动作的例子是用作用部11保持对象物并移动、用作用部11切断对象物、用作用部11将两个以上的对象物接合、用作用部11挖掘等作业。在本实施方式中,机械装置***1在自动运转中能够接受使用了操作装置20的作用部11及动作部12的动作的修正。机械装置***1施加与输入至操作装置20的操作对应的修正动作,从而修正作用部11及动作部12的动作。另外,自动运转模式也可以以复合动作的一部分被手动运转的方式,组合地包括自动运转和手动运转。
[1-1-2.机械装置]
如图1所示,机械装置10只要是借助动力进行动作的装置即可。作为机械装置10,例如可以例示工程机械、隧道挖掘机、起重机、装卸搬运车以及工业用等各种用途的机器人等。例如,在机械装置10是工程机械的反铲的情况下,反铲的铲与作用部11对应,臂与动作部12对应。控制装置30控制使臂动作的液压装置等。在机械装置10是隧道挖掘机的情况下,隧道挖掘机的掘削刀刃与作用部11对应,使掘削刀刃工作的工作装置与动作部12对应。控制装置30控制工作装置等的动作。在机械装置10是装卸搬运车的情况下,装卸搬运车的装卸装置的叉齿等载置部或把持部等与作用部11对应,装卸装置以及搬运台车的驱动装置与动作部12对应。控制装置30控制装卸装置以及搬运台车的驱动装置等的动作。在机械装置10是工业用机器人的情况下,机器人的机器人臂与动作部12对应,机器人臂的前端的末端执行器与作用部11对应。控制装置30控制机器人臂以及末端执行器的驱动装置等的动作。动力的种类可以是任何种类。动力的种类的例子是电动机、内燃机、水蒸气、液压以及气压等。控制的种类可以是任何种类。控制的种类的例子是电气控制、油压控制、液压控制以及气压控制等。
[1-1-3.操作装置]
如图1所示,操作装置20将由操作者进行的输入变换为与该输入对应的信息,作为操作信息输出至控制装置30。例如,操作装置20将由操作者进行的输入变换为与该输入对应的信号,并输出至控制装置30。在本实施方式中,操作装置20并不固定于机械装置10等其他的物体,而构成为在三维空间内在任意方向上移动自如。此外,操作装置20也可以构成为在二维平面上或者一维直线上在任意方向上移动自如。操作装置20构成为能够由操作者的手把持。因此,操作者能够使正在把持的操作装置20在任意方向上移动,任意姿势地定向。操作装置20构成为经由有线通信或者无线通信而与控制装置30进行通信。不论有线通信及无线通信的种类,可以是任何通信。
虽不限定于此,但操作装置20例如可以是与家庭用游戏机的游戏控制器、遥控器或者智能电话等通用装置相同的结构的装置,也可以是专用装置。例如,在机械装置10是工业用机器人的情况下,专用装置可以是与末端执行器的功能对应的装置。在末端执行器是涂装用的喷枪的情况下,操作装置20可以是枪(***)状的装置。
在本实施方式中,操作装置20包括惯性计测装置(IMU:Inertial MeasurementUnit)(未图示)。惯性计测装置包括三轴加速度传感器以及三轴角速度传感器,操作装置20将基于由惯性计测装置计测到的三个轴向的加速度以及角速度的计测数据的操作信息输出至控制装置30。此外,操作装置20也可以将计测数据本身输出至控制装置30。借助三个轴向的加速度以及角速度的计测数据,能够检测位置、姿势、移动、移动速度、加速度以及力等表示操作装置20的动作及作用力的各种信息。这样的操作装置20输出基于表示操作装置20的动作的信息亦即操作动作信息的操作信息。
并且,在本实施方式中,操作装置20包括将根据操作信息进行动作的机械装置10的动作状态的反馈作为触觉给予操作者的触觉设备(未图示)。触觉设备经由控制装置30而从动作信息检测装置50接受机械装置10的动作信息,将基于该动作信息的机械装置10的动作状态的反馈作为触觉给予操作者。
这里,动作信息包含动作数据。动作数据包含表示机械装置10的作用部11向对象物施加的力、即作用于作业环境的力的力数据、和表示动作时的作用部11的位置的位置数据中的至少一个。在本实施方式中,动作数据包含两者。力数据也可以是将力的大小与产生该力的时刻建立关联并包含的时间序列数据。位置数据也可以是将位置的信息与该位置的时刻建立关联并包含的时间序列数据。包含力数据及位置数据的动作数据也可以是将力的大小、产生该力的时刻、位置的信息以及该位置的时刻建立关联并包含的时间序列数据。作用部11的位置不仅是三维空间内的作用部11的位置,也可以包含三维空间内的作用部11的姿势。在本说明书及权利要求书中,“位置”意味着包含三维空间内的位置以及三维空间内的姿势中的至少三维空间内的位置。
动作信息包含动作数据作为必须的信息的理由是因为,控制装置30对使作用部11作用于作业环境的“力”以及动作时的作用部11的“位置”中的至少一个进行控制,从而控制机械装置10的动作。本实施方式中的“动作指令”包含指示该“力”的目标值或修正值(补正值)的指令亦即力指令、和指示该“位置”的目标值或修正值(补正值)的指令亦即位置指令中的至少一个。
另外,动作信息也可以包含作用部11施加作用的对象物的拍摄图像数据、作用部11处产生的振动数据、冲击数据、光数据、声数据、温度数据、湿度数据、气压等压力数据等,作为动作数据以外的信息。向操作装置20,发送动作信息中的至少动作数据。
例如,触觉设备包括致动器、控制器以及驱动器等。致动器通过偏心马达、线性共振致动器以及压电元件等例示,给予操作者触觉。控制器也可以经由驱动器而控制致动器,具有与在后述中例示的控制装置30的结构相同的结构。驱动器构成致动器与控制器之间的接口。触觉设备的详细结构在日本专利第4111278号公报及日本特开2019-60835号公报等中公开,是公知的,因此省略其详细的说明。例如,触觉设备能够在操作者正在空中把持操作装置20的状态下给予操作者触觉,这样的触觉的例子是操作者自己按压的感觉、自己拉动的感觉、从外部被拉动的感觉、从外部被按压的感觉、膨胀感、压迫感、表示对象物的表面的粗度的质感、以及表示对象物的硬软的压觉等。
[1-1-4.控制装置]
图1所示的控制装置30例如由具有处理器及存储器等的运算器构成。存储器由易失性存储器及非易失性存储器等半导体存储器、硬盘(HDD:Hard Disc Drive)以及SSD(Solid State Drive)等存储装置构成。例如,运算器的功能也可以通过由CPU(CentralProcessing Unit)等处理器、RAM(Random Access Memory)等易失性存储器以及ROM(Read-Only Memory)等非易失性存储器等构成的计算机***(未图示)而实现。运算器的功能的一部分或全部也可以通过CPU使用RAM作为工作区域来执行记录于ROM的程序而实现。此外,运算器的功能的一部分或全部也可以通过上述计算机***而实现,也可以通过电子电路或集成电路等专用的硬件电路而实现,也可以通过上述计算机***及硬件电路的组合而实现。控制装置30可以通过由单一运算器进行的集中控制而执行各处理,也可以通过由多个运算器的配合进行的分散控制而执行各处理。
控制装置30例如可以由计算机及个人计算机等计算机装置构成。或者,控制装置30例如也可以由微型控制器、MPU(Micro Processing Unit)、LSI(Large ScaleIntegration:大规模集成电路)、***LSI、PLC(Programmable Logic Controller)、逻辑电路等构成。控制装置30的多个功能可以单个地通过单芯片化而实现,也可以以包含一部分或全部的方式通过单芯片化实现。另外,各个电路也可以是通用电路,也可以是专用电路。作为LSI,也可以利用能够在LSI制造后进行编程的FPGA(Field Programmable GateArray)、能够重建LSI内部的电路单元的连接以及/或者设定的可重构处理器、或者,面向特定用途将多个功能电路集中为一个的ASIC(Application Specific Integrated Circuit)等。
控制装置30包括动作决定部31、动作指令部32、修正指令部33、驱动指令部34、修正信息检测部35、学习部36、动作信息处理部37、第一存储部38、第二存储部39以及第三存储部40作为功能性的构成要素。动作决定部31、动作指令部32、修正指令部33、驱动指令部34、修正信息检测部35、学习部36以及动作信息处理部37是通过上述运算器的计算机***、硬件电路、或者计算机***及硬件电路的组合而实现的功能模块。第一存储部38、第二存储部39以及第三存储部40是通过上述运算器的存储装置而实现的功能模块。在本实施方式中,动作决定部31、动作指令部32、修正信息检测部35以及学习部36通常仅在自动运转模式下发挥功能,修正指令部33、驱动指令部34以及动作信息处理部37通常在自动运转模式及手动运转模式中的任一个下都发挥功能。
动作决定部31决定使机械装置10执行的规定动作,将该规定动作的动作信息(以下,也称为“决定动作信息”)输出至动作指令部32。动作决定部31经由操作装置20或机械装置***1的其他输入装置,接受使机械装置10执行的规定动作的指令。并且,动作决定部31从第三存储部40提取与接受到的规定动作对应的动作信息作为决定动作信息,输出至动作指令部32。使机械装置10执行的规定动作可以是单个动作,也可以是复合动作。
第三存储部40将机械装置10能够执行的规定动作、和该规定动作的动作信息建立关联并存储。规定动作的动作信息被预先设定并存储于第三存储部40。在复合动作的情况下,也可以设定单个动作各自的动作信息。例如,各单个动作的动作信息可以通过预先设定作用部11的力及位置的目标值而设定。或者,各单个动作的动作信息也可以通过使用在手动运转模式下经由操作装置20使机械装置10动作的结果所得到的动作信息来设定。或者,各单个动作的动作信息也可以通过使用在自动运转模式下实际使机械装置10动作的结果所得到的动作信息来设定。
动作指令部32使用由动作决定部31决定的决定动作信息,生成用于使机械装置10执行与该决定动作信息对应的动作的动作指令(以下,也称为“执行动作指令”),输出至修正指令部33。另外,动作指令部32构成为从学习部36接受输出数据。该输出数据是学习部36被输入机械装置10的动作信息作为输入数据而输出的指令(以下,也称为“执行动作修正指令”)。虽不限定于此,但在本实施方式中,执行动作修正指令是动作指令。动作指令部32在从学习部36接受到执行动作修正指令的情况下,使用执行动作修正指令修正用于执行决定动作信息的动作指令(以下,也称为“决定动作指令”),从而生成执行动作指令。此时,动作指令部32在决定动作指令中加上与其对应的执行动作修正指令,或者,用与其对应的执行动作修正指令置换决定动作指令。在未接受到的情况下,动作指令部32将决定动作指令作为执行动作指令。此外,与决定动作指令对应的执行动作修正指令是将执行该决定动作指令的动作紧前的机械装置10的动作信息作为输入数据时的学习部36的输出数据。
修正指令部33根据从操作装置20输出的操作信息,修正从动作指令部32接受到的执行动作指令,从而生成修正后的动作指令亦即修正动作指令,输出至驱动指令部34。例如,对于修正指令部33而言,在自动运转模式中,若进行对操作装置20的输入,则修正执行动作指令而生成修正动作指令,在不存在对操作装置20的输入的情况下,将执行动作指令决定为修正动作指令。在执行动作指令修正时,修正指令部33生成用于使作用部11执行与操作信息对应的动作的动作指令(以下,也称为“操作动作指令”)。修正指令部33通过将执行动作指令和操作动作指令相加,而生成修正动作指令。修正动作指令是反映了操作信息的动作指令。另外,在手动运转模式中,若进行对操作装置20的输入,则修正指令部33生成根据与上述输入对应的操作信息的动作指令,输出至驱动指令部34。
在手动运转模式中,修正指令部33与自动运转模式相同地,生成与操作信息对应的操作动作指令。修正指令部33将操作动作指令作为动作指令输出至驱动指令部34。此外,在本实施方式中,修正指令部33从操作装置20接受操作信息并生成操作动作指令,但操作装置20也可以将操作信息输出至动作指令部32。而且,动作指令部32也可以将与操作信息对应的动作指令输出至修正指令部33。
驱动指令部34根据从修正指令部33接受的动作指令,控制机械装置10的动作。驱动指令部34以使作用部11进行与该动作指令对应的动作的方式,控制机械装置10的各驱动装置的动作。驱动指令部34为了执行上述动作而生成包含使驱动装置驱动的指令值的驱动数据,输出至各驱动装置。这里,动作指令部32及驱动指令部34构成动作控制部,修正指令部33及驱动指令部34构成修正控制部。
如上所述,在本实施方式中,能够将“指令”彼此相加或相减,并且,能够将“动作指令”及“动作数据”相互相加或相减。
动作信息处理部37从动作信息检测装置50接受机械装置10的动作信息,将该动作信息输出至学习部36、操作装置20以及输出装置60。此外,动作信息处理部37在自动运转模式下将动作信息输出至学习部36、操作装置20以及输出装置60,在手动运转模式下将动作信息输出至操作装置20及输出装置60,但并不限定于此。这里,动作信息处理部37是处理部的一个例子。
修正信息检测部35检测表示由修正指令部33进行的修正的修正信息,并使其存储于第二存储部39。具体而言,在由修正指令部33进行了执行动作指令的修正的情况下,修正信息检测部35检测由修正指令部33生成的修正动作指令作为修正信息。另外,在未由修正指令部33进行执行动作指令的修正的情况下,修正信息检测部35检测未修正的执行动作指令作为修正信息。修正信息检测部35也可以将修正动作指令或执行动作指令、和发出该动作指令的时刻亦即发令时刻建立关联,生成动作指令的时间序列数据。该情况下,修正信息检测部35也可以将该动作指令中包含的“力”的目标值及“位置”的目标值、和发令时刻建立关联,生成与动作数据相同的时间序列数据。
此外,修正信息检测部35也可以检测操作动作指令作为修正信息。例如,修正信息检测部35在进行了执行动作指令的修正的情况下,检测用于该修正的操作动作信息作为修正信息,在未进行执行动作指令的修正的情况下,也可以生成视为没有修正信息的指令的检测结果。
第一存储部38存储表示机械装置10的动作的动作信息。具体而言,第一存储部38存储从动作信息检测装置50接受的机械装置10的动作信息。在第一存储部38中,将动作信息、和由动作信息检测装置50检测到该动作信息的时刻建立关联并存储。
第二存储部39存储表示由修正指令部33进行的修正的修正信息。具体而言,第二存储部39存储从修正信息检测部35接受的修正信息。在第二存储部39中,将修正信息、和与该修正信息对应的动作指令的发令时刻建立关联并存储。
学习部36是进行机器学习的学习模型,使用学习数据进行学习,从而提高输出数据相对于输入数据的精度。作为这样的学习模型,可以例示Deep Learning(深度学习)等神经网络(Neural Network)、Random Forest、Genetic Programming、回归模型、树模型、贝叶斯模型、时间序列模型、聚类模型、集成学习模型等。在本实施方式中,学习模型是神经网络。
学习部36使用机械装置10的动作信息和与该动作信息对应的修正信息来进行机器学习。并且,机器学习后的学习部36将机械装置10的动作信息作为输入数据,将与该动作信息对应的指令作为输出数据。在本实施方式中,输出数据是执行动作修正指令。例如,在机器学习中,也可以将机械装置10的动作信息作为输入数据,将在该动作信息的状态时被执行的修正信息作为教示数据。此时,以使与输入数据对应的输出数据与教示数据一致的方式,调整后述的神经网络内的节点间的连接的权重。对于这样的权重调整后的学习部36而言,若输入机械装置10的动作信息,则能够输出在该动作信息的状态时应执行的执行动作修正指令。
神经网络是以脑神经***为模型的信息处理模型。神经网络由包括输入层及输出层的多个节点层构成。在节点层,包括一个以上的节点。例如,学习部36也可以由图2所示那样的神经网络构成。图2是表示神经网络的模型的一个例子的图。如图2所示,在神经网络由输入层、中间层以及输出层构成的情况下,神经网络对输入至输入层的节点的信息,依次进行从输入层向中间层的输出处理、从中间层向输出层的输出处理,输出与输入信息适合的输出结果。此外,一个层的各节点与下一个层的各节点连接,在节点间的连接中,进行了加权。一个层的节点的信息被赋予节点间的连接的权重,被输出至下一个层的节点。
另外,学习部36也可以由图3所示那样的循环神经网络(Recurrent NeuralNetwork)(也被称为“回归型神经网络”)构成。图3是表示神经网络的模型的另一例子的图。如图3所示,循环神经网络处理时间序列信息。循环神经网络的输入数据包含当前的时刻t时的数据、和比时刻t靠前的时刻t-1时的循环神经网络中的中间层的输出数据。这样,循环神经网络具有考虑了时间序列信息的网络构造。这样的循环神经网络进行考虑了动作信息的随时间的举动的输出,因此能够提高输出数据的精度。
对学习部36的结构的一个例子进行说明。图4是表示实施方式所涉及的学习部36的结构的一个例子的功能框图。如图4所示,学习部36包括神经网络36a、数据生成部36b、数据输入部36c、学习评价部36d。神经网络36a的结构是如上所述的结构。神经网络36a以如下方式处理时间序列数据,因此优选为循环神经网络。
在本例子中,在机械装置10执行一次规定动作的期间,以规定取样间隔取得各指令及各数据。例如,修正信息检测部35以该取样间隔取得作为修正信息的修正动作指令Pm的时间序列数据Pm0、Pm1、Pm2、···、Pmu(以下,简记为Pm0~Pmu)。动作信息检测装置50以该取样间隔取得机械装置10的动作数据Pd的时间序列数据Pd0、Pd1、Pd2、···、Pdu(以下,简记为Pd0~Pdu)。以下,各时间序列数据中的后缀的数字表示取样时刻(间歇性的时刻)的顺序。因此,该后缀的数字相同的时间序列数据意味着是在相同或实质上能够视为相同的取样时刻取得的数据。例如,机械装置10根据修正动作指令Pm的时间序列数据Pmi而执行的动作数据Pd的时间序列数据是时间序列数据Pdi。这样的后缀的数字相同的时间序列数据是相互对应的时间序列数据。
首先,对机器学习时的学习部36的各构成要素的处理进行说明。数据生成部36b根据存储于第一存储部38的动作数据Pd的时间序列数据Pd0~Pdu,生成学习数据pd的时间序列数据pd0~pdu。另外,数据生成部36b根据存储于第二存储部39的修正动作指令Pm的时间序列数据Pm0~Pmu,生成教示数据pn的时间序列数据pn0~pnu。数据生成部36b将生成的时间序列数据输出至数据输入部36c。
数据输入部36c将学习数据pd的时间序列数据pd0~pdu依次输入至神经网络36a的输入层的各神经元。例如,若数据输入部36c输入某个取样时刻ti的学习数据pd的时间序列数据pdi(i=0~u),则神经网络36a通过前向运算,预测下一个取样时刻ti+1的执行动作修正指令Pni+1并输出。
学习评价部36d基于执行动作修正指令Pni+1,探索教示数据pn的时间序列数据pn0~pnu,从而提取取样时刻ti+1的时间序列数据pni+1。并且,学习评价部36d在执行动作修正指令Pni+1与时间序列数据pni+1之间以使它们一致或使误差最小化等方式,通过反向运算,调节神经网络36a的神经元间的权重。并且,数据输入部36c及学习评价部36d对学习数据pd的时间序列数据pd0~pdu的全部进行上述那样的处理,从而使神经元间的权重最佳化。
接下来,对数据输入输出时的学习部36的各构成要素的处理进行说明。在机械装置10动作时,动作信息检测装置50检测当前的取样时刻ti的动作数据Pdi,经由动作信息处理部37而输出至学习部36。数据输入部36c将动作数据Pdi输入至神经网络36a。神经网络36a通过将动作数据Pdi作为输入数据,而将下一个取样时刻ti+1的执行动作修正指令Pni+1作为输出数据,输出至动作指令部32。动作指令部32生成反映了执行动作修正指令Pni+1的执行动作指令。这样,在各取样时刻ti(i=0~u-1),神经网络36a将取样时刻ti的动作数据Pdi作为输入数据而输出取样时刻ti+1的执行动作修正指令Pni+1,从而输出反映了该执行动作修正指令Pni+1的执行动作指令。
此外,神经网络36a也可以构成为输入取样时刻ti的动作数据Pdi、和取样时刻ti以前的取样时刻ti-1~ti-n(n为规定自然数)的动作数据Pdi-1~Pdi-n作为输入数据。该情况下,在机器学习时,关于取样时刻ti的学习数据pd,数据输入部36c将时间序列数据Pdi、Pdi-1~Pdi-n输入至神经网络36a,神经网络36a输出下一个取样时刻ti+1的执行动作修正指令Pni+1。关于执行动作修正指令Pni+1、和教示数据pn的时间序列数据pni+1,学习评价部36d调节神经网络36a的神经元间的权重。
另外,在数据输入输出时,关于取样时刻ti,神经网络36a将取样时刻ti、ti-1~ti-n的动作数据Pdi、Pdi-1~Pdi-n作为输入数据而输出取样时刻ti+1的执行动作修正指令Pni+1。这样的神经网络36a能够提高其学习效率及学习精度。这样的神经网络36a不仅基于当前时刻的瞬间的动作数据,也基于此前开始的一系列的动作数据,预测机械装置10的作用部11等的下一个运动,因此能够正确地预测。
此外,上述那样的神经网络36a以机械装置10能够执行的复合动作的种类为单位构建,一个神经网络36a可以构成为与一个种类的复合动作对应,一个神经网络36a也可以构成为与多个种类的复合动作对应。
[1-2.动作]
对实施方式所涉及的机械装置***1的动作进行说明。具体而言,对自动运转模式下的动作的一个例子进行说明。图5是表示实施方式所涉及的机械装置***1的动作的一个例子的流程图。并且,图5示出机械装置***1使机械装置10执行一个周期的规定动作的例子。在本例子中,机械装置***1作为使机械装置10自动地执行全部规定动作的***而进行说明。
如图5所示,首先,操作者在自动运转模式下将执行规定动作的指令输入至机械装置***1,控制装置30接受该指令(步骤S101)。该情况下,操作者可以经由操作装置20输入,也可以经由机械装置***1所具备的其他输入装置输入。此外,在本例子中,假设规定动作是复合动作。
接下来,控制装置30的动作决定部31取得与规定动作对应的动作信息(步骤S102)。动作决定部31从第三存储部40提取分别与规定动作中包含的单个动作对应的动作信息,依次输出至动作指令部32。另外,动作决定部31将规定动作的内容输出至学习部36。
接下来,动作指令部32判断在与规定动作中包含的单个动作对应的动作信息之中是否存在未完成的动作信息,即,判断是否存在未完成的单个动作(步骤S103)。动作指令部32在存在未完成的动作信息的情况下(步骤S103中为是),进入至步骤S104,在不存在未完成的动作信息的情况下(步骤S103中为否),结束一系列的处理。
在步骤S104中,学习部36取得机械装置10的作用部11等的动作信息,具体而言,取得动作信息中包含的动作数据Pdi。动作数据Pdi是时刻ti时的动作数据,在处理开始时亦即时刻t0时,是初始值Pd0。此时,学习部36可以向控制装置30的动作信息处理部37要求动作信息。动作信息处理部37也可以向动作信息检测装置50要求动作信息的检测,并取得动作信息检测装置50的检测结果。或者,学习部36也可以在后述的步骤S112中从动作信息处理部37接受动作信息,并从该动作信息取得动作数据,也可以在步骤S112中取得存储于控制装置30的第一存储部38的动作信息。
接下来,学习部36向与规定动作对应的神经网络36a输入动作数据Pdi从而使其生成执行动作修正指令Pmi+1,将执行动作修正指令Pmi+1输出至动作指令部32(步骤S105)。
接下来,动作指令部32使用与规定动作对应的动作信息,生成用于使机械装置10执行该动作的执行动作指令,输出至修正指令部33(步骤S106)。具体而言,动作指令部32对规定动作中包含的未完成的单个动作中的应最早执行的单个动作,生成用于执行与该单个动作对应的动作信息的动作指令亦即决定动作指令Psi+1。并且,动作指令部32基于决定动作指令Psi+1和执行动作修正指令Pmi+1,生成执行动作指令Pei+1。决定动作指令Psi+1和执行动作修正指令Pmi+1是与时刻ti+1有关并对应的指令。
接下来,修正指令部33判断是否存在用于从操作装置20修正机械装置10的动作的输入亦即修正输入(步骤S107)。修正指令部33在存在修正输入的情况下(步骤S107中为是),进入至步骤S108,在不存在修正输入的情况下(步骤S107中为否),进入至步骤S109。
在步骤S108中,修正指令部33根据从操作装置20输出的操作信息,修正动作指令部32的执行动作指令Pei+1,输出至驱动指令部34。修正指令部33将用于使作用部11进行与操作信息对应的动作的操作动作指令Pоi+1、和动作指令部32的执行动作指令Pei+1相加,从而生成修正动作指令Pfi+1
在步骤S109中,修正指令部33将动作指令部32的执行动作指令Pei+1输出至驱动指令部34。
接下来,在步骤S110中,修正信息检测部35检测修正信息,并使其存储于第二存储部39。在存在执行动作指令Pei+1的修正的情况下,修正信息检测部35检测修正动作指令Pfi+1作为修正信息。在不存在执行动作指令Pei的修正的情况下,修正信息检测部35检测出非修正的执行动作指令Pei+1作为修正信息。
接下来,驱动指令部34以使作用部11进行与修正动作指令Pfi+1或执行动作指令Pei+1对应的动作的方式,生成使机械装置10的各驱动装置驱动的指令亦即驱动数据,输出至各驱动装置。即,驱动指令部34以进行与上述指令对应的动作的方式驱动机械装置10(步骤S111)。
接下来,动作信息检测装置50检测动作数据Pdi+1作为进行动作的机械装置10的动作信息,使其存储于第一存储部38(步骤S112)。动作信息检测装置50将检测到的动作数据Pdi+1亦即检测动作信息输出至第一存储部38及动作信息处理部37。动作信息处理部37将检测动作信息输出至学习部36、操作装置20以及输出装置60。并且,动作信息处理部37返回至步骤S103的处理。
操作装置20给予操作者与检测动作信息中包含的动作数据的力数据及位置数据对应的触觉。触觉能够表示作用部11的动作状态。例如,操作装置20给予正在把持操作装置20的操作者的手操作者自己按压的感觉的触觉,从而使操作者体感作用部11正在挤压对象物的状态。操作装置20给予操作者自己拉动的感觉的触觉,从而使操作者体感作用部11正在拉动或吊起对象物的状态。操作装置20给予表面的质感的触觉,从而使操作者体感作用部11正在接触的对象物的表面的粗度状态。操作装置20给予压觉的触觉,从而使操作者体感作用部11正在接触的对象物的表面的硬软状态。
输出装置60视觉地以及/或者听觉地向操作者示出基于检测动作信息中包含的动作数据的位置数据等的、作用部11相对于对象物的位置及姿势。
在上述的步骤S103~S112中,进行与在取样时刻ti+1应执行的动作有关的处理,但在下一个步骤S103~S112中,进行与在下一个取样时刻ti+2应执行的动作有关的处理。
控制装置30也可以在规定动作完成后,使用在取样时刻t0~tu时检测到的动作信息,对分别与存储于第三存储部40的规定动作中包含的单个动作对应的动作信息进行更新。
在上述中,控制装置30在取样时刻t0~tu各自的时间点,使用学习部36的执行动作修正指令来修正决定动作指令,从而生成执行动作指令,但并不限定于此。控制装置30也可以在规定动作中包含的单个动作变化的时间点生成上述那样的执行动作指令。
另外,控制装置30也可以在任何时间进行学习部36的机器学习。例如,控制装置30也可以每完成一次由机械装置10进行的规定作业,使用在一次规定作业中积蓄到的数据来使学习部36进行机器学习。或者,控制装置30也可以每完成规定次数由机械装置10进行的规定作业,使用在该规定次数的规定作业中积蓄到的数据来使学习部36进行机器学习。或者,控制装置30也可以每规定日数、规定周数、以及规定月数等规定期间,使用在该规定期间内的规定作业中积蓄到的数据来使学习部36进行机器学习。
[1-3.效果等]
如上所述,在实施方式所涉及的机械装置***1中,机械装置10的控制装置30包括:作为动作控制部的动作指令部32及驱动指令部34,根据用于使机械装置10动作的动作指令,控制机械装置10的动作;作为修正控制部的修正指令部33及驱动指令部34,根据从用于操作机械装置10的操作装置20输出的操作信息,修正机械装置10的动作;第一存储部38,存储表示机械装置10的动作的第一动作信息;第二存储部39,存储表示已由修正指令部33进行的修正的修正信息;以及学习部36,使用第一动作信息和与第一动作信息对应的修正信息来进行机器学习,将第一动作信息作为输入数据且将与该第一动作信息对应的指令作为输出数据。并且,动作指令部32根据基于学习部36的指令的动作指令,控制机械装置10的动作。操作装置20输出基于表示操作装置20的动作的第二动作信息的操作信息。
根据上述结构,学习部36使用表示机械装置10的动作的第一动作信息、和表示使用操作装置20进行的机械装置10的动作的修正的修正信息作为学习数据来进行机器学习。并且,学习部36将第一动作信息作为输入数据,输出与该第一动作信息对应的指令,该指令反映于机械装置10的动作的控制。上述学习数据通过操作者经由操作装置20修正机械装置10的动作而生成,因此其生成是简易的。并且,机械装置10的动作的修正由确认了机械装置10的动作的操作者进行,因此是适当的。由此,能够简易地生成适当的学习数据。使用这样的学习数据来进行机器学习的学习部36能够在短间内实现输出与操作者等所理想的机械装置10的动作对应的指令的输出精度。因此,能够缩短机器学习所需要的时间。
另外,在实施方式所涉及的机械装置***1中,操作装置20也可以包括惯性计测装置,输出基于作为第二动作信息的惯性计测装置的计测数据的操作信息。根据上述结构,操作装置20输出基于表示操作装置20的动作的第二动作信息的操作信息。操作信息是基于惯性计测装置的计测数据的信息,因此能够准确地表示操作装置20的动作。由此,提高操作信息的精度,由此,经由操作装置20的修正以较高的精度反映于机械装置10的动作。
另外,在实施方式所涉及的机械装置***1中,操作装置20也可以构成为在三维空间内在任意方向上移动自如。根据上述结构,操作装置20能够对机械装置10的动作施加多种修正。
另外,在实施方式所涉及的机械装置***1中,表示机械装置10的动作的第一动作信息也可以包含表示机械装置10向对象物施加的力的力数据。根据上述结构,学习部36进行考虑了机械装置10向对象物施加的力的机器学习。于是,学习部36输出反映了机械装置10向对象物施加的力的指令。由此,控制装置30通过使用学习部36,能够适当地执行机械装置10的作用部11等的力控制。
另外,在实施方式所涉及的机械装置***1中,表示机械装置10的动作的第一动作信息也可以包含表示机械装置10的位置的位置数据。根据上述结构,学习部36进行考虑了作用部11的位置等机械装置10的位置的机器学习。于是,学习部36输出反映了机械装置10的位置的指令。由此,控制装置30通过使用学习部36,能够适当地执行机械装置10的作用部11等的位置控制。
另外,在实施方式所涉及的机械装置***1中,控制装置30也可以包括作为处理部的动作信息处理部37,该处理部将表示机械装置10的动作的第一动作信息输出至操作装置20,操作装置20也可以包括将基于第一动作信息的动作状态的反馈作为触觉给予操作者的触觉设备。根据上述结构,操作者能够边体感机械装置10的动作边操作操作装置20。由此,操作者能够适当地进行使用操作装置20的机械装置10的动作的修正。
另外,在实施方式所涉及的机械装置***1中,学习部36也可以由神经网络构成。根据上述结构,神经网络能够进行柔性且高精度的处理。由此,学习部36能够针对多种输入数据而输出高精度的输出数据。
并且,在实施方式所涉及的机械装置***1中,表示机械装置10的动作的第一动作信息也可以包含机械装置10的当前的动作和过去的动作。根据上述结构,第一动作信息表示机械装置10的动作的时间序列信息。于是,学习部36使用这样的时间序列信息来进行机器学习,将这样的时间序列信息作为输入数据。由此,学习部36进行考虑了机械装置10的随时间的举动的机器学习,输出反映了机械装置10的随时间的举动的指令。因此,可以提高学习部36的输出精度。
另外,实施方式所涉及的控制***100具备实施方式所涉及的控制装置30、和操作装置20。根据上述结构,可以得到与实施方式所涉及的控制装置30相同的效果。
另外,实施方式所涉及的机械装置***1具备实施方式所涉及的控制装置30、机械装置10以及操作装置20。根据上述结构,可以得到与实施方式所涉及的控制装置30相同的效果。
(变形例)
对实施方式的变形例所涉及的机械装置***1A进行说明。在本变形例中,机械装置***1A具备机器人10A作为机械装置,不仅使用动作数据,也使用机器人10A的处理对象的图像来控制机器人10A的动作。以下,对本变形例,以与实施方式不同的点为中心进行说明,适当省略与实施方式相同的点的说明。
[2-1.机械装置***]
图6是表示变形例所涉及的机械装置***1A的结构的一个例子的功能框图。如图6所示,本变形例所涉及的机械装置***1A与实施方式所涉及的机械装置***1相比较,还具备拍摄装置70。并且,机械装置***1A具备作为机械装置10的机器人10A、和作为控制装置30的控制装置30A。机器人10A具备末端执行器11A及机器人臂12A,末端执行器11A与作用部11对应,机器人臂12A与动作部12对应。机器人10A的详情后述。
拍摄装置70拍摄机器人10A所处理的对象物。拍摄装置70的例子是数码照相机以及数码摄像机等。例如,拍摄装置70配置于末端执行器11A或机器人臂12A等,但也可以配置于从末端执行器11A或机器人臂12A分离的位置。拍摄装置70将拍摄到的图像的信号输出至控制装置30A。拍摄装置70也可以将图像的信号输出至输出装置60。由此,操作者经由输出装置60,能够确认基于末端执行器11A的对象物的处理状态。于是,操作者能够边确认对象物的处理状态,边进行使用操作装置20的末端执行器11A的动作的修正、以及手动运转模式下的机器人10A的操作。
[2-2.机器人]
图7是表示变形例所涉及的机器人10A的结构的一个例子的侧视图。如图7所示,机器人10A的机器人臂12A的基部安装固定于基台13,在机器人臂12A的前端部,能够装卸地安装有末端执行器11A。末端执行器11A构成为能够向对象物施加把持、吸附、吊起、或捧起等与对象物对应的各种作用。在图7的例子中,末端执行器11A构成为把持对象物W,机器人10A进行将用末端执行器11A把持的对象物W组装于组装对象物T的作业。机器人10A的作业并不限定于组装,也可以是任何作业。机器人10A的作业的例子可以是分拣、组装、涂装、焊接、接合、錾平、研磨、密封、半导体制造、药剂调合以及手术等医疗行为等。
机器人臂12A具备从其基部朝向前端依次配置的连杆12Aa~12Af、将连杆12Aa~12Af依次连接的关节JT1~JT6、以及分别旋转驱动关节JT1~JT6的臂驱动装置M1~M6。臂驱动装置M1~M6的动作由控制装置30A控制。虽不限定于此,但在本实施方式中,臂驱动装置M1~M6分别以电力为动力源,具有伺服马达作为驱动他们的电气马达。此外,机器人臂12A的关节的数量并不限定于六个,也可以是七个以上,也可以是一个以上且五个以下。
连杆12Aa安装于基台13的安装面13a,末端执行器11A安装于连杆12Af的前端部。在连杆12Af的前端部设置有机械接口。末端执行器11A经由力传感器14安装于机械接口。力传感器14的例子是力觉传感器等,力觉传感器的结构并不特别限定,例如,也可以由三轴加速度传感器构成。力传感器14检测使末端执行器11A作用于对象物的力,作为从该对象物受到的反作用力。由力传感器14检测到的力通过适当的信号处理单元(未图示)变换为力数据。该信号处理单元例如设置于力传感器14或控制装置30A。在本说明书中,为了方便,表述为力传感器14检测力数据。
关节JT1将基台13和连杆12Aa的基端部连结为能够绕相对于安装面13a垂直的铅垂方向的轴旋转。关节JT2将连杆12Aa的前端部和连杆12Ab的基端部连结为能够绕与安装面13a平行的水平方向的轴旋转。关节JT3将连杆12Ab的前端部和连杆12Ac的基端部连结为能够绕与安装面13a平行的方向的轴旋转。关节JT4将连杆12Ac的前端部和连杆12Ad的基端部连结为能够绕连杆12Ac的长边方向的轴旋转。关节JT5将连杆12Ad的前端部和连杆12Ae的基端部连结为能够绕与连杆12Ad的长边方向正交的方向的轴旋转。关节JT6将连杆12Ae的前端部和连杆12Af的基端部连结为能够相对于连杆12Ae扭转旋转。
臂驱动装置M1~M6也可以分别具备伺服马达(未图示)、检测伺服马达的转子的旋转量的编码器等旋转传感器(未图示)、检测伺服马达的驱动电流的电流传感器(未图示)。臂驱动装置M1~M6分别根据从控制装置30A输出的指令等,使伺服马达动作,将旋转传感器及电流传感器的检测值输出至控制装置30A。控制装置30A基于从各伺服马达反馈的旋转传感器及电流传感器的检测值,检测该伺服马达的转子的旋转量、旋转速度以及电流值等,使用检测结果来控制该伺服马达的旋转开始、旋转停止、旋转速度以及旋转扭矩。由此,控制装置30A能够使各伺服马达在任意旋转位置停止,能够使其以任意旋转速度旋转,能够使其以任意旋转扭矩动作。由此,控制装置30A能够使机器人臂12A多样且精准地动作。
后述的控制装置30A的动作信息运算部41通过综合臂驱动装置M1~M6的全部伺服马达的旋转量,而计算出末端执行器11A的三维位置及姿势作为位置数据。另外,力传感器14所检测的数据是力数据。上述位置数据及上述力数据是机器人10A的动作数据。臂驱动装置M1~M6的旋转传感器和力传感器14构成动作信息检测装置50。另外,控制装置30A为了以成为根据电流指令的电流值的方式对臂驱动装置M1~M6各自的伺服马达的电流进行反馈控制而使用臂驱动装置M1~M6的电流传感器的检测信号。如上述那样,机器人10A构成为垂直多关节型机器人,但并不限定于此。
[2-3.操作装置]
图8是表示变形例所涉及的操作装置20的外观的一个例子的图。图9是表示变形例所涉及的操作装置20的结构的一个例子的功能框图。如图8所示,操作装置20具备人的手能够把持的壳体20a。并且,操作装置20在壳体20a具备输入装置21。在图8中,输入装置21是按钮开关,但并不限定于此。另外,操作装置20在壳体20a的内部具备未图示的惯性计测装置22、触觉设备23、操作控制装置24以及通信装置25。在机械装置***1A中,控制装置30A使用操作装置20来对机器人10A进行双向控制。
参照图9,对操作装置20的构成要素进行说明。触觉设备23是在实施方式中已说明的那样。
通信装置25经由有线通信或无线通信而将操作装置20和控制装置30A连接。通信装置25也可以包括通信电路。有线通信及无线通信的形式可以是任何形式。
输入装置21接受由操作者进行的指令及信息等的输入,经由操作控制装置24及通信装置25,将输入的指令及信息等发送至控制装置30A。这样的输入装置21也可以接受物理的输入、由声音进行的输入以及由图像进行的输入等。例如,输入装置21也可以具备滑动开关、按钮开关、按键、控制杆、触摸面板、麦克风以及照相机等装置。例如,输入至输入装置21的指令及信息也可以表示机器人10A的运转模式的选择以及执行指令、末端执行器11A的动作的选择以及执行指令等。
惯性计测装置22包括三轴加速度传感器及三轴角速度传感器,检测操作装置20的三个轴向的加速度及角速度。由惯性计测装置22检测到的三个轴向的加速度及角速度的计测数据通过操作控制装置24,变换为位置、姿势、移动、移动速度、加速度以及力等表示操作装置20的动作及作用力的各种信息,该信息作为操作装置20的操作信息经由通信装置25而被发送至控制装置30A。此外,三个轴向的加速度及角速度的计测数据也可以被发送至控制装置30A,控制装置30A进行变换该数据的运算。从惯性计测装置22的计测数据变换的信息也可以表示末端执行器11A的位置、姿势、移动、移动速度、加速度以及作用力等。惯性计测装置22也可以包括地磁传感器及温度传感器等。例如,三个轴向的加速度及角速度的计测数据也可以使用地磁传感器及温度传感器等的计测数据来修正。
操作控制装置24控制操作装置20整体的动作。操作控制装置24也可以具有与在实施方式中对控制装置30进行例示的结构相同的结构。例如,操作控制装置24从输入装置21接受信号,将该信号变换为表示对应的操作的信息,发送至控制装置30A。另外,操作控制装置24变换惯性计测装置22的计测数据,将变换数据发送至控制装置30A。或者,操作控制装置24将惯性计测装置22的计测数据发送至控制装置30A。操作控制装置24从控制装置30A接收机器人10A的动作信息,将动作信息中包含的动作数据等变换为与向触觉设备23的输入适合的数据,输出至触觉设备23。
[2-4.控制装置]
对控制装置30A的结构进行说明。如图6所示,本变形例所涉及的控制装置30A与实施方式所涉及的控制装置30相比较还包括动作信息运算部41、图像处理部42、第四存储部43,并取代学习部36而包括学习部36A。
动作信息运算部41将从动作信息检测装置50接受的数据变换为动作数据,输出至动作信息处理部37及第一存储部38。具体而言,动作信息检测装置50将使用机器人10A的臂驱动装置M1~M6的旋转传感器而检测到的伺服马达的旋转量及电流值的数据、和使用力传感器14而检测到的力的力数据输出至动作信息运算部41。动作信息运算部41通过综合臂驱动装置M1~M6的全部伺服马达的旋转量,而计算出表示末端执行器11A的三维位置及姿势的位置数据。动作信息运算部41生成将相同检测时刻的力数据及位置数据与该检测时刻建立关联并包含的动作数据并输出。
图像处理部42接受表示由拍摄装置70拍摄到的图像的图像数据,对该图像数据进行图像处理。图像处理部42通过图像处理,提取图像中包括的对象物及末端执行器11A,生成仅包括对象物及末端执行器11A的图像的图像数据亦即处理图像数据。图像处理部42将处理图像数据与其拍摄时刻建立关联并使其存储于第四存储部43。图像处理部42也可以使处理前的图像数据也存储于第四存储部43。
从图像提取对象物及末端执行器11A的图像的方法可以是已知的任何方法。例如,图像处理部42可以使用基于特征或基于区域等图像匹配技术,来提取对象物及末端执行器11A的图像。
例如,在基于特征的情况下,图像处理部42也可以在处理前的图像中提取边缘及角部等特征点,计算出特征点的特征量。并且,图像处理部42也可以基于特征点的特征量,在处理前的图像与对象物及末端执行器11A的图像的模板之间进行匹配,从而从处理前的图像提取对象物及末端执行器11A的图像。另外,在基于区域的情况下,图像处理部42也可以在处理前的图像中,基于边缘及纹理等,确定各区域。并且,图像处理部42也可以基于确定出的区域,在处理前的图像与对象物及末端执行器11A的图像的模板之间进行匹配,从而从处理前的图像提取对象物及末端执行器11A的图像。对象物及末端执行器11A的图像的模板也可以预先存储于第四存储部43。
第四存储部43与第一存储部38等相同地,通过存储装置实现。第四存储部43存储由拍摄装置70拍摄到的图像数据、已由图像处理部42处理的处理图像数据、以及对象物及末端执行器11A的图像的模板等。
另外,本变形例所涉及的学习部36A使用机器人10A的动作信息和与该动作信息对应的修正信息来进行机器学习。另外,学习部36A将机器人10A的动作信息作为输入数据,将与该动作信息对应的指令作为输出数据。在本变形例中,机器人10A的动作信息包含机器人10A的末端执行器11A的动作数据、和由拍摄装置70拍摄到的对象物的图像数据。该图像数据表示末端执行器11A与对象物的位置关系、以及借助末端执行器11A的对象物的处理状况等末端执行器11A的动作信息。在本变形例中,图像数据是借助图像处理部42的处理完毕的处理图像数据,但也可以是处理前的图像数据。通过使用处理图像数据,能够提高神经网络的输出精度。
例如,在机器学习中,在学习部36A的神经网络中,末端执行器11A的动作数据及对象物的图像数据被作为输入数据,在这些数据检测时被执行的修正信息被作为教示数据。在数据输入输出时,神经网络接受末端执行器11A的动作数据及对象物的图像数据的输入,输出用于使机器人10A接下来执行的执行动作修正指令。
对学习部36A的结构的一个例子进行说明。图10是表示变形例所涉及的学习部36A的结构的一个例子的功能框图。如图10所示,学习部36A包括神经网络36Aa、数据生成部36b、数据输入部36c、以及学习评价部36d。
在本例子中,也在机器人10A执行一次规定动作的期间,以规定取样间隔取得各指令及各数据。例如,修正信息检测部35以该取样间隔取得修正动作指令Pm的时间序列数据Pm0~Pmu。动作信息检测装置50以该取样间隔取得末端执行器11A的检测数据,动作信息运算部41通过运算该检测数据,而取得末端执行器11A的动作数据Pd的时间序列数据Pd0~Pdu。另外,拍摄装置70以该取样间隔取得拍摄对象物而得到的图像数据,图像处理部42通过对图像数据进行图像处理,而取得图像处理完毕的处理图像数据Ip的时间序列数据Ip0~Ipu
对机器学习时的学习部36A的处理进行说明。数据生成部36b使用第一存储部38的动作数据Pd的时间序列数据Pd0~Pdu、和第四存储部43的处理图像数据Ip的时间序列数据Ip0~Ipu,生成学习数据Ld的时间序列数据Ld0~Ldu。时间序列数据Ldi使用时间序列数据Pdi及Ipi而生成。另外,数据生成部36b从第二存储部39的修正动作指令Pm的时间序列数据Pm0~Pmu生成教示数据pn的时间序列数据pn0~pnu
数据输入部36c将学习数据Ld的时间序列数据Ld0~Ldu依次输入至神经网络36Aa的输入层的各神经元。神经网络36Aa若收到取样时刻ti时的学习数据Ld的时间序列数据Ldi的输入,则预测下一个取样时刻ti+1时的执行动作修正指令Pni+1并输出。
学习评价部36d基于取样时刻ti+1的教示数据pn的时间序列数据pni+1和执行动作修正指令Pni+1,调节神经网络36Aa的神经元间的权重。数据输入部36c及学习评价部36d对时间序列数据Ld0~Ldu的全部进行上述处理。
对数据输入输出时的学习部36A的处理进行说明。在机器人10A动作时,动作信息运算部41使用当前的取样时刻ti的动作信息检测装置50的检测数据,检测动作数据Pdi,输出至学习部36A。并行地,图像处理部42使用在取样时刻ti由拍摄装置70拍摄到的图像数据,生成处理图像数据Ipi,输出至学习部36A。
数据输入部36c将动作数据Pdi及处理图像数据Ipi输入至神经网络36Aa。神经网络36Aa通过将动作数据Pdi及处理图像数据Ipi作为输入数据,而将下一个取样时刻ti+1的执行动作修正指令Pni+1作为输出数据,输出至动作指令部32。动作指令部32生成反映了执行动作修正指令Pni+1的执行动作指令。在各取样时刻t0~tu-1,神经网络36Aa进行上述处理。在这样的由神经网络36Aa进行的处理中,考虑对象物的处理状态。
此外,神经网络36Aa也可以与实施方式相同地,构成为输入取样时刻ti的动作数据Pdi及处理图像数据Ipi、和过去的取样时刻ti-1~ti-n的动作数据Pdi-1~Pdi-n及处理图像数据Ii-1~Ii-n来作为输入数据。变形例所涉及的机械装置***1A的其他结构及动作与实施方式相同,因此省略其详细的说明。
[2-5.效果等]
根据上述那样的变形例所涉及的机械装置***1A,可以得到与实施方式相同的效果。并且,在机械装置***1A中,学***、研磨或者密封等作业的情况下,根据对象物中的处理对象的部位的状态而作业的完成结果发生变化。学习部36A通过将包括该部位的图像作为输入数据,而能够进行与该部位的状态适合的输出。由此,提高学习部36A的输出精度。此外,处理包含图像数据的动作信息的学习部36A也可以用于机器人以外的任何机械装置。
(其他实施方式)
以上,对本公开的实施方式的例子进行了说明,但本公开并不限定于上述实施方式及变形例。即,在本公开的范围内能够进行各种变形及改进。例如,将各种变形实施于实施方式及变形例而得到的方式、以及组合不同的实施方式及变形例中的构成要素而构建的方式也包含在本公开的范围内。
例如,在实施方式及变形例中,控制装置30及30A在自动运转模式时,根据从一个操作装置20输出的操作信息,修正机械装置10及机器人10A的动作,但并不限定于此。控制装置30及30A也可以根据从两个以上的操作装置20输出的操作信息,修正机械装置10及机器人10A的动作。例如,也可以对两个以上的操作装置20设定优先顺位,控制装置30及30A根据优先顺位,从由两个以上的操作装置20输出的操作信息中决定用于修正的操作信息。或者,控制装置30及30A也可以对从两个以上的操作装置20输出的操作信息,执行加法、减法、平均化、或者其他统计处理等处理,将处理后的操作信息用于修正。
另外,在实施方式及变形例中,操作装置20为了给予操作者知觉刺激而具备触觉设备23,但并不限定于此。操作装置20可以具备给予操作者知觉刺激的任何装置。例如,操作装置20也可以构成为给予操作者触觉、温觉、视觉以及听觉刺激中的至少一个。操作装置20也可以通过操作装置20的膨胀收缩或伸缩等变形、以及振动等而给予触觉刺激,例如,具备利用气压或液压进行膨胀收缩的装置、以及压电元件等产生振动的装置等。操作装置20也可以通过发热等而给予温觉刺激,例如具备加热器等。操作装置20也可以通过发光及光的闪烁等给予视觉刺激,例如具备LED(Light Emitting Diode)等光源等。操作装置20也可以通过发声等给予听觉刺激,例如具备扬声器等。
另外,在实施方式及变形例中,学习部36及36A用于机器学习的信息是在自动运转模式时取得的信息,具体而言,是作为机械装置10及机器人10A的动作信息的动作数据以及对象物的图像数据中的至少动作数据、和作为修正信息的修正动作指令,但并不限定于此。例如,学习部36及36A也可以将在手动运转模式时取得的信息用于机器学习。这样的信息例如也可以是基于操作装置20的操作信息的执行动作指令、和作为根据该执行动作指令进行动作的机械装置10及机器人10A的动作信息的动作数据以及对象物的图像数据中的至少动作数据。由此,学习部36及36A由于对由操作者进行的机械装置10及机器人10A的操作结果也进行机器学习,因此能够进行接近人的操作的输出。
另外,在变形例中,机器人10A是工业用机器人,但也可以是任何机器人。例如,机器人10A也可以是服务机器人及仿真机器人等机器人。服务机器人可以是在看护、医疗、清扫、警备、引导、救助、烹调、商品提供等各种服务业中使用的机器人。
另外,在变形例中,机器人10A是垂直多关节型机器人,但并不限定于此,例如,也可以构成为水平多关节型机器人、极坐标型机器人、圆筒坐标型机器人、直角坐标型机器人、垂直多关节型机器人、或者其他机器人。
另外,本公开的技术也可以是控制方法。例如,本公开所涉及的控制方法根据用于使机械装置动作的动作指令,使上述机械装置动作,根据从用于操作上述机械装置的操作装置输出的操作信息,修正上述机械装置的动作,取得表示上述机械装置的动作的第一动作信息、和表示上述机械装置的动作的修正的修正信息,使用上述第一动作信息和与上述第一动作信息对应的上述修正信息来使学习模型进行机器学习,向上述学习模型输入上述第一动作信息并使其输出与上述第一动作信息对应的指令,根据基于上述学习模型的上述指令的上述动作指令,使上述机械装置动作,上述操作信息是基于表示上述操作装置的动作的第二动作信息的信息。根据该控制方法,可以得到与上述机械装置***等相同的效果。这样的控制方法也可以通过CPU、LSI等电路、IC卡或单体模块等实现。
另外,本公开的技术也可以是用于执行上述控制方法的程序,也可以是记录了上述程序的非暂时性的计算机能够读取的记录介质。另外,上述程序当然能够经由网络等传送介质而流通。
另外,在上述中使用的序数、数量等数字全部是为了对本公开的技术具体地进行说明而例示的,本公开并不限制于例示的数字。另外,构成要素间的连接关系是为了对本公开的技术具体地进行说明而例示的,实现本公开的功能的连接关系并不限定于此。
另外,功能框图中的块的分割是一个例子,也可以将多个块设为一个块来实现、将一个块分别为多个、以及/或者将一部分功能移至其他块。另外,单个硬件或软件也可以并行或分时地处理具有类似的功能的多个块的功能。
附图标记说明
1、1A...机械装置***;10...机械装置;10A...机器人;20...操作装置;22...惯性计测装置;23...触觉设备;30、30A...控制装置;32...动作指令部(动作控制部);33...修正指令部(修正控制部);34...驱动指令部(动作控制部、修正控制部);36、36A...学习部;36a、36Aa...神经网络;37...动作信息处理部(处理部);38...第一存储部(存储部);39...第二存储部(存储部);50...动作信息检测装置;70...拍摄装置;100...控制***

Claims (12)

1.一种控制装置,是机械装置的控制装置,其特征在于,包括:
动作控制部,根据用于使所述机械装置进行动作的动作指令,控制所述机械装置的动作;
修正控制部,根据从用于操作所述机械装置的操作装置输出的操作信息,修正所述机械装置的动作;
存储部,存储表示所述机械装置的动作的第一动作信息、和表示由所述修正控制部进行的修正的修正信息;以及
学习部,使用所述第一动作信息和与所述第一动作信息对应的所述修正信息进行机器学习,将所述第一动作信息作为输入数据且将与所述第一动作信息对应的指令作为输出数据,
所述动作控制部根据基于所述学习部的所述指令生成的所述动作指令,控制所述机械装置的动作,
所述操作装置输出基于表示所述操作装置的动作的第二动作信息生成的所述操作信息。
2.根据权利要求1所述的控制装置,其特征在于,
所述操作装置包括惯性计测装置,输出基于作为所述第二动作信息的所述惯性计测装置的计测数据而生成的所述操作信息。
3.根据权利要求1或2所述的控制装置,其特征在于,
所述操作装置构成为在三维空间内在任意方向上移动自如。
4.根据权利要求1~3中的任一项所述的控制装置,其特征在于,
所述第一动作信息包含表示所述机械装置向对象物施加的力的力数据。
5.根据权利要求1~4中的任一项所述的控制装置,其特征在于,
所述第一动作信息包含表示所述机械装置的位置的位置数据。
6.根据权利要求1~5中的任一项所述的控制装置,其特征在于,
所述第一动作信息包含拍摄所述机械装置进行处理的对象物而得到的图像数据。
7.根据权利要求1~6中的任一项所述的控制装置,其特征在于,
还包括:处理部,将所述第一动作信息输出至所述操作装置,
所述操作装置包括触觉设备,该触觉设备将基于所述第一动作信息形成的动作状态的反馈作为触觉给予操作者。
8.根据权利要求1~7中的任一项所述的控制装置,其特征在于,
所述学习部由神经网络构成。
9.根据权利要求8所述的控制装置,其特征在于,
所述第一动作信息包含所述机械装置的当前的动作和过去的动作。
10.一种控制***,其特征在于,具备:
权利要求1~9中的任一项所述的控制装置;和
所述操作装置,用于操作所述机械装置。
11.一种机械装置***,其特征在于,具备:
权利要求1~9中的任一项所述的控制装置;
所述机械装置;以及
所述操作装置,用于操作所述机械装置。
12.一种控制方法,其特征在于,
根据用于使机械装置进行动作的动作指令,使所述机械装置动作,
根据从用于操作所述机械装置的操作装置输出的操作信息,修正所述机械装置的动作,
取得表示所述机械装置的动作的第一动作信息、和表示所述机械装置的动作的修正的修正信息,
使用所述第一动作信息和与所述第一动作信息对应的所述修正信息,使学习模型进行机器学习,
向所述学习模型输入所述第一动作信息,并使其输出与所述第一动作信息对应的指令,
根据基于所述学习模型的所述指令生成的所述动作指令,使所述机械装置动作,
所述操作信息是基于表示所述操作装置的动作的第二动作信息生成的信息。
CN202080036398.8A 2019-05-28 2020-05-28 控制装置、控制***、机械装置***以及控制方法 Pending CN113840697A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019-099548 2019-05-28
JP2019099548A JP7339776B2 (ja) 2019-05-28 2019-05-28 制御システム、機械装置システム及び制御方法
PCT/JP2020/021235 WO2020241796A1 (ja) 2019-05-28 2020-05-28 制御装置、制御システム、機械装置システム及び制御方法

Publications (1)

Publication Number Publication Date
CN113840697A true CN113840697A (zh) 2021-12-24

Family

ID=73547707

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080036398.8A Pending CN113840697A (zh) 2019-05-28 2020-05-28 控制装置、控制***、机械装置***以及控制方法

Country Status (4)

Country Link
US (1) US20220212340A1 (zh)
JP (1) JP7339776B2 (zh)
CN (1) CN113840697A (zh)
WO (1) WO2020241796A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117697769A (zh) * 2024-02-06 2024-03-15 成都威世通智能科技有限公司 一种基于深度学习的机器人控制***和方法

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019120633B4 (de) * 2019-07-31 2022-05-05 Liebherr-Hydraulikbagger Gmbh Verfahren zur automatischen Bewegung eines Arbeitsgeräts sowie Arbeitsgerät
JP7339806B2 (ja) * 2019-08-05 2023-09-06 川崎重工業株式会社 制御システム、ロボットシステム及び制御方法
US11945123B2 (en) 2020-04-28 2024-04-02 Altec Industries, Inc. Head mounted display for remote operation of machinery
JP2023038776A (ja) * 2021-09-07 2023-03-17 オムロン株式会社 指令値生成装置、方法、及びプログラム
US11714767B1 (en) * 2021-12-30 2023-08-01 Lightbits Labs Ltd. DMA mechanism with inline data services
US11660750B1 (en) * 2022-07-28 2023-05-30 Altec Industries, Inc. Autonomous and semi-autonomous control of aerial robotic systems

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140067128A1 (en) * 2012-09-06 2014-03-06 Fanuc America Corporation Haptic teach pendant
US20170157767A1 (en) * 2015-12-07 2017-06-08 Fanuc Corporation Machine learning device, laminated core manufacturing apparatus, laminated core manufacturing system, and machine learning method for learning operation for stacking core sheets
WO2017220605A1 (de) * 2016-06-23 2017-12-28 Kuka Roboter Gmbh Roboter-bedienhandgerätverbund mit einem grundsteuerungs-lagesensor
CN107825422A (zh) * 2016-09-16 2018-03-23 发那科株式会社 机械学习装置、机器人***以及机械学习方法
CN107921634A (zh) * 2015-08-25 2018-04-17 川崎重工业株式会社 机器人***
CN108241296A (zh) * 2016-12-26 2018-07-03 发那科株式会社 学习组装动作的机器学习装置以及部件组装***

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5639884A (en) * 1979-08-29 1981-04-15 Kobe Steel Ltd Method and device for correcting partial operation of cp control type industrial robot
JP3362379B2 (ja) * 1994-05-26 2003-01-07 松下電工株式会社 力制御装置における力の検出方法
EP2055446A1 (en) 2007-10-31 2009-05-06 Abb As A portable robot control apparatus and a method for controlling a movement of a robot
JP5202935B2 (ja) 2007-12-11 2013-06-05 アズビル株式会社 教示装置
EP2390064A4 (en) * 2009-01-22 2013-03-27 Panasonic Corp APPARATUS AND METHOD FOR CONTROLLING A ROBOT ARM, ROBOT, PROGRAM FOR CONTROLLING A ROBOT ARM, AND INTEGRATED ELECTRONIC CIRCUIT
JP5545534B2 (ja) * 2010-04-19 2014-07-09 株式会社安川電機 ロボットの教示再生装置、教示再生方法、及び教示データ作成方法
JP2015134384A (ja) 2014-01-16 2015-07-27 日本電気株式会社 遠隔操縦装置、及び遠隔操縦システム
JP2015157323A (ja) 2014-02-21 2015-09-03 日本電気株式会社 遠隔操縦装置、遠隔操縦システム、遠隔操縦方法、及びプログラム
US11254012B2 (en) * 2016-09-14 2022-02-22 Keba Ag Control device and control method for industrial machines having controlled movement drives
EP3549725B1 (en) * 2016-12-02 2023-06-14 Cyberdyne Inc. Upper limb motion assisting device and upper limb motion assisting system
US10286550B2 (en) * 2016-12-02 2019-05-14 National Taipei University Of Technology Robot teaching system and control method thereof
JP6400750B2 (ja) * 2017-01-26 2018-10-03 ファナック株式会社 学習制御機能を備えた制御システム及び制御方法
EP3602409B1 (en) * 2017-06-05 2023-11-01 Deepmind Technologies Limited Selecting actions using multi-modal inputs
JP6577522B2 (ja) * 2017-06-07 2019-09-18 ファナック株式会社 制御装置及び機械学習装置
JP7066357B2 (ja) * 2017-08-31 2022-05-13 川崎重工業株式会社 ロボットシステム及びその運転方法
US11494632B1 (en) * 2017-12-07 2022-11-08 X Development Llc Generating simulated training examples for training of machine learning model used for robot control
US10926408B1 (en) * 2018-01-12 2021-02-23 Amazon Technologies, Inc. Artificial intelligence system for efficiently learning robotic control policies
US20200094401A1 (en) * 2018-09-21 2020-03-26 Beijing Jingdong Shangke Information Technology Co., Ltd. System and method for automatic learning of product manipulation
US11312581B2 (en) * 2019-04-16 2022-04-26 Abb Schweiz Ag Object grasp system and method

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140067128A1 (en) * 2012-09-06 2014-03-06 Fanuc America Corporation Haptic teach pendant
CN107921634A (zh) * 2015-08-25 2018-04-17 川崎重工业株式会社 机器人***
US20180243902A1 (en) * 2015-08-25 2018-08-30 Kawasaki Jukogyo Kabushiki Kaisha Robot system
US20170157767A1 (en) * 2015-12-07 2017-06-08 Fanuc Corporation Machine learning device, laminated core manufacturing apparatus, laminated core manufacturing system, and machine learning method for learning operation for stacking core sheets
WO2017220605A1 (de) * 2016-06-23 2017-12-28 Kuka Roboter Gmbh Roboter-bedienhandgerätverbund mit einem grundsteuerungs-lagesensor
CN107825422A (zh) * 2016-09-16 2018-03-23 发那科株式会社 机械学习装置、机器人***以及机械学习方法
CN108241296A (zh) * 2016-12-26 2018-07-03 发那科株式会社 学习组装动作的机器学习装置以及部件组装***

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN117697769A (zh) * 2024-02-06 2024-03-15 成都威世通智能科技有限公司 一种基于深度学习的机器人控制***和方法
CN117697769B (zh) * 2024-02-06 2024-04-30 成都威世通智能科技有限公司 一种基于深度学习的机器人控制***和方法

Also Published As

Publication number Publication date
WO2020241796A1 (ja) 2020-12-03
JP7339776B2 (ja) 2023-09-06
JP2020192640A (ja) 2020-12-03
US20220212340A1 (en) 2022-07-07

Similar Documents

Publication Publication Date Title
CN113840697A (zh) 控制装置、控制***、机械装置***以及控制方法
CN114174015B (zh) 控制装置、控制***、机器人***以及控制方法
CN111432990B (zh) 技能传承机械装置
JP6826532B2 (ja) 遠隔操作ロボットシステム
US20170249561A1 (en) Robot learning via human-demonstration of tasks with force and position objectives
TWI805545B (zh) 用於藉由示範來程式化機器人之方法和電腦程式產品
US20220388160A1 (en) Control device, control system, robot system, and control method
JP2019166626A (ja) 制御装置及び機械学習装置
JP2020521645A (ja) ロボットによる衝突処理
CN104858876A (zh) 机器人任务的可视调试
WO2010136961A1 (en) Control device and method for controlling a robot
JP6811465B2 (ja) 学習装置、学習方法、学習プログラム、自動制御装置、自動制御方法および自動制御プログラム
JP6720958B2 (ja) 駆動装置、駆動方法及びプログラム
De Pasquale et al. GoldFinger: wireless human–machine interface with dedicated software and biomechanical energy harvesting system
JP7230128B2 (ja) ロボット作業の学習方法及びロボットシステム
CN114516060A (zh) 用于控制机器人装置的设备和方法
Jadeja et al. Design and development of 5-DOF robotic arm manipulators
CN113878588B (zh) 面向卡扣式连接的基于触觉反馈的机器人柔顺装配方法
WO2020241797A1 (ja) 制御装置、制御システム、機械装置システム及び制御方法
CN114845841B (zh) 控制方法、控制装置、机器人***、程序及记录介质
CN114585321B (zh) 手术***以及控制方法
TWI781708B (zh) 學習裝置、學習方法、學習程式、控制裝置、控制方法及控制程式
JP7447568B2 (ja) シミュレーション装置およびプログラム
Crammond et al. Commanding an anthropomorphic robotic hand with motion capture data
JP2020082313A (ja) ロボット制御装置、学習装置、及びロボット制御システム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination