JP2018043338A - ロボットの動作プログラムを学習する機械学習装置,ロボットシステムおよび機械学習方法 - Google Patents

ロボットの動作プログラムを学習する機械学習装置,ロボットシステムおよび機械学習方法 Download PDF

Info

Publication number
JP2018043338A
JP2018043338A JP2016182233A JP2016182233A JP2018043338A JP 2018043338 A JP2018043338 A JP 2018043338A JP 2016182233 A JP2016182233 A JP 2016182233A JP 2016182233 A JP2016182233 A JP 2016182233A JP 2018043338 A JP2018043338 A JP 2018043338A
Authority
JP
Japan
Prior art keywords
robot
machine learning
arm
reward
learning device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016182233A
Other languages
English (en)
Other versions
JP6514166B2 (ja
Inventor
戸田 俊太郎
Shuntaro Toda
俊太郎 戸田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fanuc Corp
Original Assignee
Fanuc Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fanuc Corp filed Critical Fanuc Corp
Priority to JP2016182233A priority Critical patent/JP6514166B2/ja
Priority to DE102017008475.0A priority patent/DE102017008475B4/de
Priority to US15/702,495 priority patent/US11511420B2/en
Priority to CN201710822873.4A priority patent/CN107825422A/zh
Publication of JP2018043338A publication Critical patent/JP2018043338A/ja
Application granted granted Critical
Publication of JP6514166B2 publication Critical patent/JP6514166B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1656Programme controls characterised by programming, planning systems for manipulators
    • B25J9/1664Programme controls characterised by programming, planning systems for manipulators characterised by motion, path, trajectory planning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B23MACHINE TOOLS; METAL-WORKING NOT OTHERWISE PROVIDED FOR
    • B23KSOLDERING OR UNSOLDERING; WELDING; CLADDING OR PLATING BY SOLDERING OR WELDING; CUTTING BY APPLYING HEAT LOCALLY, e.g. FLAME CUTTING; WORKING BY LASER BEAM
    • B23K37/00Auxiliary devices or processes, not specially adapted to a procedure covered by only one of the preceding main groups
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J13/00Controls for manipulators
    • B25J13/08Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J19/00Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
    • B25J19/02Sensing devices
    • B25J19/021Optical sensing devices
    • B25J19/023Optical sensing devices including video camera means
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1628Programme controls characterised by the control loop
    • B25J9/163Programme controls characterised by the control loop learning, adaptive, model based, rule based expert control
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B13/00Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion
    • G05B13/02Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric
    • G05B13/0265Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion
    • G05B13/029Adaptive control systems, i.e. systems automatically adjusting themselves to have a performance which is optimum according to some preassigned criterion electric the criterion being a learning criterion using neural networks and expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/008Artificial life, i.e. computing arrangements simulating life based on physical entities controlled by simulated intelligence so as to replicate intelligent life forms, e.g. based on robots replicating pets or humans in their appearance or behaviour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N5/00Computing arrangements using knowledge-based models
    • G06N5/02Knowledge representation; Symbolic representation
    • G06N5/022Knowledge engineering; Knowledge acquisition
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/32Operator till task planning
    • G05B2219/32334Use of reinforcement learning, agent acts, receives reward
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/33Director till display
    • G05B2219/33321Observation learning
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45104Lasrobot, welding robot
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45135Welding

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Mathematical Physics (AREA)
  • Robotics (AREA)
  • Health & Medical Sciences (AREA)
  • Mechanical Engineering (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • General Health & Medical Sciences (AREA)
  • Molecular Biology (AREA)
  • Automation & Control Theory (AREA)
  • Multimedia (AREA)
  • Optics & Photonics (AREA)
  • Human Computer Interaction (AREA)
  • Manipulator (AREA)
  • Numerical Control (AREA)

Abstract

【課題】修正されたロボットの動作プログラムを得ることができる機械学習装置,ロボットシステムおよび機械学習方法の提供を図る。【解決手段】ロボット1の動作プログラムを学習する機械学習装置2であって、前記ロボットのアームの揺れ、および、前記ロボットのアームの動作軌跡の長さの少なくとも一方を、状態変数として観測する状態観測部21と、前記ロボットが処理を行うサイクルタイムを、判定データとして受け取る判定データ取得部22と、前記状態観測部の出力および前記判定データ取得部の出力に基づいて、前記ロボットの動作プログラムを学習する学習部23と、を備える。【選択図】図3

Description

本発明は、ロボットの動作プログラムを学習する機械学習装置,ロボットシステムおよび機械学習方法に関する。
従来、例えば、自動車の車体のスポット溶接を行うスポット溶接ロボット等において、教示者(人)により、複数のスポット溶接ポイントを順番に通過するような教示プログラムが作成されている。すなわち、教示者は、スポット溶接ロボットに対して、各溶接ポイントをどのような順番で溶接するのが効率的であるかを考えて、複数のスポット溶接ポイントの教示を行っている。
ここで、教示者は、例えば、各溶接ポイントと次の溶接ポイントの間にロボットアームが通過する教示ポイントを何箇所か設定し、また、その間の動作についての速度や加速度の設定も行っている。すなわち、教示者は、スポット溶接ロボットによる処理時間(サイクルタイム)を短縮するために、例えば、ロボットアームの軌跡が最短になるように教示ポイントを設定し、さらに、各教示ポイント間の加減速や速度の設定を変更している。
ところで、従来、実際にワークが配置されている位置に応じた経路に沿ってロボットハンドを移動させ、ロボットハンドの動作のサイクルタイムを低減させるために、特定の目標位置を選定し、その選定された特定の目標位置に対するロボットハンドの接近経路と離隔経路として異なる複数の経路パターンを記憶する。そして、視覚センサによって検出されたワークの位置に基づいて、記憶された複数の経路パターンから1つの経路パターンを選択し、ロボットハンドが向かうべき目標位置と実際のワークの位置が一致するように、選択された経路パターンを修正してロボットハンドを移動させるロボット制御装置が提案されている(例えば、特許文献1参照)。
特許第4087841号公報
上述したように、従来、視覚センサで検出されたワークの位置に基づいて、複数の経路パターンから1つの経路パターンを選択し、さらに、ロボットハンド(ロボットアーム)の目標位置と実際のワークの位置が一致するように経路パターンを修正して、ロボットアームの移動を制御するロボット制御装置が提案されている。
しかしながら、例えば、自動車の車体に対して、多数の溶接ポイントのスポット溶接を行うスポット溶接ロボットにおいて、ロボットアームがその多数の溶接ポイントを通る軌跡が最短距離となるように、教示者(人)が設定(教示)するのは難しい。さらに、各教示ポイント間の加減速や速度の設定、或いは、ロボットアームの揺れに起因したスポット溶接の精度やロボットアームの揺れが収まるのを待ってから溶接しなければならないこと等を考慮すると、教示者がサイクルタイムの短い最適なロボットアームの軌跡や速度、加速度を教示するのは困難なものとなっている。
なお、本明細書では、本発明が適用されるロボットの一例として、スポット溶接ロボットを説明するが、本発明の適用は、スポット溶接ロボットに限定されず、様々な産業用ロボットやサービス用ロボットに対して幅広く適用することができる。
本発明の目的は、上述した従来技術の課題に鑑み、修正されたロボットの動作プログラムを得ることができる機械学習装置,ロボットシステムおよび機械学習方法の提供にある。
本発明に係る第1実施形態によれば、ロボットの動作プログラムを学習する機械学習装置であって、前記ロボットのアームの揺れ、および、前記ロボットのアームの動作軌跡の長さの少なくとも一方を、状態変数として観測する状態観測部と、前記ロボットが処理を行うサイクルタイムを、判定データとして受け取る判定データ取得部と、前記状態観測部の出力および前記判定データ取得部の出力に基づいて、前記ロボットの動作プログラムを学習する学習部と、を備える、機械学習装置が提供される。
前記アームの揺れ、および、前記アームの動作軌跡の長さのデータは、カメラにより撮影された画像、または、ロボット制御装置からのデータに基づいて観測されてもよく、前記サイクルタイムは、前記ロボット制御装置からのデータ、或いは、前記カメラにより撮影された画像を解析して取得されてもよい。前記状態観測部は、さらに、前記アームの位置,速度および加速度の少なくとも1つを、状態変数として観測することもできる。前記機械学習装置は、さらに、前記学習部が学習した前記ロボットの動作プログラムに基づいて、前記ロボットの動作を決定する意思決定部を備えてもよい。前記学習部は、前記状態観測部の出力および前記判定データ取得部の出力に基づいて、報酬を計算する報酬計算部と、前記状態観測部の出力,前記判定データ取得部の出力および前記報酬計算部の出力に基づいて、前記ロボットの動作プログラムの価値を定める価値関数を更新する価値関数更新部と、を備えることができる。
前記報酬計算部は、前記サイクルタイムが長いときにマイナスの報酬を設定し、前記サイクルタイムが短いときにプラスの報酬を設定するのが好ましい。前記報酬計算部は、前記アームの揺れが大きいときにマイナスの報酬を設定し、前記アームの揺れが小さいときにプラスの報酬を設定し、前記アームの動作軌跡が長いときにマイナスの報酬を設定し、前記アームの動作軌跡が短いときにプラスの報酬を設定することができる。前記機械学習装置は、ニューラルネットワークを備えてもよい。前記機械学習装置は、それぞれの前記ロボットに対して設けられ、少なくとも1つの他の機械学習装置と接続可能であり、少なくとも1つの前記他の機械学習装置との間で機械学習の結果を相互に交換または共有することができる。前記機械学習装置は、クラウドサーバまたはフォグサーバ上に存在してもよい。
本発明に係る第2実施形態によれば、ロボット制御装置と、前記ロボット制御装置により制御される前記ロボットと、上述した第1実施形態の機械学習装置を備えるロボットシステムが提供される。前記ロボットシステムは、さらに、前記アームの揺れ、および、前記アームの動作軌跡の長さのデータを観測可能なカメラを備え、前記カメラは、前記ロボットの前記アームに取り付けられた第1カメラ、前記ロボットの周辺に配置された周辺ロボットのアームに取り付けられた第2カメラ、および、前記ロボットの周辺に設けられた第3カメラの少なくとも1つを含むことができる。前記ロボットは、スポット溶接ロボットであってもよい。
本発明に係る第3実施形態によれば、ロボットの動作プログラムを学習する機械学習方法であって、前記ロボットのアームの揺れ、および、前記ロボットのアームの動作軌跡の長さの少なくとも一方を、状態変数として観測し、前記ロボットが処理を行うサイクルタイムを、判定データとして受け取り、前記状態変数および前記判定データに基づいて、前記ロボットの動作プログラムを学習する機械学習方法が提供される。前記ロボットの動作プログラムの学習は、前記状態変数および前記判定データに基づいて報酬を計算し、前記状態変数,前記判定データおよび前記報酬に基づいて、前記ロボットの動作プログラムの価値を定める価値関数を更新することができる。
本発明に係る機械学習装置,ロボットシステムおよび機械学習方法によれば、修正されたロボットの動作プログラムを得ることができるという効果を奏する。
図1は、本発明に係る機械学習装置の一実施形態を模式的に示すブロック図である。 図2は、本発明に係るロボットシステムの一実施形態を示すブロック図である。 図3は、本発明に係る機械学習装置の一実施例を示すブロック図である。 図4は、ニューロンのモデルを模式的に示す図である。 図5は、図4に示すニューロンを組み合わせて構成した三層のニューラルネットワークを模式的に示す図である。 図6は、図3に示す機械学習装置における処理の一例を示すフローチャートである。 図7は、図3に示す機械学習装置における処理の他の例を示すフローチャートである。 図8は、ロボットシステムにおけるロボットのアームの軌跡を説明するための図である。
以下、本発明に係る機械学習装置,ロボットシステムおよび機械学習方法の実施形態を、添付図面を参照して詳述する。図1は、本発明に係る機械学習装置の一実施形態を模式的に示すブロック図である。
図1に示されるように、本実施形態の機械学習装置は、例えば、強化学習によりロボットの動作プログラムの学習を行って修正された動作プログラムを出力するもので、人工知能20を含む。この機械学習装置は、例えば、各ロボット(1)のロボット制御装置(エッジ)に設けてもよいが、複数のロボット(ロボットシステム)を有する工場ごと(例えば、フォグサーバ)、或いは、複数の工場とインターネット等の通信回線を介して接続されたクラウドサーバに設けることもできる。また、それぞれのロボットに対して設けられた機械学習装置は、例えば、少なくとも1つの他の機械学習装置と接続可能とし、その少なくとも1つの他の機械学習装置との間で機械学習の結果を相互に交換または共有するようにしてもよい。
人工知能(AI:Artificial Intelligence)20は、例えば、後述するように、多層構造のニューラルネットワーク等により実現され、カメラ12,12',12aからの情報(画像情報)、ロボットが処理を行うサイクルタイム、ロボットのアームの揺れ、および、ロボットのアームの動作軌跡の長さといったデータを受け取って学習(強化学習)を行い、修正(学習)された動作プログラムを出力する。すなわち、この学習された動作プログラムにより、例えば、サイクルタイムの長さ等を抑えつつ、ロボットアームやアームに取り付けられた機器等が作業対象や周辺機材に当たらないように、教示を修正することが可能になる。
図2は、本発明に係るロボットシステムの一実施形態を示すブロック図である。図2に示されるように、本実施形態のロボットシステムは、ロボット1および機械学習装置2を含む。なお、機械学習装置2は、例えば、ロボット1の動作を制御するロボット制御装置に設けることができるのは、前述した通りである。
図2に示されるように、機械学習装置2(ロボット制御装置)は、状態観測部21、判定データ取得部22、学習部23および意思決定部24を含み、学習部23は、報酬計算部231および価値関数更新部232を含む。なお、機械学習装置2に関しては、後に詳述する。ロボット1のアーム11には、カメラ12が設けられ、また、ロボット1の上方にも、カメラ12aが設けられている。また、カメラとしては、後に図8を参照して詳述するように、例えば、隣のロボット(1')のアーム(11')に取り付けられたカメラ(12')を使用することもできる。これらカメラ12(12'),12aにより撮影された画像情報により、例えば、アーム11の揺れやアーム11の動作軌跡といったデータが観測され、機械学習装置2に出力される。また、ロボット1が処理を行うサイクルタイムも、カメラ12,12aにより撮影された画像情報から求めることもできるが、例えば、ロボット制御装置に設けられたタイマの出力を利用することもできる。
図3は、本発明に係る機械学習装置の一実施例を示すブロック図である。図3に示されるように、機械学習装置2は、状態観測部21、判定データ取得部22、学習部23および意思決定部24を備える。状態観測部21は、ロボット1のアーム11の揺れ、および、アーム11の動作軌跡の少なくとも一方を状態変数として観測する。ここで、アーム11の揺れ、および、アーム11の動作軌跡のデータは、後述するように、カメラ(12,12a)により撮影された画像、或いは、ロボット制御装置からのデータに基づいて観測される。なお、ロボット制御装置からのデータとしては、例えば、ロボット1の各軸に設けられたエンコーダ(ロータリーエンコーダ)からの信号に基づいて得られる、アーム11の動作軌跡のデータである。また、状態観測部21は、さらに、ロボット1のアーム11の位置,速度および加速度の少なくとも1つを状態変数として観測することもできる。
判定データ取得部22は、ロボット1が処理を行うサイクルタイムを判定データとして受け取る。学習部23は、状態観測部21の出力および判定データ取得部22の出力に基づいて、ロボット1の動作プログラムを学習する。学習部23は、報酬計算部231および価値関数更新部232を含む。報酬計算部231は、状態観測部21の出力および判定データ取得部22の出力に基づいて報酬を計算し、価値関数更新部232は、状態観測部21の出力,判定データ取得部22の出力および報酬計算部231の出力に基づいて、ロボット1の動作プログラムの価値を定める価値関数を更新する。なお、意思決定部24は、学習部23が学習したロボット1の動作プログラムに基づいて、ロボット1の動作を決定する。
ところで、機械学習装置2は、装置に入力されるデータの集合から、その中にある有用な規則や知識表現、判断基準等を解析により抽出し、その判断結果を出力するとともに、知識の学習(機械学習)を行う機能を有する。機械学習の手法は様々であるが、大別すれば、例えば、「教師あり学習」、「教師なし学習」および「強化学習」に分けられる。さらに、これらの手法を実現するうえで、特徴量そのものの抽出を学習する、「深層学習(ディープラーニング:Deep Learning)」と呼ばれる手法がある。
なお、図3に示す機械学習装置2は、「強化学習(Q学習)」を適用したものである。この機械学習装置2は、汎用の計算機若しくはプロセッサを用いることもできるが、例えば、GPGPU(General-Purpose computing on Graphics Processing Units)や大規模PCクラスター等を適用すると、より高速に処理することが可能になる。ここで、機械学習の全般に関して、概略を説明する。
まず、教師あり学習とは、教師データ、すなわち、ある入力と結果(ラベル)のデータの組を大量に機械学習装置に与えることで、それらのデータセットにある特徴を学習し、入力から結果を推定するモデル(誤差モデル)、すなわち、その関係性を帰納的に獲得するものである。例えば、後述のニューラルネットワーク等のアルゴリズムを用いて実現することが可能である。
また、教師なし学習とは、入力データのみを大量に機械学習装置に与えることで、入力データがどのような分布をしているか学習し、対応する教師出力データを与えなくても、入力データに対して圧縮・分類・整形等を行う装置で学習する手法である。例えば、それらのデータセットにある特徴を、似た者どうしにクラスタリングすること等ができる。この結果を使って、何らかの基準を設けてそれを最適化するような出力の割り当てを行うことにより、出力の予測を実現することできる。
なお、教師なし学習と教師あり学習との中間的な問題設定として、半教師あり学習と呼ばれるものもあり、これは、例えば、一部のみ入力と出力のデータの組が存在し、それ以外は入力のみのデータである場合が対応する。
次に、強化学習について、説明する。まず、強化学習の問題設定として、次のように考える。
・ロボットシステム(すなわち、ロボット1およびロボット制御装置(例えば、機械学習装置2を含む))は、環境の状態を観測し、行動を決定する。
・環境は、何らかの規則に従って変化し、さらに、自分の行動が、環境に変化を与えることもある。
・行動するたびに、報酬信号が帰ってくる。
・最大化したいのは、将来にわたっての(割引)報酬の合計である。
・行動が引き起こす結果を全く知らない、または、不完全にしか知らない状態から学習はスタートする。すなわち、ロボット制御装置は、実際に行動して初めて、その結果をデータとして得ることができる。つまり、試行錯誤しながら最適な行動を探索する必要がある。
・人間の動作を真似るように、事前学習(前述の教師あり学習や、逆強化学習といった手法)した状態を初期状態として、良いスタート地点から学習をスタートさせることもできる。
ここで、強化学習とは、判定や分類だけではなく、行動を学習することにより、環境に行動が与える相互作用を踏まえて適切な行動を学習、すなわち、将来的に得られる報酬を最大にするための学習する方法を学ぶものである。以下に、例として、Q学習の場合で説明を続けるが、Q学習に限定されるものではない。
Q学習は、或る環境状態sの下で、行動aを選択する価値Q(s,a)を学習する方法である。つまり、或る状態sのとき、価値Q(s,a)の最も高い行動aを最適な行動として選択すればよい。しかし、最初は、状態sと行動aとの組合せについて、価値Q(s,a)の正しい値は全く分かっていない。そこで、エージェント(行動主体)は、或る状態sの下で様々な行動aを選択し、その時の行動aに対して、報酬が与えられる。それにより、エージェントは、より良い行動の選択、すなわち、正しい価値Q(s,a)を学習していく。
さらに、行動の結果、将来にわたって得られる報酬の合計を最大化したいので、最終的にQ(s,a)=E[Σ(γt)rt]となるようにすることを目指す。ここで、期待値は、最適な行動に従って状態変化したときについてとるものとし、それは、分かっていないので、探索しながら学習することになる。このような価値Q(s,a)の更新式は、例えば、次の式(1)により表すことができる。
Figure 2018043338
上記の式(1)において、stは、時刻tにおける環境の状態を表し、atは、時刻tにおける行動を表す。行動atにより、状態はst+1に変化する。rt+1は、その状態の変化により得られる報酬を表している。また、maxの付いた項は、状態st+1の下で、その時に分かっている最もQ値の高い行動aを選択した場合のQ値にγを乗じたものになる。ここで、γは、0<γ≦1のパラメータで、割引率と呼ばれる。また、αは、学習係数で、0<α≦1の範囲とする。
上述した式(1)は、試行atの結果、帰ってきた報酬rt+1を元に、状態stにおける行動atの評価値Q(st,at)を更新する方法を表している。すなわち、状態sにおける行動aの評価値Q(st,at)よりも、報酬rt+1 + 行動aによる次の状態における最良の行動max aの評価値Q(st+1,max at+1)の方が大きければ、Q(st,at)を大きくし、反対に小さければ、Q(st,at)を小さくすることを示している。つまり、或る状態における或る行動の価値を、結果として即時帰ってくる報酬と、その行動による次の状態における最良の行動の価値に近付けるようにしている。
ここで、Q(s,a)の計算機上での表現方法は、すべての状態行動ペア(s,a)に対して、その値をテーブルとして保持しておく方法と、Q(s,a)を近似するような関数を用意する方法がある。後者の方法では、前述の式(1)は、確率勾配降下法等の手法で近似関数のパラメータを調整していくことにより、実現することができる。なお、近似関数としては、後述のニューラルネットワークを用いることができる。
また、強化学習での価値関数の近似アルゴリズムとして、ニューラルネットワークを用いることができる。図4は、ニューロンのモデルを模式的に示す図であり、図5は、図4に示すニューロンを組み合わせて構成した三層のニューラルネットワークを模式的に示す図である。すなわち、ニューラルネットワークは、例えば、図4に示すようなニューロンのモデルを模した演算装置およびメモリ等で構成される。
図4に示されるように、ニューロンは、複数の入力x(図4では、一例として入力x1〜x3)に対する出力(結果)yを出力するものである。各入力x(x1,x2,x3)には、この入力xに対応する重みw(w1,w2,w3)が乗算される。これにより、ニューロンは、次の式(2)により表現される結果yを出力する。なお、入力x、結果yおよび重みwは、すべてベクトルである。また、下記の式(2)において、θは、バイアスであり、fkは、活性化関数である。
Figure 2018043338
図5を参照して、図4に示すニューロンを組み合わせて構成した三層のニューラルネットワークを説明する。図5に示されるように、ニューラルネットワークの左側から複数の入力x(ここでは、一例として、入力x1〜入力x3)が入力され、右側から結果y(ここでは、一例として、結果y1〜入力y3)が出力される。具体的に、入力x1,x2, x3は、3つのニューロンN11〜N13の各々に対して、対応する重みが掛けられて入力される。これらの入力に掛けられる重みは、まとめてW1と標記されている。
ニューロンN11〜N13は、それぞれ、z11〜z13を出力する。図5において、これらz11〜z13は、まとめて特徴ベクトルZ1と標記され、入力ベクトルの特徴量を抽出したベクトルとみなすことができる。この特徴ベクトルZ1は、重みW1と重みW2との間の特徴ベクトルである。z11〜z13は、2つのニューロンN21およびN22の各々に対して、対応する重みが掛けられて入力される。これらの特徴ベクトルに掛けられる重みは、まとめてW2と標記されている。
ニューロンN21,N22は、それぞれz21,z22を出力する。図5において、これらz21,z22は、まとめて特徴ベクトルZ2と標記されている。この特徴ベクトルZ2は、重みW2と重みW3との間の特徴ベクトルである。z21,z22は、3つのニューロンN31〜N33の各々に対して、対応する重みが掛けられて入力される。これらの特徴ベクトルに掛けられる重みは、まとめてW3と標記されている。
最後に、ニューロンN31〜N33は、それぞれ、結果y1〜結果y3を出力する。ニューラルネットワークの動作には、学習モードと価値予測モードとがある。例えば、学習モードにおいて、学習データセットを用いて重みWを学習し、そのパラメータを用いて予測モードにおいて、ロボット制御装置の行動判断を行う。なお、便宜上、予測と書いたが、検出・分類・推論等多様なタスクが可能なのはいうまでもない。
ここで、予測モードで実際にロボット制御装置を動かして得られたデータを即時学習し、次の行動に反映させる(オンライン学習)ことも、予め収集しておいたデータ群を用いてまとめた学習を行い、以降はずっとそのパラメータで検知モードを行う(バッチ学習)こともできる。或いは、その中間的な、ある程度データが溜まるたびに学習モードを挟むということも可能である。
また、重みW1〜W3は、誤差逆伝搬法(誤差逆転伝播法:バックプロパゲーション:Backpropagation)により学習可能なものである。なお、誤差の情報は、右側から入り左側に流れる。誤差逆伝搬法は、各ニューロンについて、入力xが入力されたときの出力yと真の出力y(教師)との差分を小さくするように、それぞれの重みを調整(学習)する手法である。このようなニューラルネットワークは、三層以上に、さらに層を増やすことも可能である(深層学習と称される)。また、入力の特徴抽出を段階的に行い、結果を回帰する演算装置を、教師データのみから自動的に獲得することも可能である。
ここで、図3を参照して説明したように、本実施例の機械学習装置2は、例えば、Q学習を実施すべく、状態観測部21、判定データ取得部22,学習部23、および、意思決定部24を備えている。ただし、本発明に適用される機械学習方法は、Q学習に限定されるものではなく、また、機械学習装置2は、例えば、GPGPUや大規模PCクラスター等を適用することで実現可能なのは、前述した通りである。
図6は、図3に示す機械学習装置における処理の一例を示すフローチャートである。図6に示されるように、機械学習が開始(学習スタート)すると、ステップST11において、カメラ12,12aからの情報に基づいてロボット1(アーム11)の軌跡,速度および加速度を変更する。次に、ステップST12においてアーム11の揺れを判定し、ステップST17においてアーム11の軌跡の長さを判定し、また、ステップST22においてサイクルタイムを判定する。ここで、ステップST12におけるアーム11の揺れの判定、ステップST17におけるアーム11の軌跡の長さの判定、並びに、ステップST22におけるサイクルタイムの判定は、それら全ての判定を行わずに、一部の判定のみ(例えば、ステップST12のアーム11の揺れの判定、および、ステップST22のサイクルタイムの判定のみ)を行ってもよい。或いは、さらに、他の判定項目を追加することも可能である。
図6に示す処理の一例では、ステップST12において、アーム11の揺れが多い(大きい)と判定すると、ステップST13に進んで『−20』(報酬値)を設定し、アーム11の揺れが変わらないと判定すると、ステップST14に進んで『0』を設定し、アーム11の揺れが少ない(小さい)と判定すると、ステップST15に進んで『+20』を設定し、そして、ステップST16に進んで、報酬の積算を行う。
また、ステップST17において、アーム11の軌跡の長さが長いと判定すると、ステップST18に進んで『−10』(報酬値)を設定し、アーム11の軌跡の長さが変わらないと判定すると、ステップST19に進んで『0』を設定し、アーム11の軌跡の長さが短いと判定すると、ステップST20に進んで『+10』を設定し、そして、ステップST21に進んで、報酬の積算を行う。
さらに、ステップST22において、サイクルタイムが長いと判定すると、ステップST23に進んで『−30』(報酬値)を設定し、サイクルタイムが変わらないと判定すると、ステップST24に進んで『0』を設定し、サイクルタイムが短いと判定すると、ステップST25に進んで『+30』を設定し、さらに、ステップST26に進んで、報酬の積算を行う。
上述したように、報酬値は、それぞれの判定項目により重み付けがなされていて、図6に示す処理の一例では、例えば、ステップST22におけるサイクルタイムの判定は、大きな重み付け(『−30,0,+30』)がなされ、ステップST17におけるアーム11の軌跡の長さの判定は、小さな重み付け(『−10,0,+10』)がなされている。なお、判定項目による重み付けは、正側と負側で変更させることもでき、或いは、全ての項目に対して同じ重み付けをすることも可能である。
次に、ステップST27に進み、上述したステップST16,ST21およびST26で積算されたそれぞれの判定項目に対する報酬値をまとめて積算し、さらに、ステップST28に進んで、ステップST27で積算された報酬値に基づいて、教示プログラム(ロボットの動作プログラム)を修正する。なお、ステップST28の処理が終了すると、例えば、ステップST11に戻って同様の処理を繰り返す。
ここで、上述した各ステップの処理は、前述した図3における各ブロックにより実行することができる。すなわち、ステップST12〜ST27における報酬値の積算は、例えば、図3における報酬計算部231による報酬の計算処理として行うことができる。また、ステップST28における教示プログラムの修正は、例えば、図3における価値関数更新部232による価値関数(行動価値テーブル)の更新処理、並びに、意思決定部24による更新された価値関数に基づいたロボットの動作プログラム(教示プログラム)の決定処理により行うことができる。このように、本実施形態によれば、修正されたロボットの動作プログラムを得ることが可能になる。
図7は、図3に示す機械学習装置における処理の他の例を示すフローチャートである。図7に示されるように、機械学習が開始(学習スタート)すると、ステップST31において、カメラ12,12aからの情報に基づいてロボット1(アーム11)の軌跡,速度および加速度を変更する。さらに、ステップST32に進んで、アーム11の軌跡の長さを判定し、アーム11の軌跡の長さが長いと判定すると、ステップST33に進んで『−10』(報酬値)を設定し、アーム11の軌跡の長さが変わらないと判定すると、ステップST34に進んで『0』を設定し、アーム11の軌跡の長さが短いと判定すると、ステップST35に進んで『+10』を設定し、そして、ステップST36に進んで、報酬の積算を行う。
次に、ステップST37に進んで、アーム11の揺れを判定し、アーム11の揺れが多いと判定すると、ステップST38に進んで『−20』を設定し、アーム11の揺れが変わらないと判定すると、ステップST39に進んで『0』を設定し、アーム11の揺れが少ないと判定すると、ステップST40に進んで『+20』を設定し、そして、ステップST41に進んで、報酬の積算を行う。また、ステップST42に進んで、サイクルタイムを判定し、サイクルタイムが長いと判定すると、ステップST43に進んで『−30』を設定し、サイクルタイムが変わらないと判定すると、ステップST44に進んで『0』を設定し、サイクルタイムが短いと判定すると、ステップST45に進んで『+30』を設定し、そして、ステップST46に進んで、報酬の積算を行う。さらに、ステップST47に進み、積算された報酬値に基づいて、教示プログラムを修正する。なお、ステップST47の処理が終了すると、例えば、ステップST31に戻って同様の処理を繰り返す。
ここで、図6を参照して説明したのと同様に、ステップST32〜ST36に示すアーム11の軌跡の長さの判定、ステップST37〜ST41に示すアーム11の揺れの判定、並びに、ステップST42〜ST46に示すサイクルタイムの判定は、それら全ての判定を行わずに、一部の判定のみを行ってもよく、また、さらなる判定項目を追加してもよい。さらに、各判定項目による重み付けは、適宜変更することができ、また、各ステップの処理は、例えば、図3に示す各ブロックで実行することができるのは、前述した通りである。
図8は、ロボットシステムにおけるロボットのアームの軌跡を説明するための図であり、例えば、スポット溶接を行うロボット1のアーム11を、図中、左から右方向へ移動させてスポット溶接処理を行わせる場合のアームの軌跡を概略的に示すものである。図8において、参照符号WP1〜WP5は、ロボット1のアーム11(溶接ヘッド)が必ず通らなくてはならない位置(スポット溶接を行う溶接ポイント)を示し、TP11〜TP19は、教示者によりロボット1に教示するポイント(教示ポイント)を示す。
さらに、図8において、曲線TL1は、人(教示者)により教示されたアーム11の軌跡(動作軌跡)を示し、TL2は、上述した本実施形態の機械学習装置により得られた修正されたロボットの動作プログラムに基づくアーム11の軌跡を示し、そして、TL3は、周辺機材やワーク(作業対象)との距離が最短な経路を通るアーム11の軌跡を示す。なお、図8に示されるように、ロボット1のアーム11には、カメラ12が設けられていて、例えば、作業対象との距離や作業位置(溶接ポイント)の確認、並びに、アーム11の揺れ等の情報が取得できるようになっている。
また、ロボット1の上方で、ロボット1(アーム11)により作業が行われる作業領域の全体が見渡せる位置には、カメラ12aが設けられていて、例えば、アーム11若しくはアーム11に取り付けられた機器と作業対象や周辺機材との距離や位置関係、並びに、アーム11の揺れやアーム11の軌跡等の情報を取得できるようになっている。なお、カメラは、例えば、周辺のロボット(1')のアーム(11')に取り付けられたもの(12')を使用してもよい。
図8において、参照符号1'は、ロボット1の周辺(例えば、隣り)に設置された周辺ロボットを示し、この周辺ロボット1'のアーム11'にもカメラ12'が設けられている。ここで、周辺ロボット1'のアーム11'に設けられたカメラ12'は、ロボット1のアーム11を撮影し、その撮影データに基づいて、ロボット1のアーム11の揺れや軌跡を求めることができる。すなわち、あるロボット1のアーム11の揺れや軌跡は、他の周辺ロボット1'のアーム11'に設けられたカメラ12'により撮影されたデータから求めることが可能である。なお、周辺ロボット1'としては、例えば、隣接する1台のロボットに限定されず、周囲の複数のロボットのカメラで撮影されたデータを適宜切り替えて利用することも可能である。
ここで、カメラ12aにより、または、カメラ12と共にアーム11に設けられた加速度センサ等の各種センサにより、或いは、周辺ロボット1'のカメラ12'およびロボット1,1'の各種センサにより、ロボット1のアーム11の速度や加速度等の情報を取得することができる。また、ロボット1による処理のサイクルタイムは、ロボット1を制御するロボット制御装置のタイマ等の出力データから取得することができるが、例えば、カメラ12a等により取得された画像を解析して取得することも可能である。さらに、カメラの設置場所は、ロボット1の上方に限定されず、側方や下方等のロボット1の周辺であってもよいのはいうまでもない。
図8に示されるように、例えば、本実施形態の機械学習装置2により学習が行われて修正されたロボットの動作プログラムに基づく軌跡TL2は、例えば、教示者により教示された軌跡TL1とは異なり、また、周辺機材やワークとの距離が最短な経路を通る軌跡TL3とも異なることが分かる。
すなわち、教示者(人)がロボット1のアーム11の揺れや動作軌跡の長さ、或いは、ロボットが処理を行うサイクルタイム等の条件を考慮して求めた軌跡TL1は、様々な条件に対して好ましいと考えられる軌跡(機械学習により得られた軌跡)TL2からは大きくずれたものとなっているのが分かる。また、機械学習により得られた軌跡TL2は、単に、周辺機材やワークとの距離が最短な経路を通る軌跡TL3とも異なることが分かる。すなわち、最短経路を通る軌跡TL3では、アーム11の速度や加速度を低下させることが要求され、或いは、アーム11の揺れが大きくなるため、スポット溶接に要する時間が長くなるためとも考えられる。
以上、詳述したように、本実施形態に係る機械学習装置,ロボットシステムおよび機械学習方法によれば、修正されたロボットの動作プログラムを得ることができる。これにより、例えば、ロボットアームやアームに取り付けられた機器等がワークや周辺機材等に当たらないように、教示を修正することが可能になる。なお、本実施形態の適用は、スポット溶接を行うロボットに限定されず、様々な産業用ロボットやサービス用ロボットに対して幅広く適用することができるのはいうまでもない。
以上、実施形態を説明したが、ここに記載したすべての例や条件は、発明および技術に適用する発明の概念の理解を助ける目的で記載されたものであり、特に記載された例や条件は発明の範囲を制限することを意図するものではない。また、明細書のそのような記載は、発明の利点および欠点を示すものでもない。発明の実施形態を詳細に記載したが、各種の変更、置き換え、変形が発明の精神および範囲を逸脱することなく行えることが理解されるべきである。
1,1' ロボット
2 機械学習装置
21 状態観測部
22 判定データ取得部
23 学習部
231 報酬計算部
232 価値関数更新部
24 意思決定部

Claims (15)

  1. ロボットの動作プログラムを学習する機械学習装置であって、
    前記ロボットのアームの揺れ、および、前記ロボットのアームの動作軌跡の長さの少なくとも一方を、状態変数として観測する状態観測部と、
    前記ロボットが処理を行うサイクルタイムを、判定データとして受け取る判定データ取得部と、
    前記状態観測部の出力および前記判定データ取得部の出力に基づいて、前記ロボットの動作プログラムを学習する学習部と、を備える、
    ことを特徴とする機械学習装置。
  2. 前記アームの揺れ、および、前記アームの動作軌跡の長さのデータは、カメラにより撮影された画像、または、ロボット制御装置からのデータに基づいて観測され、
    前記サイクルタイムは、前記ロボット制御装置からのデータ、或いは、前記カメラにより撮影された画像を解析して取得される、
    ことを特徴とする請求項1に記載の機械学習装置。
  3. 前記状態観測部は、さらに、
    前記アームの位置,速度および加速度の少なくとも1つを、状態変数として観測する、
    ことを特徴とする請求項1または請求項2に記載の機械学習装置。
  4. さらに、
    前記学習部が学習した前記ロボットの動作プログラムに基づいて、前記ロボットの動作を決定する意思決定部を備える、
    ことを特徴とする請求項1乃至請求項3のいずれか1項に記載の機械学習装置。
  5. 前記学習部は、
    前記状態観測部の出力および前記判定データ取得部の出力に基づいて、報酬を計算する報酬計算部と、
    前記状態観測部の出力,前記判定データ取得部の出力および前記報酬計算部の出力に基づいて、前記ロボットの動作プログラムの価値を定める価値関数を更新する価値関数更新部と、を備える、
    ことを特徴とする請求項1乃至請求項4のいずれか1項に記載の機械学習装置。
  6. 前記報酬計算部は、
    前記サイクルタイムが長いときにマイナスの報酬を設定し、前記サイクルタイムが短いときにプラスの報酬を設定する、
    ことを特徴とする請求項5に記載の機械学習装置。
  7. 前記報酬計算部は、
    前記アームの揺れが大きいときにマイナスの報酬を設定し、前記アームの揺れが小さいときにプラスの報酬を設定し、
    前記アームの動作軌跡が長いときにマイナスの報酬を設定し、前記アームの動作軌跡が短いときにプラスの報酬を設定する、
    ことを特徴とする請求項5または請求項6に記載の機械学習装置。
  8. 前記機械学習装置は、ニューラルネットワークを備える、
    ことを特徴とする請求項1乃至請求項7のいずれか1項に記載の機械学習装置。
  9. 前記機械学習装置は、それぞれの前記ロボットに対して設けられ、少なくとも1つの他の機械学習装置と接続可能であり、少なくとも1つの前記他の機械学習装置との間で機械学習の結果を相互に交換または共有する、
    ことを特徴とする請求項1乃至請求項8のいずれか1項に記載の機械学習装置。
  10. 前記機械学習装置は、クラウドサーバまたはフォグサーバ上に存在する、
    ことを特徴とする請求項1乃至請求項8のいずれか1項に記載の機械学習装置。
  11. ロボット制御装置と、前記ロボット制御装置により制御される前記ロボットと、請求項1乃至請求項9のいずれか1項に記載の機械学習装置と、を備える、
    ことを特徴とするロボットシステム。
  12. さらに、
    前記アームの揺れ、および、前記アームの動作軌跡の長さのデータを観測可能なカメラを備え、
    前記カメラは、
    前記ロボットの前記アームに取り付けられた第1カメラ、
    前記ロボットの周辺に配置された周辺ロボットのアームに取り付けられた第2カメラ、および、
    前記ロボットの周辺に設けられた第3カメラの少なくとも1つを含む、
    ことを特徴とする請求項11に記載のロボットシステム。
  13. 前記ロボットは、スポット溶接ロボットである、
    ことを特徴とする請求項11または請求項12に記載のロボットシステム。
  14. ロボットの動作プログラムを学習する機械学習方法であって、
    前記ロボットのアームの揺れ、および、前記ロボットのアームの動作軌跡の長さの少なくとも一方を、状態変数として観測し、
    前記ロボットが処理を行うサイクルタイムを、判定データとして受け取り、
    前記状態変数および前記判定データに基づいて、前記ロボットの動作プログラムを学習する、
    ことを特徴とする機械学習方法。
  15. 前記ロボットの動作プログラムの学習は、
    前記状態変数および前記判定データに基づいて報酬を計算し、
    前記状態変数,前記判定データおよび前記報酬に基づいて、前記ロボットの動作プログラムの価値を定める価値関数を更新する、
    ことを特徴とする請求項14に記載の機械学習方法。
JP2016182233A 2016-09-16 2016-09-16 ロボットの動作プログラムを学習する機械学習装置,ロボットシステムおよび機械学習方法 Active JP6514166B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016182233A JP6514166B2 (ja) 2016-09-16 2016-09-16 ロボットの動作プログラムを学習する機械学習装置,ロボットシステムおよび機械学習方法
DE102017008475.0A DE102017008475B4 (de) 2016-09-16 2017-09-08 Maschinenlernvorrichtung, robotersystem und maschinenlernverfahren zum erlernen eines roboter-betriebsprogramms
US15/702,495 US11511420B2 (en) 2016-09-16 2017-09-12 Machine learning device, robot system, and machine learning method for learning operation program of robot
CN201710822873.4A CN107825422A (zh) 2016-09-16 2017-09-13 机械学习装置、机器人***以及机械学习方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016182233A JP6514166B2 (ja) 2016-09-16 2016-09-16 ロボットの動作プログラムを学習する機械学習装置,ロボットシステムおよび機械学習方法

Publications (2)

Publication Number Publication Date
JP2018043338A true JP2018043338A (ja) 2018-03-22
JP6514166B2 JP6514166B2 (ja) 2019-05-15

Family

ID=61302564

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016182233A Active JP6514166B2 (ja) 2016-09-16 2016-09-16 ロボットの動作プログラムを学習する機械学習装置,ロボットシステムおよび機械学習方法

Country Status (4)

Country Link
US (1) US11511420B2 (ja)
JP (1) JP6514166B2 (ja)
CN (1) CN107825422A (ja)
DE (1) DE102017008475B4 (ja)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019171540A (ja) * 2018-03-29 2019-10-10 ファナック株式会社 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法
CN110328674A (zh) * 2019-07-19 2019-10-15 东莞理工学院 一种激光切割机器人
WO2019216427A1 (ja) * 2018-05-11 2019-11-14 株式会社 Preferred Networks リスク指標評価装置、リスク指標評価方法及びプログラム
JP6644191B1 (ja) * 2018-12-26 2020-02-12 三菱電機株式会社 ロボット制御装置、ロボット制御学習装置、及びロボット制御方法
WO2020075423A1 (ja) * 2018-10-10 2020-04-16 ソニー株式会社 ロボット制御装置、ロボット制御方法及びロボット制御プログラム
JP2020078852A (ja) * 2018-11-14 2020-05-28 旭鉄工株式会社 学習システム、及びロボット位置調整システム
JP2020082314A (ja) * 2018-11-29 2020-06-04 京セラドキュメントソリューションズ株式会社 学習装置、ロボット制御装置、及びロボット制御システム
WO2020122632A1 (ko) * 2018-12-14 2020-06-18 삼성전자 주식회사 로봇 장치 및 로봇의 작업 스킬을 학습하는 방법
WO2020153297A1 (ja) * 2019-01-25 2020-07-30 株式会社ソニー・インタラクティブエンタテインメント ロボット制御システム
JP2020196077A (ja) * 2019-05-31 2020-12-10 ファナック株式会社 ケーブルの状態を学習する機械学習装置、ロボットシステム、及び機械学習方法
JP2021022187A (ja) * 2019-07-29 2021-02-18 セイコーエプソン株式会社 プログラム移送システムおよびロボットシステム
JP2021065955A (ja) * 2019-10-21 2021-04-30 キヤノン株式会社 ロボット制御システム及びその制御方法及びプログラム
JP2021084159A (ja) * 2019-11-27 2021-06-03 株式会社日立製作所 制御装置、制御方法、及びロボットシステム
JP2022013477A (ja) * 2020-07-01 2022-01-18 清一 安川 次世代人工知能とロボット(パラレルリンク(ロボティック・ポッド)など)を組み合わせた次世代ロボット
DE112020006315T5 (de) 2020-02-27 2022-10-20 Mitsubishi Electric Corporation Robotersteuervorrichtung, robotersteuerverfahren und vorrichtung zur erzeugung von lernmodellen
WO2023106576A1 (ko) * 2021-12-10 2023-06-15 김판수 행동 모사 플랫폼 서비스 제공 시스템

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10207408B1 (en) * 2015-12-07 2019-02-19 AI Incorporated Method to minimize collisions of mobile robotic devices
US11077555B1 (en) 2015-12-07 2021-08-03 AI Incorporated Method to minimize collisions of mobile robotic device
JP6616170B2 (ja) * 2015-12-07 2019-12-04 ファナック株式会社 コアシートの積層動作を学習する機械学習器、積層コア製造装置、積層コア製造システムおよび機械学習方法
EP3523760B1 (en) * 2016-11-04 2024-01-24 DeepMind Technologies Limited Reinforcement learning systems
JP6457473B2 (ja) * 2016-12-16 2019-01-23 ファナック株式会社 ロボットおよびレーザスキャナの動作を学習する機械学習装置,ロボットシステムおよび機械学習方法
JP6484265B2 (ja) * 2017-02-15 2019-03-13 ファナック株式会社 学習制御機能を備えたロボットシステム及び学習制御方法
JP6549644B2 (ja) * 2017-06-27 2019-07-24 ファナック株式会社 機械学習装置、ロボット制御システム及び機械学習方法
US11612306B2 (en) * 2017-11-01 2023-03-28 Sony Corporation Surgical arm system and surgical arm control system
JP6857332B2 (ja) * 2018-03-13 2021-04-14 オムロン株式会社 演算装置、演算方法、及びそのプログラム
JP6781183B2 (ja) * 2018-03-26 2020-11-04 ファナック株式会社 制御装置及び機械学習装置
CN110340884A (zh) * 2018-04-05 2019-10-18 发那科株式会社 测定动作参数调整装置、机器学习装置以及***
CN108830453B (zh) * 2018-05-07 2021-10-08 中国科学院力学研究所 一种远程操作效果的评估方法及***
CN108927806A (zh) * 2018-08-13 2018-12-04 哈尔滨工业大学(深圳) 一种应用于大批量重复性加工的工业机器人学习方法
JP7117237B2 (ja) * 2018-12-27 2022-08-12 川崎重工業株式会社 ロボット制御装置、ロボットシステム及びロボット制御方法
CN109773787A (zh) * 2018-12-29 2019-05-21 南京埃斯顿机器人工程有限公司 机械设备的控制学习方法及其具备学习功能的服务器***
JP7092307B2 (ja) * 2019-02-01 2022-06-28 三菱電機株式会社 作業判別装置および作業判別方法
JP7339776B2 (ja) * 2019-05-28 2023-09-06 川崎重工業株式会社 制御システム、機械装置システム及び制御方法
JP7207207B2 (ja) * 2019-07-09 2023-01-18 トヨタ自動車株式会社 演算装置、機械学習方法及び制御プログラム
JP7221183B2 (ja) * 2019-09-20 2023-02-13 株式会社日立製作所 機械学習方法、フォークリフト制御方法、及び機械学習装置
DE102020200165B4 (de) * 2020-01-09 2022-05-19 Robert Bosch Gesellschaft mit beschränkter Haftung Robotersteuereinrichtung und Verfahren zum Steuern eines Roboters
DE102020127708A1 (de) 2020-10-21 2022-04-21 Ebm-Papst Mulfingen Gmbh & Co. Kg Wicklungsoptimierung
CN113012432B (zh) * 2021-03-15 2022-07-08 武强 云计算与雾计算协同强化学习的交通红绿灯控制***
TWI795282B (zh) * 2022-04-29 2023-03-01 陳健如 機器人焊接方法

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003094364A (ja) * 2001-09-21 2003-04-03 Honda Motor Co Ltd 作業ロボットの動作経路データ作成方法および装置
JP2012240142A (ja) * 2011-05-17 2012-12-10 Fanuc Ltd 学習制御機能を備えたスポット溶接ロボット
JP2013106202A (ja) * 2011-11-14 2013-05-30 Fujitsu Ltd パラメータ設定装置、コンピュータプログラム及びパラメータ設定方法
JP2014228972A (ja) * 2013-05-20 2014-12-08 日本電信電話株式会社 情報処理装置、情報処理システム、情報処理方法、および学習プログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7403904B2 (en) * 2002-07-19 2008-07-22 International Business Machines Corporation System and method for sequential decision making for customer relationship management
JP2005115654A (ja) * 2003-10-08 2005-04-28 Sony Corp 情報処理装置および方法、プログラム格納媒体、並びにプログラム
JP4087841B2 (ja) 2004-12-21 2008-05-21 ファナック株式会社 ロボット制御装置
CN101840586B (zh) * 2010-04-02 2012-04-11 中国科学院计算技术研究所 虚拟人运动规划的方法及其***
EP2585975B1 (en) * 2010-06-28 2018-03-21 Precitec GmbH & Co. KG A method for classifying a multitude of images recorded by a camera observing a processing area and laser material processing head using the same
CN101954638B (zh) * 2010-10-18 2012-01-04 湖南大学 高压输电线路除冰机器人自主抓线控制方法
US8886359B2 (en) * 2011-05-17 2014-11-11 Fanuc Corporation Robot and spot welding robot with learning control function
US8374421B1 (en) 2011-10-18 2013-02-12 Google Inc. Methods and systems for extracting still frames from a compressed video
US8843236B2 (en) 2012-03-15 2014-09-23 GM Global Technology Operations LLC Method and system for training a robot using human-assisted task demonstration
US8996167B2 (en) 2012-06-21 2015-03-31 Rethink Robotics, Inc. User interfaces for robot training
US9367798B2 (en) 2012-09-20 2016-06-14 Brain Corporation Spiking neuron network adaptive control apparatus and methods
US8996177B2 (en) 2013-03-15 2015-03-31 Brain Corporation Robotic training apparatus and methods
JP5969676B1 (ja) 2015-09-30 2016-08-17 ファナック株式会社 工作機械の工具補正の頻度を最適化する機械学習装置及び機械学習方法、並びに該機械学習装置を備えた工作機械

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003094364A (ja) * 2001-09-21 2003-04-03 Honda Motor Co Ltd 作業ロボットの動作経路データ作成方法および装置
JP2012240142A (ja) * 2011-05-17 2012-12-10 Fanuc Ltd 学習制御機能を備えたスポット溶接ロボット
JP2013106202A (ja) * 2011-11-14 2013-05-30 Fujitsu Ltd パラメータ設定装置、コンピュータプログラム及びパラメータ設定方法
JP2014228972A (ja) * 2013-05-20 2014-12-08 日本電信電話株式会社 情報処理装置、情報処理システム、情報処理方法、および学習プログラム

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11253999B2 (en) 2018-03-29 2022-02-22 Fanuc Corporation Machine learning device, robot control device and robot vision system using machine learning device, and machine learning method
JP2019171540A (ja) * 2018-03-29 2019-10-10 ファナック株式会社 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法
WO2019216427A1 (ja) * 2018-05-11 2019-11-14 株式会社 Preferred Networks リスク指標評価装置、リスク指標評価方法及びプログラム
WO2020075423A1 (ja) * 2018-10-10 2020-04-16 ソニー株式会社 ロボット制御装置、ロボット制御方法及びロボット制御プログラム
JP7207704B2 (ja) 2018-11-14 2023-01-18 旭鉄工株式会社 学習システム、及びロボット位置調整システム
JP2020078852A (ja) * 2018-11-14 2020-05-28 旭鉄工株式会社 学習システム、及びロボット位置調整システム
JP7247552B2 (ja) 2018-11-29 2023-03-29 京セラドキュメントソリューションズ株式会社 学習装置、ロボット制御装置、及びロボット制御システム
JP2020082314A (ja) * 2018-11-29 2020-06-04 京セラドキュメントソリューションズ株式会社 学習装置、ロボット制御装置、及びロボット制御システム
KR20200080372A (ko) * 2018-12-14 2020-07-07 삼성전자주식회사 로봇 장치 및 로봇의 작업 기술을 학습하는 방법
KR102619004B1 (ko) 2018-12-14 2023-12-29 삼성전자 주식회사 로봇 장치 및 로봇의 작업 기술을 학습하는 방법
WO2020122632A1 (ko) * 2018-12-14 2020-06-18 삼성전자 주식회사 로봇 장치 및 로봇의 작업 스킬을 학습하는 방법
US11911912B2 (en) 2018-12-14 2024-02-27 Samsung Electronics Co., Ltd. Robot control apparatus and method for learning task skill of the robot
JP6644191B1 (ja) * 2018-12-26 2020-02-12 三菱電機株式会社 ロボット制御装置、ロボット制御学習装置、及びロボット制御方法
WO2020153297A1 (ja) * 2019-01-25 2020-07-30 株式会社ソニー・インタラクティブエンタテインメント ロボット制御システム
JP2020116710A (ja) * 2019-01-25 2020-08-06 株式会社ソニー・インタラクティブエンタテインメント ロボット制御システム
JP7417356B2 (ja) 2019-01-25 2024-01-18 株式会社ソニー・インタラクティブエンタテインメント ロボット制御システム
JP7260402B2 (ja) 2019-05-31 2023-04-18 ファナック株式会社 ケーブルの状態を学習する機械学習装置、ロボットシステム、及び機械学習方法
JP2020196077A (ja) * 2019-05-31 2020-12-10 ファナック株式会社 ケーブルの状態を学習する機械学習装置、ロボットシステム、及び機械学習方法
CN110328674A (zh) * 2019-07-19 2019-10-15 东莞理工学院 一种激光切割机器人
JP2021022187A (ja) * 2019-07-29 2021-02-18 セイコーエプソン株式会社 プログラム移送システムおよびロボットシステム
JP7415356B2 (ja) 2019-07-29 2024-01-17 セイコーエプソン株式会社 プログラム移送システムおよびロボットシステム
JP2021065955A (ja) * 2019-10-21 2021-04-30 キヤノン株式会社 ロボット制御システム及びその制御方法及びプログラム
JP7458741B2 (ja) 2019-10-21 2024-04-01 キヤノン株式会社 ロボット制御装置及びその制御方法及びプログラム
WO2021106307A1 (ja) * 2019-11-27 2021-06-03 株式会社日立製作所 制御装置、制御方法、及びロボットシステム
JP2021084159A (ja) * 2019-11-27 2021-06-03 株式会社日立製作所 制御装置、制御方法、及びロボットシステム
JP7263217B2 (ja) 2019-11-27 2023-04-24 株式会社日立製作所 制御装置、制御方法、及びロボットシステム
DE112020006315T5 (de) 2020-02-27 2022-10-20 Mitsubishi Electric Corporation Robotersteuervorrichtung, robotersteuerverfahren und vorrichtung zur erzeugung von lernmodellen
JP2022013477A (ja) * 2020-07-01 2022-01-18 清一 安川 次世代人工知能とロボット(パラレルリンク(ロボティック・ポッド)など)を組み合わせた次世代ロボット
WO2023106576A1 (ko) * 2021-12-10 2023-06-15 김판수 행동 모사 플랫폼 서비스 제공 시스템

Also Published As

Publication number Publication date
US20180079076A1 (en) 2018-03-22
US11511420B2 (en) 2022-11-29
DE102017008475A1 (de) 2018-03-22
CN107825422A (zh) 2018-03-23
DE102017008475B4 (de) 2021-08-12
JP6514166B2 (ja) 2019-05-15

Similar Documents

Publication Publication Date Title
JP6514166B2 (ja) ロボットの動作プログラムを学習する機械学習装置,ロボットシステムおよび機械学習方法
JP6438450B2 (ja) レーザ加工ロボットの加工順序を学習する機械学習装置、ロボットシステムおよび機械学習方法
JP6240689B2 (ja) 人の行動パターンを学習する機械学習装置、ロボット制御装置、ロボットシステム、および機械学習方法
JP6517762B2 (ja) 人とロボットが協働して作業を行うロボットの動作を学習するロボットシステム
JP6810087B2 (ja) 機械学習装置、機械学習装置を用いたロボット制御装置及びロボットビジョンシステム、並びに機械学習方法
JP7342491B2 (ja) 推論装置、推論方法、及び推論プログラム
US10706331B2 (en) Task execution system, task execution method, training apparatus, and training method
US10500721B2 (en) Machine learning device, laminated core manufacturing apparatus, laminated core manufacturing system, and machine learning method for learning operation for stacking core sheets
US20180089589A1 (en) Machine learning device and machine learning method for learning optimal object grasp route
CN106873585A (zh) 一种导航寻路方法、机器人及***
US10796226B2 (en) Laser processing apparatus and machine learning device
Passalis et al. Continuous drone control using deep reinforcement learning for frontal view person shooting
JP2019030941A (ja) 制御装置及び学習装置
EP3671555A1 (en) Object shape regression using wasserstein distance
Maravall et al. Vision-based anticipatory controller for the autonomous navigation of an UAV using artificial neural networks
Hafez et al. Deep intrinsically motivated continuous actor-critic for efficient robotic visuomotor skill learning
CN110111359A (zh) 多目标对象跟踪方法、执行该方法的设备和计算机程序
Ravichandar et al. Human intention inference and motion modeling using approximate em with online learning
JP2020121381A (ja) 機械学習器、ロボットシステム、及び機械学習方法
Hafez et al. Improving robot dual-system motor learning with intrinsically motivated meta-control and latent-space experience imagination
Hafez et al. Efficient intrinsically motivated robotic grasping with learning-adaptive imagination in latent space
Rottmann et al. Adaptive autonomous control using online value iteration with gaussian processes
Lee et al. Early failure detection of deep end-to-end control policy by reinforcement learning
Trombetta et al. Variable structure human intention estimator with mobility and vision constraints as model selection criteria
Weilong et al. A bionic simultaneous location and mapping with closed-loop correction based on dynamic recognition threshold

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180906

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180918

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190411

R150 Certificate of patent or registration of utility model

Ref document number: 6514166

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150