JP2016159407A - ロボット制御装置およびロボット制御方法 - Google Patents
ロボット制御装置およびロボット制御方法 Download PDFInfo
- Publication number
- JP2016159407A JP2016159407A JP2015041691A JP2015041691A JP2016159407A JP 2016159407 A JP2016159407 A JP 2016159407A JP 2015041691 A JP2015041691 A JP 2015041691A JP 2015041691 A JP2015041691 A JP 2015041691A JP 2016159407 A JP2016159407 A JP 2016159407A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- worker
- state
- learning
- learning information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/4155—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by programme execution, i.e. part programme or machine function execution, e.g. selection of a programme
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/06—Safety devices
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1674—Programme controls characterised by safety, monitoring, diagnostic
- B25J9/1676—Avoiding collision or forbidden zones
-
- F—MECHANICAL ENGINEERING; LIGHTING; HEATING; WEAPONS; BLASTING
- F16—ENGINEERING ELEMENTS AND UNITS; GENERAL MEASURES FOR PRODUCING AND MAINTAINING EFFECTIVE FUNCTIONING OF MACHINES OR INSTALLATIONS; THERMAL INSULATION IN GENERAL
- F16P—SAFETY DEVICES IN GENERAL; SAFETY DEVICES FOR PRESSES
- F16P3/00—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body
- F16P3/12—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine
- F16P3/14—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact
- F16P3/142—Safety devices acting in conjunction with the control or operation of a machine; Control arrangements requiring the simultaneous use of two or more parts of the body with means, e.g. feelers, which in case of the presence of a body part of a person in or near the danger zone influence the control or operation of the machine the means being photocells or other devices sensitive without mechanical contact using image capturing devices
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N7/00—Computing arrangements based on specific mathematical models
- G06N7/01—Probabilistic graphical models, e.g. probabilistic networks
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/39—Robotics, robotics to robotics hand
- G05B2219/39205—Markov model
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40116—Learn by operator observation, symbiosis, show, watch
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40201—Detect contact, collision with human
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40202—Human robot coexistence
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10S—TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10S901/00—Robots
- Y10S901/02—Arm motion controller
- Y10S901/03—Teaching system
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Engineering & Computer Science (AREA)
- Mechanical Engineering (AREA)
- Software Systems (AREA)
- Robotics (AREA)
- Computing Systems (AREA)
- Mathematical Physics (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Data Mining & Analysis (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computational Mathematics (AREA)
- Pure & Applied Mathematics (AREA)
- Mathematical Analysis (AREA)
- Medical Informatics (AREA)
- Mathematical Optimization (AREA)
- Manufacturing & Machinery (AREA)
- Automation & Control Theory (AREA)
- Algebra (AREA)
- Probability & Statistics with Applications (AREA)
- Manipulator (AREA)
Abstract
Description
そこで、特許文献1に記載の手法では、境界を横切るような動作などの各種の動作の監視に用いる監視境界を2つ設ける。そして、いずれか一方の監視境界を、無効な監視境界とし、さらにその無効な監視境界を、2つの監視境界で切替え可能にする。つまり、2つの監視境界の間の領域は、作業者とロボットが排他に進入可能な領域となり、安全性を向上させつつ、ロボットと作業者が共存する空間で作業を行うことができるようにしている。
本発明は前述の問題点に鑑み、監視境界などを用いて作業空間中に領域を定義することなく、ロボットと作業者が共存する空間で安全に作業をすることを可能にし、生産性を向上させることを目的とする。
本実施形態に係るロボット制御装置は、ロボットと作業者が共存する空間で作業をする場合において、事前にロボットと作業者の作業における時系列の状態を学習した学習情報を用いる。現在作業している作業者とロボットの時系列の状態が、学習した作業者とロボットの時系列の状態である確率が高ければ、ロボットは動作を継続するように制御する。また、学習時の作業者とロボットの時系列の状態である確率が低ければ、動作を停止もしくは減速するように制御する。このように、事前に学習した情報を用いてロボットを制御することで、ロボットと作業者が共存する空間で作業をする場合においても安全性を確保しつつ、生産性を向上させるようにしたものである。
図2の事例では、ロボット103と、センサ102がロボット制御装置101に接続されている。ロボット103には、ハンド205が接続されている。また、ハンド205は作業対象206を把持している。203は作業者であり、作業者203においても作業者の手207で作業対象208を把持している状態である。また、ロボット座標系211が定義されている。
次の状態では、ロボット103は把持している作業対象206を作業台210の上に配置されている作業対象209に組み付ける。同時に、作業者203も、把持している作業対象208を作業台210の上に配置している作業対象209に組み付ける事例である。
図1は、本実施形態におけるロボット制御装置101の構成例を示すブロック図である。102は、作業者203の状態を感知するセンサ、103はロボットである。104は、センサ102からの情報を元に作業者203の状態を検出する検出部である。105は、ロボット103の状態と作業者203の状態を時系列に学習した学習情報を保持する学習情報保持部である。106は、ロボット103、検出部104、学習情報保持部105から入力される情報に基づいてロボット103の動作を判断する判断部である。107は、判断部106から入力される情報に基づいてロボット103を制御する制御部である。
まず、センサ102は、作業者の状態を感知する装置である。センサ102は、検出部104が作業者の状態を認識可能な情報を出力する必要がある。ここで、作業者の状態とは、作業者の振る舞いを表現するためのパラメータである。本実施例の作業者の状態とは、図2で定義したロボット座標系211から見た作業者の手の位置である。
学習情報保持部105は、事前にロボット103とセンサ102の状態の変化を学習したモデル情報が記録されている。
学習情報保持部105に記録されているモデル情報は、作業者とロボットが作業をする動作から生成したモデル情報である。モデル情報は、そのモデルの構造とパラメータで構成される。
まず、モデルの構造であるが、伸縮する可能性のある信号パターンに適した、隠れマルコフモデルを用いる。
具体的には、図5の(b)の501のような、状態503と状態遷移502で構成されたモデルである。
各状態s1、s2、s3は確率密度関数であり、それぞれの状態は、図5(c)の504、505、506のような正規分布の確率密度関数である。
モデルの学習とは、図5(b)に示した各状態の遷移確率、a11、a12、a21、a22、a31のパラメータ、および図5(c)に示した各状態の正規分布の確率密度関数のパラメータ、平均m1、m2、m3、分散v1、v2、v3を求めることである。
また、図3(a)では作業者203の手の位置を301から302まで移動させる動作を表している。
図3(b)の手の位置のグラフ303について詳細に説明する。
グラフ303は、横軸が時間、縦軸が図2記載のロボット座標系211のZ軸方向の位置である。
作業者203の手の位置は、3次元で表すことができる。しかし、ここでは、説明を簡略化するためにZ軸の座標のみを用いる。
3次元に拡張する場合は、図5(b)に示したモデル501をZ軸だけでなくXY軸についても用意すればよい。
図3(b)では、初期位置からc1の位置までをs1、c1からc2の位置までをs2、c2から最終位置をs3とする。このグループ分けを行うことで、それぞれのグループで入力される手の位置の値の傾向別に学習した結果が得られる。グループ化する理由は、グループを分けない場合に比べて、より動作の特徴を反映した、学習結果が得られるという効果があるからである。
均等に分割する理由は、c1に達する時間が変わったとしても、同様の学習モデルを使用できるからである。
学習のためのロボット103の動作の時系列の状態の取得方法は、図4(a)のように、ロボット103の関節の角度情報をロボット103の関節に内蔵されているエンコーダーの情報を読み取ることで得る。ロボット103の関節の角度が分かれば、順運動学(forward kinematics)の計算で、ロボット103のハンドの位置が分かる。
また、図4では、ロボット103のハンドの位置を401から402まで移動させる動作を表している。
図4では、一つの関節の動作に着目しているが、もちろん状態を取得する関節は1つに限る必要はない。ロボット103の作業の動作を代表する部位であれば、複数用いてもよい。さらに、図4(a)のロボット103が把持している作業対象206の状態をロボット103の状態に含めて、動作を取得してもよい。作業対象206の状態を含めることで、部品の脱落や把持の失敗に対しても対応できるという効果がある。
次に、区切った各状態のs1、s2、s3のデータの平均と分散を求める。結果として、動作のサンプル304、305、306が学習に用いる全てのサンプルとした場合は以下のようになる。状態s1の平均はm1=0.17、分散はv1=0.0075、状態s2の平均はm2=0.4、分散は、v2=0.024、状態s3の平均はm3=-0.4、分散はv3=0.024となる。それぞれをグラフで表すと、図5(c)の504〜506のようになる。
求めたパラメータの結果を図示すると、図15の(b)の1503のようになる。
加えて、モデルのパラメータの保持方法について、図14を用いて説明する。モデルのパラメータの保持は、XML(Extensible Markup Language)形式で保持される。
1つのモデルは、タグ<model>で囲まれたデータで保持される。初期の状態の名前をタグ<startState>で保持する。1つのモデルは複数の状態を保持する。
1つの状態は、タグ<state>で囲まれたデータで保持される。状態の名前は、タグ<name>で保持される。また、状態遷移の情報はタグ<transition>で囲まれる領域で保持される。状態遷移先の状態名はタグ<next>で保持され、状態遷移確率はタグ<probability>で保持される。状態の確率密度関数は、関数はタグ<function>で保持され、関数名はタグ<distribution>で保持される。また、その関数のパラメータはタグ<parameter>で保持する。
学習されたモデル図15(b)の1503を得るまでの手順について、図6を用いて説明する。
S601において、まず作業者203に学習する対象の作業の開始を通知する。通知後、ロボット103が動作を開始し、作業者203も動作を開始する。
S602において、学習する対象の作業をする作業者203とロボット103の状態を時系列に記録する。
制御部107は、図示しないCPU、ROM、RAM等からなるコンピュータシステムを有する。図6、図7、図8、図10及び図12のフローチャートの処理は、ROMに記憶されたプログラムをRAMに展開し、CPUが実行することで実現する。
図5(a)にサンプルにより、学習したモデル図15(b)の1503に対して、作業者203の動作の時系列の状態1501および1502が入力されたとする。1501は、学習時と近い動作を行った場合の作業者203の動作の時系列の状態であり、1502は、学習時と異なる動作を行った場合の作業者203の動作の時系列の状態である。
ここで、ロボット103についての計算方法は作業者と同様であるため、説明を省略する。
ここで説明のために、数1で示した状態遷移xは一種類のみとする。つまり、図15の(a)のように、xはs1、s1、s1、s2、s2、s3、s3の順番で遷移する。
作業者203の動作の時系列の状態1501が入力された場合であるが、s1、s1、s1、s2、s2、s3、s3の順番で遷移するので、数1の右辺P(x|M)は、数2のようになる。
次に、作業者203の動作の時系列の状態1502の場合であるが、数1の右辺P(x|M)は、状態遷移が同様であるため、状態1501と同様に数2のようになる。
続いて、数1の右辺P(y|x)は、各状態s1、s2、s3の確率密度関数に、作業者203の動作の時系列の状態1502の値を代入し、数5のようになる。
制御部107は、判断部106から入力したロボット103の動作の情報に基づいて、ロボット103の動作を制御する。
S701において、検出部104はセンサ102から入力した情報を元に作業者203の状態を判断部106に出力する。また、ロボット103の状態の情報をロボット103から得て、判断部106に出力する。
ここで、学習情報保持部105から入力されたモデルの情報が複数ある場合、例えばロボット103と作業者203でそれぞれモデルがある場合。その場合には、全てのモデルを評価する。全てのモデルの確率が閾値以上であると判断された場合に、ステップS703において、S704に遷移する。
また、一つのモデルでも閾値より小さい確率であるならば、S703において、S705に遷移する。
S706において、制御部107は、現在の作業が完了か否かを判断し、現在の作業が完了していないならば、S701に戻り、完了していれば終了する。
本実施形態におけるロボット制御装置は、第1の実施形態と同様に、ロボットと作業者が共存する空間で作業する場合において、事前にロボットおよび作業者の作業の時系列の状態を学習した学習情報を用いる。そして、現在作業している作業者とロボットの時系列の状態が、学習時の作業者とロボットの時系列の状態である確率が高ければ、ロボットは動作を継続するように制御する。また、学習時の作業者とロボットの時系列の状態である確率が低ければ、動作を停止もしくは減速するように制御する。
判断部106は、ロボット103の動作を判断する際に、第1の実施形態で説明した数1より得た確率と事前に設定した閾値を比較し判断する。数1より得た確率が閾値を上回る場合は、ロボット103の動作を継続する制御信号を制御部107に出力する。
S801において、検出部104は、センサ102から入力した情報を元に作業者203の状態を検出して判断部106に出力する。また、ロボット103の状態の情報をロボット103から得て、判断部106に出力する。
S804において、判断部106で算出した確率が閾値以上であることにより、ロボット103および作業者203が正常な動作であると判断し、ロボット103の動作を継続するように制御部107でロボット103の動作制御を行う。
S806において、判断部106で算出した確率が閾値以下であるので、作業者203に危険が及ぶ可能性有りと判断し、ロボット103の動作を停止もしくは減速するように制御部107でロボットの動作制御を行う。
第3の実施形態におけるロボット制御装置は、第1の実施形態と同様に、ロボットと作業者が共存する空間で作業する場合において、事前にロボットおよび作業者の作業の時系列の状態を学習した学習情報を用いる。そして、現在作業している作業者とロボットの時系列の状態が、学習時の作業者とロボットの時系列の状態である確率が高ければ、ロボットは動作を継続するように制御する。また、学習時の作業者とロボットの時系列の状態である確率が低ければ、動作を停止もしくは減速するように制御する。
学習情報更新部902は、ロボット103から出力されるロボット103の時系列の状態、検出部104から出力される作業者203の時系列の状態に基づいて、学習情報保持部105のモデルのパラメータを更新する。具体的には、パラメータの推定に用いる、サンプルの情報を追加し、再度パラメータを計算する。その結果、サンプル情報が増えることでパラメータの推定精度が向上する。
S1001において、検出部104はセンサ102から入力した情報を元に作業者203の状態を検出し、判断部106に出力する。また、ロボット103の状態の情報をロボット103から得て、判断部106に出力する。
S1002において、判断部106は、検出部104から作業者203の情報を入力する。また、ロボット103の状態の情報をロボット103から入力し、学習情報保持部105からモデルの情報を入力する。入力された情報から確率を算出し、閾値と比較し判断する。
S1006において、現在の作業が完了しているか否かを判断し、現在の作業が完了していないならば、S1001に戻り、完了していれば終了する。
S1007において、判断部106で算出した確率が閾値以下であるので、作業者に危険が及ぶ可能性があると判断し、ロボット103の動作を停止、もしくは減速するように制御部107でロボット103の制御を行う。
このようにすることで、ロボットの稼働率を向上させ、ロボットと作業者が共存する空間で作業をする場合においても安全性を確保しつつ、生産性を向上させる効果を得ることができる。
第4の実施形態におけるロボット制御装置は、ロボットと作業者が共存する空間で作業する場合において、事前にロボットおよび作業者の作業の時系列の状態を学習した学習情報を用いる。現在作業している作業者とロボットの時系列の状態が、学習時の作業者とロボットの時系列の状態である確率が高ければ、ロボットは動作を継続するように制御する。
図11に、作業者203の視線1101の延長である、ハンド205に対して注視している図を示した。
判断部106は、第1の実施形態で説明した数1より得た確率と事前に設定した閾値を比較し判断する。数1より得た確率が閾値を上回る場合は、ロボット103の動作を継続する制御信号を制御部107に出力する。
S1201において、検出部104は、センサ102から入力した情報を元に作業者203の状態を判断部106に出力する。また、ロボット103の状態の情報をロボット103から得て、判断部106に出力する。
S1205において、判断部106で作業者203がロボット103を注視しているかどうか判断し、作業者203がロボット103を注視している場合は、S1204に遷移する。作業者203がロボット103を注視していない場合は、S1207に遷移する。
S1207において、作業者がロボットを注視していないので、作業者に危険が及ぶ可能性があると判断し、ロボットの動作を停止もしくは減速するように制御部107でロボットの制御を行う。
一方、学習した作業者とロボットの時系列の状態である確率が低い場合に、作業者がロボットの動作を注視していない場合は、動作を停止もしくは減速するように制御する。
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
102 センサ
103 ロボット
104 検出部
105 学習情報保持部
106 判断部
107 制御部
Claims (9)
- 作業者とロボットの時系列の状態を検出してロボットを制御するロボット制御装置であって、
作業者の状態を検出する検出手段と、
ロボットおよび作業者の時系列の状態を学習した学習情報を保持する学習情報保持手段と、
前記検出手段から出力された作業者の状態と、ロボットの状態と、前記学習情報保持手段から出力される学習情報に基づいて、ロボットの動作を判断する判断手段と、
前記判断手段から出力される情報に基づいて、ロボットの動作を制御する制御手段とを有することを特徴とするロボット制御装置。 - 前記作業者の状態は、作業者の作業対象の状態を含むことを特徴とする請求項1に記載のロボット制御装置。
- 前記ロボットの状態は、ロボットの作業対象の状態を含むことを特徴とする請求項1に記載のロボット制御装置。
- 前記検出手段から出力された作業者の状態と、ロボットの状態と、前記学習情報保持手段から出力される学習情報に基づいて学習情報を更新し、更新した学習情報を前記学習情報保持手段に出力する学習情報更新手段をさらに有することを特徴とする請求項1〜3の何れか1項に記載のロボット制御装置。
- 前記判断手段は、ロボットの動作を停止または減速させる情報を前記制御手段に出力することを特徴とする請求項1〜4の何れか1項に記載のロボット制御装置。
- 前記判断手段は、ロボットの動作を停止または減速させる情報を前記制御手段に出力した後に、再度、前記検出手段から出力された作業者の状態と、ロボットの状態と、前記学習情報保持手段から出力される学習情報に基づいて、ロボットの動作を判断することを特徴とする請求項1〜5の何れか1項に記載のロボット制御装置。
- 前記作業者の状態は、作業者の注視している対象を含むことを特徴とする請求項1〜6の何れか1項に記載のロボット制御装置。
- 作業者とロボットの時系列の状態を検出してロボットを制御するロボット制御方法であって、
作業者の状態を検出する検出工程と、
ロボットおよび作業者の時系列の状態を学習した学習情報を保持する学習情報保持工程と、
前記検出工程から出力された作業者の状態と、ロボットの状態と、前記学習情報保持工程から出力される学習情報に基づいて、ロボットの動作を判断する判断工程と、
前記判断工程から出力される情報に基づいて、ロボットの動作を制御する制御工程とを有することを特徴とするロボット制御方法。 - 請求項1〜7の何れか1項に記載のロボット制御装置の各手段を構成するプログラムをコンピュータに実行させるためのプログラム。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015041691A JP6494331B2 (ja) | 2015-03-03 | 2015-03-03 | ロボット制御装置およびロボット制御方法 |
US15/051,893 US20160260027A1 (en) | 2015-03-03 | 2016-02-24 | Robot controlling apparatus and robot controlling method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015041691A JP6494331B2 (ja) | 2015-03-03 | 2015-03-03 | ロボット制御装置およびロボット制御方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016159407A true JP2016159407A (ja) | 2016-09-05 |
JP6494331B2 JP6494331B2 (ja) | 2019-04-03 |
Family
ID=56846006
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015041691A Active JP6494331B2 (ja) | 2015-03-03 | 2015-03-03 | ロボット制御装置およびロボット制御方法 |
Country Status (2)
Country | Link |
---|---|
US (1) | US20160260027A1 (ja) |
JP (1) | JP6494331B2 (ja) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018062016A (ja) * | 2016-10-11 | 2018-04-19 | ファナック株式会社 | 人の行動を学習してロボットを制御する制御装置、ロボットシステムおよび生産システム |
JP2018075679A (ja) * | 2016-11-10 | 2018-05-17 | ファナック株式会社 | 協働動作領域を有するロボットシステム |
JP6403920B1 (ja) * | 2017-11-17 | 2018-10-10 | 三菱電機株式会社 | 3次元空間監視装置、3次元空間監視方法、及び3次元空間監視プログラム |
CN108858184A (zh) * | 2017-05-11 | 2018-11-23 | 发那科株式会社 | 机器人控制装置以及计算机可读介质 |
CN109032052A (zh) * | 2018-06-26 | 2018-12-18 | 上海常仁信息科技有限公司 | 基于机器人身份证的紧急状况智能控制*** |
JP2019030941A (ja) * | 2017-08-08 | 2019-02-28 | ファナック株式会社 | 制御装置及び学習装置 |
WO2019225747A1 (ja) * | 2018-05-25 | 2019-11-28 | 川崎重工業株式会社 | ロボットシステム及びロボット制御方法 |
WO2019225746A1 (ja) * | 2018-05-25 | 2019-11-28 | 川崎重工業株式会社 | ロボットシステム及び追加学習方法 |
WO2020213194A1 (ja) * | 2019-04-15 | 2020-10-22 | 日本金銭機械株式会社 | 表示制御システム、および、表示制御方法 |
JP2022545296A (ja) * | 2019-12-06 | 2022-10-26 | 三菱電機株式会社 | 人間-ロボットチームによって実行されるタスクを用いた個別製造プロセスにおける高度な異常検出のためのシステムおよび方法 |
JP2022546644A (ja) * | 2019-12-06 | 2022-11-04 | 三菱電機株式会社 | 人間-ロボット混在製造プロセスにおける自動異常検出のためのシステムおよび方法 |
JP7427113B2 (ja) | 2020-05-21 | 2024-02-02 | イントリンジック イノベーション エルエルシー | ロボットデモンストレーション学習用スキルテンプレート |
JP7487338B2 (ja) | 2020-05-21 | 2024-05-20 | イントリンジック イノベーション エルエルシー | 分散型ロボット実証学習 |
JP7487341B2 (ja) | 2020-05-21 | 2024-05-20 | イントリンジック イノベーション エルエルシー | ロボット実証学習のためのスキルテンプレート配布 |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10789543B1 (en) * | 2014-10-24 | 2020-09-29 | University Of South Florida | Functional object-oriented networks for manipulation learning |
EP3189947A1 (de) * | 2016-01-07 | 2017-07-12 | Sick Ag | Verfahren zum konfigurieren und zum betreiben einer überwachten automatisierten arbeitszelle und konfigurationsvorrichtung |
DE102016100445A1 (de) * | 2016-01-12 | 2017-07-13 | Pilz Gmbh & Co. Kg | Sicherheitseinrichtung und Verfahren zum Überwachen einer Maschine |
JP6688088B2 (ja) | 2016-01-19 | 2020-04-28 | キヤノン株式会社 | 情報処理装置およびその制御方法 |
US10171730B2 (en) | 2016-02-15 | 2019-01-01 | Canon Kabushiki Kaisha | Information processing apparatus, method of controlling information processing apparatus, and storage medium |
JP6740033B2 (ja) | 2016-06-28 | 2020-08-12 | キヤノン株式会社 | 情報処理装置、計測システム、情報処理方法及びプログラム |
JP6633584B2 (ja) * | 2017-10-02 | 2020-01-22 | ファナック株式会社 | ロボットシステム |
US11144786B2 (en) | 2017-11-02 | 2021-10-12 | Canon Kabushiki Kaisha | Information processing apparatus, method for controlling information processing apparatus, and storage medium |
US11003939B2 (en) | 2018-07-06 | 2021-05-11 | Canon Kabushiki Kaisha | Information processing apparatus, information processing method, and storage medium |
JP7333204B2 (ja) * | 2018-08-10 | 2023-08-24 | 川崎重工業株式会社 | 情報処理装置、ロボット操作システム、及びロボット操作方法 |
JP2020099019A (ja) * | 2018-12-19 | 2020-06-25 | 株式会社日立製作所 | 機器制御装置及び機器制御システム |
JP7235596B2 (ja) * | 2019-05-31 | 2023-03-08 | ファナック株式会社 | 協働ロボットシステム |
JP7448327B2 (ja) * | 2019-09-26 | 2024-03-12 | ファナック株式会社 | 作業員の作業を補助するロボットシステム、制御方法、機械学習装置、及び機械学習方法 |
EP3838505A1 (en) * | 2019-12-20 | 2021-06-23 | Robert Bosch GmbH | Interacting with an unsafe physical environment |
JP2022056085A (ja) | 2020-09-29 | 2022-04-08 | キヤノン株式会社 | 情報処理装置、情報処理方法、及び、プログラム |
DE102021006546A1 (de) | 2020-12-29 | 2022-07-28 | B-Horizon GmbH | Verfahren zum nutzerabhängigen Betreiben zumindest eines Datenverarbeitungssystems |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004017256A (ja) * | 2002-06-19 | 2004-01-22 | Toyota Motor Corp | 人間と共存するロボットの制御装置と制御方法 |
JP2004243427A (ja) * | 2003-02-12 | 2004-09-02 | Yaskawa Electric Corp | ロボット制御装置およびロボット制御方法 |
JP2010120139A (ja) * | 2008-11-21 | 2010-06-03 | New Industry Research Organization | 産業用ロボットの安全制御装置 |
JP2010188515A (ja) * | 2009-01-26 | 2010-09-02 | Fanuc Ltd | 人間とロボットとの協調動作領域を有する生産システム |
JP2011125975A (ja) * | 2009-12-18 | 2011-06-30 | Denso Wave Inc | ロボットの干渉回避装置 |
-
2015
- 2015-03-03 JP JP2015041691A patent/JP6494331B2/ja active Active
-
2016
- 2016-02-24 US US15/051,893 patent/US20160260027A1/en not_active Abandoned
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004017256A (ja) * | 2002-06-19 | 2004-01-22 | Toyota Motor Corp | 人間と共存するロボットの制御装置と制御方法 |
JP2004243427A (ja) * | 2003-02-12 | 2004-09-02 | Yaskawa Electric Corp | ロボット制御装置およびロボット制御方法 |
JP2010120139A (ja) * | 2008-11-21 | 2010-06-03 | New Industry Research Organization | 産業用ロボットの安全制御装置 |
JP2010188515A (ja) * | 2009-01-26 | 2010-09-02 | Fanuc Ltd | 人間とロボットとの協調動作領域を有する生産システム |
JP2011125975A (ja) * | 2009-12-18 | 2011-06-30 | Denso Wave Inc | ロボットの干渉回避装置 |
Cited By (39)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018062016A (ja) * | 2016-10-11 | 2018-04-19 | ファナック株式会社 | 人の行動を学習してロボットを制御する制御装置、ロボットシステムおよび生産システム |
US10486306B2 (en) | 2016-10-11 | 2019-11-26 | Fanuc Corporation | Control device for controlling robot by learning action of person, robot system, and production system |
JP2018075679A (ja) * | 2016-11-10 | 2018-05-17 | ファナック株式会社 | 協働動作領域を有するロボットシステム |
CN108068111A (zh) * | 2016-11-10 | 2018-05-25 | 发那科株式会社 | 具有协同动作区域的机器人*** |
US10179409B2 (en) | 2016-11-10 | 2019-01-15 | Fanuc Corporation | Robot system having cooperative operating region |
CN108068111B (zh) * | 2016-11-10 | 2019-01-25 | 发那科株式会社 | 具有协同动作区域的机器人*** |
US10486307B2 (en) | 2017-05-11 | 2019-11-26 | Fanuc Corporation | Robot control device and computer readable medium |
CN108858184A (zh) * | 2017-05-11 | 2018-11-23 | 发那科株式会社 | 机器人控制装置以及计算机可读介质 |
DE102018206077B4 (de) | 2017-05-11 | 2019-10-10 | Fanuc Corporation | Robotersteuerungsvorrichtung und Robotersteuerungsprogramm |
US10953538B2 (en) | 2017-08-08 | 2021-03-23 | Fanuc Corporation | Control device and learning device |
JP2019030941A (ja) * | 2017-08-08 | 2019-02-28 | ファナック株式会社 | 制御装置及び学習装置 |
CN111372735A (zh) * | 2017-11-17 | 2020-07-03 | 三菱电机株式会社 | 3维空间监视装置、3维空间监视方法及3维空间监视程序 |
KR20200054327A (ko) | 2017-11-17 | 2020-05-19 | 미쓰비시덴키 가부시키가이샤 | 3차원 공간 감시 장치, 3차원 공간 감시 방법, 및 3차원 공간 감시 프로그램 |
WO2019097676A1 (ja) * | 2017-11-17 | 2019-05-23 | 三菱電機株式会社 | 3次元空間監視装置、3次元空間監視方法、及び3次元空間監視プログラム |
JP6403920B1 (ja) * | 2017-11-17 | 2018-10-10 | 三菱電機株式会社 | 3次元空間監視装置、3次元空間監視方法、及び3次元空間監視プログラム |
DE112017008089T5 (de) | 2017-11-17 | 2020-07-02 | Mitsubishi Electric Corporation | Vorrichtung zur Überwachung eines dreidimensionalen Raumes, Verfahren zur Überwachung eines dreidimensionalen Raumes und Programm zur Überwachung eines dreidimensionalen Raumes |
JP7167141B2 (ja) | 2018-05-25 | 2022-11-08 | 川崎重工業株式会社 | ロボットシステム及び追加学習方法 |
KR102403073B1 (ko) * | 2018-05-25 | 2022-05-30 | 카와사키 주코교 카부시키가이샤 | 로봇 시스템 및 추가 학습 방법 |
US11919164B2 (en) | 2018-05-25 | 2024-03-05 | Kawasaki Jukogyo Kabushiki Kaisha | Robot system and robot control method |
KR102477585B1 (ko) * | 2018-05-25 | 2022-12-14 | 카와사키 주코교 카부시키가이샤 | 로봇 시스템 및 로봇 제어방법 |
WO2019225747A1 (ja) * | 2018-05-25 | 2019-11-28 | 川崎重工業株式会社 | ロボットシステム及びロボット制御方法 |
WO2019225746A1 (ja) * | 2018-05-25 | 2019-11-28 | 川崎重工業株式会社 | ロボットシステム及び追加学習方法 |
KR20200127040A (ko) * | 2018-05-25 | 2020-11-09 | 카와사키 주코교 카부시키가이샤 | 로봇 시스템 및 로봇 제어방법 |
KR20210006431A (ko) * | 2018-05-25 | 2021-01-18 | 카와사키 주코교 카부시키가이샤 | 로봇 시스템 및 추가 학습 방법 |
JP2019202404A (ja) * | 2018-05-25 | 2019-11-28 | 川崎重工業株式会社 | ロボットシステム及びロボット制御方法 |
JPWO2019225746A1 (ja) * | 2018-05-25 | 2021-06-10 | 川崎重工業株式会社 | ロボットシステム及び追加学習方法 |
JP7039389B2 (ja) | 2018-05-25 | 2022-03-22 | 川崎重工業株式会社 | ロボットシステム及びロボット制御方法 |
CN109032052B (zh) * | 2018-06-26 | 2020-09-22 | 上海常仁信息科技有限公司 | 基于机器人身份证的紧急状况智能控制*** |
CN109032052A (zh) * | 2018-06-26 | 2018-12-18 | 上海常仁信息科技有限公司 | 基于机器人身份证的紧急状况智能控制*** |
JP2020172011A (ja) * | 2019-04-15 | 2020-10-22 | 日本金銭機械株式会社 | 表示制御システム、表示制御方法、および、プログラム |
WO2020213194A1 (ja) * | 2019-04-15 | 2020-10-22 | 日本金銭機械株式会社 | 表示制御システム、および、表示制御方法 |
JP2022545296A (ja) * | 2019-12-06 | 2022-10-26 | 三菱電機株式会社 | 人間-ロボットチームによって実行されるタスクを用いた個別製造プロセスにおける高度な異常検出のためのシステムおよび方法 |
JP2022546644A (ja) * | 2019-12-06 | 2022-11-04 | 三菱電機株式会社 | 人間-ロボット混在製造プロセスにおける自動異常検出のためのシステムおよび方法 |
JP7520122B2 (ja) | 2019-12-06 | 2024-07-22 | 三菱電機株式会社 | 人間-ロボットチームによって実行されるタスクを用いた個別製造プロセスにおける高度な異常検出のためのシステムおよび方法 |
JP7520123B2 (ja) | 2019-12-06 | 2024-07-22 | 三菱電機株式会社 | 人間-ロボット混在製造プロセスにおける自動異常検出のためのシステムおよび方法 |
JP7427113B2 (ja) | 2020-05-21 | 2024-02-02 | イントリンジック イノベーション エルエルシー | ロボットデモンストレーション学習用スキルテンプレート |
JP7487338B2 (ja) | 2020-05-21 | 2024-05-20 | イントリンジック イノベーション エルエルシー | 分散型ロボット実証学習 |
JP7487341B2 (ja) | 2020-05-21 | 2024-05-20 | イントリンジック イノベーション エルエルシー | ロボット実証学習のためのスキルテンプレート配布 |
US11986958B2 (en) | 2020-05-21 | 2024-05-21 | Intrinsic Innovation Llc | Skill templates for robotic demonstration learning |
Also Published As
Publication number | Publication date |
---|---|
US20160260027A1 (en) | 2016-09-08 |
JP6494331B2 (ja) | 2019-04-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6494331B2 (ja) | ロボット制御装置およびロボット制御方法 | |
KR102165967B1 (ko) | 3차원 공간 감시 장치, 3차원 공간 감시 방법, 및 3차원 공간 감시 프로그램 | |
JP6431017B2 (ja) | 機械学習により外力の検出精度を向上させた人協調ロボットシステム | |
CN105760824B (zh) | 一种运动人体跟踪方法和*** | |
KR102433931B1 (ko) | 움직임 인식 방법 및 움직임 인식 장치 | |
KR102416227B1 (ko) | 건설 객체 실시간 모니터링 장치 및 모니터링 방법 및 이를 실행하기 위한 컴퓨터프로그램 | |
JPWO2017183414A1 (ja) | 物体操作装置及び物体操作方法 | |
JP6897037B2 (ja) | 作業性評価装置 | |
JP2022035927A (ja) | ロボット障害回避処理方法、装置、ロボット | |
KR102046706B1 (ko) | 착용가능 디바이스를 사용하여 신경망 기반의 제스처 인식을 수행하는 기법 | |
JP6525542B2 (ja) | 異常検知方法、異常検知装置、及びプログラム | |
US11253997B2 (en) | Method for tracking multiple target objects, device, and computer program for implementing the tracking of multiple target objects for the case of moving objects | |
JP2009500709A (ja) | 物体の動きのパターンを認識する方法 | |
KR20190099537A (ko) | 동작 학습 장치, 기능 판별 장치 및 기능 판별 시스템 | |
JP2022103189A (ja) | 作業現場監視装置、作業現場監視システム、作業現場監視方法およびプログラム | |
JP7031685B2 (ja) | モデル学習装置、モデル学習方法及びコンピュータプログラム | |
EP3913527A1 (en) | Method and device for performing behavior prediction by using explainable self-focused attention | |
Nuzzi et al. | Hand gesture recognition for collaborative workstations: A smart command system prototype | |
JP2020513627A (ja) | インテリジェント盲導方法および装置 | |
EP3712802A1 (en) | Method for representing an environment of a mobile platform | |
KR102086193B1 (ko) | 멀티 핑거 터치 상호작용 동안의 패닝 및 스케일링을 검출하는 기법 | |
US11487351B2 (en) | Intelligent directing system in an internet of things (IoT) computing environment | |
CN106547339B (zh) | 计算机设备的控制方法和装置 | |
Simão et al. | Unsupervised gesture segmentation of a real-time data stream in MATLAB | |
RU2685996C1 (ru) | Способ и система предиктивного избегания столкновения манипулятора с человеком |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171220 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181225 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20190205 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20190305 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6494331 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |