JP2016209991A - ロボットの制御装置、制御方法およびシステム - Google Patents
ロボットの制御装置、制御方法およびシステム Download PDFInfo
- Publication number
- JP2016209991A JP2016209991A JP2016084451A JP2016084451A JP2016209991A JP 2016209991 A JP2016209991 A JP 2016209991A JP 2016084451 A JP2016084451 A JP 2016084451A JP 2016084451 A JP2016084451 A JP 2016084451A JP 2016209991 A JP2016209991 A JP 2016209991A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- human
- person
- contact
- recognition state
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 24
- 230000000007 visual effect Effects 0.000 claims description 34
- 230000008859 change Effects 0.000 claims description 11
- 238000004590 computer program Methods 0.000 claims 1
- 238000001514 detection method Methods 0.000 abstract description 12
- 230000004044 response Effects 0.000 description 23
- 230000008569 process Effects 0.000 description 20
- 230000009471 action Effects 0.000 description 17
- 210000003128 head Anatomy 0.000 description 16
- 238000000605 extraction Methods 0.000 description 11
- 238000003384 imaging method Methods 0.000 description 11
- 230000000875 corresponding effect Effects 0.000 description 10
- 230000004048 modification Effects 0.000 description 9
- 238000012986 modification Methods 0.000 description 9
- 238000012545 processing Methods 0.000 description 7
- 239000000284 extract Substances 0.000 description 6
- 241000282412 Homo Species 0.000 description 4
- 210000000056 organ Anatomy 0.000 description 3
- 230000007423 decrease Effects 0.000 description 2
- 230000008921 facial expression Effects 0.000 description 2
- 210000001747 pupil Anatomy 0.000 description 2
- 230000009467 reduction Effects 0.000 description 2
- 206010063659 Aversion Diseases 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 230000003111 delayed effect Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000001815 facial effect Effects 0.000 description 1
- 230000007794 irritation Effects 0.000 description 1
- OOYGSFOGFJDDHP-KMCOLRRFSA-N kanamycin A sulfate Chemical group OS(O)(=O)=O.O[C@@H]1[C@@H](O)[C@H](O)[C@@H](CN)O[C@@H]1O[C@H]1[C@H](O)[C@@H](O[C@@H]2[C@@H]([C@@H](N)[C@H](O)[C@@H](CO)O2)O)[C@H](N)C[C@@H]1N OOYGSFOGFJDDHP-KMCOLRRFSA-N 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 210000000697 sensory organ Anatomy 0.000 description 1
- 230000015541 sensory perception of touch Effects 0.000 description 1
- 230000000638 stimulation Effects 0.000 description 1
Images
Landscapes
- Manipulator (AREA)
Abstract
Description
特許文献2の安全制御装置は、ロボットと作業者が将来接触すると予測する場合には、ロボットを停止する。この予測は、作業者とロボットの現在位置および移動速度に基づいて行われる。したがって、特許文献2の安全制御装置では、作業者がロボットとの接触可能性を認識しているか否かに関わらずロボットを停止してしまうことがある。
本発明は、上記した従来技術の課題を解決すべく考案されたものであり、本発明の目的は、人間とロボットとの接触を回避すると共に、ロボットの作業効率をより向上することができるロボット制御装置を提供することである。
(実施形態1)
実施形態1では、撮像画像から取得される、ロボットと人間の接触を予測するのに用いる人間の位置情報と人間の認識状態を推定するのに用いる人間の情報とに基づいて、ロボットの危険回避動作を制御する。
図1は、実施形態1のロボットシステム100の構成を示している。ロボットシステム100は、ロボット101と、視覚センサ102と、ロボット制御装置10と、を有する。
ロボット制御装置10の制御部201は、ロボット101の動作を制御する。ロボット制御部201は、まず、作業者から指示(ティーチング)を受ける。具体的には、例えば、制御部201は、ロボット101により部品を位置Aから位置Bへ移動させる動作を指示(ティーチング)される。この指示は、例えば、作業者によって入力される。当該指示に基づき、制御部201は、障害物を回避して当該部品を位置Aから位置Bに移動するロボット101の軌道を生成(プランニング)する。ロボット101の軌道のデータは、ロボット101が位置Aから位置Bに部品を移動する際の、ロボット101を構成するアームとハンドの各部材の時系列の位置と関節角、および各部材の形状寸法を含む。
また、制御部201は、後述する危険回避対応動作決定部208で決定された危険回避対応動作に従って、ロボット101を制御する。
なお、部品の当初の位置が予め指定された位置でない場合は、視覚センサ102により部品の置いてある位置(当初の位置)Aを検出(取得)する。そして、取得した位置Aに基づき部品の移動先である位置Bへ部品を移動するロボット101の軌道をプランニングしてもよい。
ロボット位置取得部202は、制御部201に接続されており、制御部201が保持しているロボット101の軌道のデータを、制御部201から受け取る(取得する)。ロボット位置取得部202は、ロボット101の軌道のデータから、ロボット101を構成するアームとハンドが位置Aから位置Bへ部品を移動する際に通過する空間的な領域を、ロボット101の位置として算出する。
図2は、実施形態1のロボット制御装置10の処理の流れを示すフローチャートである。図2では、人間情報抽出部206が、人間の情報として、作業者の視線の向きを抽出(検出)する場合を説明する。
S100では、ロボット位置取得部202が、制御部201から受け取ったロボット101の軌道のデータに基づいて、ロボット101の位置(動作範囲)を算出する。より詳しくは、ロボット位置取得部202は、ロボットの軌道データに基づいて、ロボット101が位置Aから位置Bに移動する際に通過する空間的な領域を算出し、これをロボット101の位置とする(ロボット位置の取得)。
S300では、人間位置検出部204が、現在の人間の位置を検出する。より詳しくは、人間位置検出部204は、S200で取得した距離画像の点群を領域分割すると共に、二次元画像から人間の頭部を検出する。領域分割した距離画像の複数領域のうち、二次元画像の頭部に対応する点群を含む分割領域を人間の領域とし、この領域の点群を現在の人間の位置とする。人間の頭部の検出は、例えば、人間の肩から頭部の形状であるΩ形状を検出することにより行う。S300の後、S400に進む。
S400で予測した位置は、人間とロボット101が接触する可能性があるロボットの接触予測部分の位置となる。
S700では、人間情報抽出部206が、S200で取得した二次元画像から人間の頭部を検出し、人間の情報として、当該頭部から作業者の視線の向きを抽出(検出)する。作業者の視線の向きを検出するには、まず、顔の器官である目、鼻、口の局所的な明暗差を利用した、例えば、Haar-like特徴により顔の向きを検出して、その後、目の領域を抽出する。さらに、抽出した目の領域の中の瞳位置と顔の向きとから視線の向きを検出する。S700の後、S800に進む。S800では、認識状態推定部207が、人間の視野範囲を算出する。認識状態推定部207は、S700で検出した視線の向きを、人間の視野の中心とし、人間の視野角を、例えば、視野の中心に対して、横方向は左右に90度、縦方向は上が60度、下が70度として、視野範囲を算出する。S800の後、S900に進む。
S1000の判定がNoの場合、S1100に進む。S1100では、人間とロボット101との接触による危険を回避するため、ロボット101の動作を変更して第一の危険回避対応動作を実行する。第一の危険回避対応動作とは、ロボット101の動作を止めたり速度を遅くしたりといった変更を行う制御である。S1100の後、S1300に進む。
なお、図2の例では、S700において、人間情報抽出部206が、人間の情報として、人間の視線の向きを抽出(検出)するとしたが、人間の情報として、人間の顔の向きを抽出してもよい。つまり、人間の情報は、人間の視線の向きではなく、人間の顔の向きであってもよい。その場合、例えば、人間の顔がロボット101側にあるならば人間がロボット101を認識していると推定(判定)する。そして、人間の顔がロボット101を背にしているならば、人間がロボット101を認識していない(見ていない)と推定する。
さらに、本実施形態では、ロボット101の動作を変更した後に(S1100)、人間が移動した場合、再度S500の判断またはS1000の判断を行う。そして、S500で、ロボット101との接触の可能性がないと判断されれば、ロボット101の作業を元の速度で行うようにする。
図3は、実施形態1の変形例のロボットシステム110の構成を示す図である。この変形例の説明において、実施形態1と同様な構成要素には同じ参照符号を付け、当該構成要素の詳細な説明は省略する。
変形例のロボットシステム110は、ロボット101と、視覚センサ102と、ロボット制御装置14とを備えている。変形例のロボット101と視覚センサ102は、実施形態1と同じである。変形例のロボットシステム110のロボット制御装置14は、実施形態1のロボットシステム100のロボット制御装置10と異なっている。より詳しくは、実施形態1の危険回避対応動作決定部208が、変形例では危険回避対応動作決定部238になっている。また、実施形態1の認識状態推定部207が、変形例では認識状態推定部237になっている。
認識状態推定部237は、人間情報抽出部206で抽出した人間の顔の向きまたは視線の向きから、当該人間が予め設定した領域または方向を見ているかを判断する。そして、認識状態推定部237は、その判断結果に基づいて、人間がロボット101を見ている状態にあるのかを推定する。例えば、ロボット101が部品を位置Bに置いた後、人間が当該部品に他の部品を組み付ける場合、位置Bで人間とロボット101が接触する可能性がある。そこで、位置Bを含む位置Bの近傍の領域を予め設定しておき、当該領域が人間の視野範囲内にあるか否かで、人間がロボット101を見ているか否かを推定する。
よって、この変形例においても、接触予測と作業者の認識状態とに基づいてどのような危険回避制御を行うかを決定している。このような危険回避対応動作の決定を行うことにより、ロボット101の停止や減速の回数が減少する。つまり、ロボット101の作業が滞る機会が減少する。したがって、ロボット101との接触を回避することができると共に、ロボット101の作業効率(生産性)を向上することができる。
実施形態1では、ロボット101についての人間の認識状態は、人間がロボット101を見ているか否かで判断した。本発明は、このような態様に限定されない。例えば、ロボット101についての人間の認識状態は、人間がロボット101を見ていること以外のことも考慮してよい。実施形態2では、ロボット101と人間との接触回避のためどのような危険回避対応動作を行うかを判断する際の、ロボット101についての人間の認識状態は、人間がロボット101を見ていて、かつ、ロボット101を意識している状態にあるか否かで判断する。
S810では、S700で抽出した人間の視線の向きから、人間の視線の動きを算出する。実施形態1では、画像情報取得部203で取得した現在の画像から、現在の人間の情報(視線の向き)を抽出した。実施形態2では、現在の人間の情報だけでなく、過去に抽出した人間の情報(視線の向き)も利用することにより、視線の動きを算出する。例えば、視覚センサ102と画像情報取得部203により一定時間Δt毎に画像情報を取得していれば、時系列の視線の向きのデータが得られる。例えば、画像情報を取得した時刻をt、t+Δt、t+2・Δt、・・・とすると、時系列の視線の向きのデータは、時刻tにおけるデータ、時刻t+Δtにおけるデータ、時刻t+2・Δtにおけるデータ、・・・からなる。この時系列の視線の向きのデータから、人間の視線の動きを算出することができる。S810で視線の動きを算出したならば、S910に進む。
S1010の判定がNoの場合、S1100に進む。S1100の処理内容も実施形態1と同じである。人間の視線がロボット101の動きに追従していないので、危険回避対応動作を取る必要があると判断されて、ロボットを止めたり遅くしたりといった動作の変更を行う制御を実行する。
なお、図5の説明では、人間がロボット101を意識しているかどうかは、人間の視線の動きに基づいて判断したが、人間の顔の向きの動きに基づいて判断してもよい。
実施形態1では、ロボット101についての人間の認識状態は、人間がロボット101を見ている状態であるとした。また、実施形態2では、ロボットについての人間の認識状態は、人間がロボット101を見ていて、かつ、ロボット101を意識している状態であるとした。しかしながら、本発明における、ロボット101についての人間の認識状態は、上記した状態に限定されない。本発明における、ロボット101についての人間の認識状態は、人間がロボット101を認識しているか否かを推定(判断)できる状態であればどのようなものであってもよい。例えば、人間がロボット101を見ていなくても、人間に注意喚起がなされている状態(例えば、音、光、振動などにより人間にロボット101を意識させている状態)は、人間がロボット101について認識している状態であるとしてもよい。
Claims (14)
- ロボットの位置を取得する取得手段と、
人間を含む画像から前記人間の位置を検出する検出手段と、
前記ロボットの位置と前記人間の位置とに基づいて、前記ロボットと前記人間との接触を予測する予測手段と、
前記画像から抽出される前記人間に関する所定の情報に基づいて、前記ロボットについての前記人間の認識状態を推定する推定手段と、
前記予測手段の予測結果と前記推定手段の推定結果とに基づいて、前記ロボットの動作を制御する制御手段と、
を備えることを特徴とするロボット制御装置。 - 前記推定手段は、前記人間の認識状態として、前記人間が前記ロボットを見ているかを推定することを特徴とする請求項1記載のロボット制御装置。
- 前記画像から抽出される前記人間に関する所定の情報は、前記人間の視線の向きまたは前記人間の顔の向きであることを特徴とする請求項1記載のロボット制御装置。
- 前記推定手段は、前記人間の認識状態として、前記人間が所定の領域または方向を見ているかを推定することを特徴とする請求項1記載のロボット制御装置。
- 前記推定手段は、前記人間の認識状態として、前記人間が前記ロボットを見ていて、かつ、前記ロボットを意識しているかを推定することを特徴とする請求項1記載のロボット制御装置。
- 前記推定手段は、前記人間の視線の動きが前記ロボットの動きに追従している場合に、前記人間が前記ロボットを意識していると推定することを特徴とする請求項5記載のロボット制御装置。
- 前記推定手段は、前記人間の視野範囲内に前記ロボットの位置が入っている場合に、前記人間が前記ロボットを見ていると推定することを特徴とする請求項2、5または6に記載のロボット制御装置。
- 前記推定手段が、前記ロボットについての前記人間の認識状態は所定の認識状態にないと推定した場合、前記制御手段は、前記ロボットの第一の危険回避動作の制御を実行し、前記推定手段が、前記ロボットについての前記人間の認識状態は所定の認識状態にあると推定した場合、前記ロボットの第一の危険回避動作の制御と異なる、前記ロボットの第二の危険回避動作の制御を実行することを特徴とする請求項1乃至7のいずれか1項に記載のロボット制御装置。
- 前記第一の危険回避動作の制御とは、前記ロボットの動作を変更する制御であることを特徴とする請求項8記載のロボット制御装置。
- 前記第二の危険回避動作の制御とは、前記ロボットの動作を変更する、または、前記予測手段で前記ロボットと前記人間との接触予測に用いる距離のマージンを設定変更する、のうち少なくともいずれか一つを変更する制御であることを特徴とする請求項8または9に記載のロボット制御装置。
- さらに、人間が知覚可能な報知情報を報知する報知手段と、を備えることを特徴とする請求項1乃至10のいずれか1項に記載のロボット制御装置
- ロボットの位置を取得するステップと、
人間を含む画像から前記人間の位置を検出するステップと、
前記ロボットの位置と前記人間の位置とに基づいて、前記ロボットと前記人間との接触を予測する予測ステップと、
前記画像から抽出される前記人間に関する所定の情報に基づいて、前記ロボットについての前記人間の認識状態を推定する推定ステップと、
前記予測ステップの予測結果と前記推定ステップの推定結果とに基づいて、前記ロボットの動作を制御するステップと、
を有することを特徴とするロボット制御方法。 - 請求項1乃至11のいずれか1項に記載のロボット制御装置に、センサまたは前記ロボットのうち、少なくとも何れか1つ、を備えるロボットシステム。
- コンピュータが読み取り実行することで、前記コンピュータを、請求項1乃至11のいずれか1項に記載のロボット制御装置の各部として機能させるためのコンピュータプログラム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015093839 | 2015-05-01 | ||
JP2015093839 | 2015-05-01 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016209991A true JP2016209991A (ja) | 2016-12-15 |
JP6824622B2 JP6824622B2 (ja) | 2021-02-03 |
Family
ID=57549226
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016084451A Active JP6824622B2 (ja) | 2015-05-01 | 2016-04-20 | ロボットの制御装置、制御方法およびシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6824622B2 (ja) |
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018158393A (ja) * | 2017-03-22 | 2018-10-11 | 日本電気株式会社 | 安全制御装置、安全制御方法およびプログラム |
WO2019035362A1 (ja) * | 2017-08-18 | 2019-02-21 | 三菱電機株式会社 | ロボット制御装置およびこれを用いたロボットシステム |
JP2019141496A (ja) * | 2018-02-23 | 2019-08-29 | パナソニックIpマネジメント株式会社 | 相互作用装置、相互作用方法、相互作用プログラム及びロボット |
US10421187B2 (en) | 2017-01-26 | 2019-09-24 | Fanuc Corporation | Robot program modification device, robot control device, robot simulation device, and robot program modification method |
DE102019210012A1 (de) | 2018-07-12 | 2020-01-16 | Fanuc Corporation | Roboter |
WO2020075526A1 (ja) | 2018-10-12 | 2020-04-16 | ソニー株式会社 | 調理システム、および調理システムの制御方法、並びにプログラム |
JP2020189367A (ja) * | 2019-05-22 | 2020-11-26 | セイコーエプソン株式会社 | ロボットシステム |
US11254005B2 (en) | 2018-10-12 | 2022-02-22 | Fanuc Corporation | Robot control device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007181888A (ja) * | 2006-01-05 | 2007-07-19 | Advanced Telecommunication Research Institute International | コミュニケーションロボットシステム |
JP2008137127A (ja) * | 2006-12-04 | 2008-06-19 | Matsushita Electric Ind Co Ltd | ロボットの制御方法 |
WO2011089885A1 (ja) * | 2010-01-25 | 2011-07-28 | パナソニック株式会社 | 危険提示装置、危険提示システム、危険提示方法およびプログラム |
WO2012039280A1 (ja) * | 2010-09-21 | 2012-03-29 | トヨタ自動車株式会社 | 移動体 |
WO2014008929A1 (de) * | 2012-07-10 | 2014-01-16 | Siemens Aktiengesellschaft | Roboteranordnung und verfahren zum steuern eines roboters |
-
2016
- 2016-04-20 JP JP2016084451A patent/JP6824622B2/ja active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007181888A (ja) * | 2006-01-05 | 2007-07-19 | Advanced Telecommunication Research Institute International | コミュニケーションロボットシステム |
JP2008137127A (ja) * | 2006-12-04 | 2008-06-19 | Matsushita Electric Ind Co Ltd | ロボットの制御方法 |
WO2011089885A1 (ja) * | 2010-01-25 | 2011-07-28 | パナソニック株式会社 | 危険提示装置、危険提示システム、危険提示方法およびプログラム |
JPWO2011089885A1 (ja) * | 2010-01-25 | 2013-05-23 | パナソニック株式会社 | 危険提示装置、危険提示システム、危険提示方法およびプログラム |
WO2012039280A1 (ja) * | 2010-09-21 | 2012-03-29 | トヨタ自動車株式会社 | 移動体 |
WO2014008929A1 (de) * | 2012-07-10 | 2014-01-16 | Siemens Aktiengesellschaft | Roboteranordnung und verfahren zum steuern eines roboters |
Cited By (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10421187B2 (en) | 2017-01-26 | 2019-09-24 | Fanuc Corporation | Robot program modification device, robot control device, robot simulation device, and robot program modification method |
JP7052203B2 (ja) | 2017-03-22 | 2022-04-12 | 日本電気株式会社 | 安全制御装置、安全制御方法およびプログラム |
JP2018158393A (ja) * | 2017-03-22 | 2018-10-11 | 日本電気株式会社 | 安全制御装置、安全制御方法およびプログラム |
WO2019035362A1 (ja) * | 2017-08-18 | 2019-02-21 | 三菱電機株式会社 | ロボット制御装置およびこれを用いたロボットシステム |
JPWO2019035362A1 (ja) * | 2017-08-18 | 2019-11-07 | 三菱電機株式会社 | ロボット制御装置およびこれを用いたロボットシステム |
JP2019206080A (ja) * | 2017-08-18 | 2019-12-05 | 三菱電機株式会社 | ロボット制御装置およびこれを用いたロボットシステム |
JP2019141496A (ja) * | 2018-02-23 | 2019-08-29 | パナソニックIpマネジメント株式会社 | 相互作用装置、相互作用方法、相互作用プログラム及びロボット |
CN110181542A (zh) * | 2018-02-23 | 2019-08-30 | 松下知识产权经营株式会社 | 互动装置、互动方法、互动程序以及机器人 |
JP7109207B2 (ja) | 2018-02-23 | 2022-07-29 | パナソニックホールディングス株式会社 | 相互作用装置、相互作用方法、相互作用プログラム及びロボット |
JP2020006494A (ja) * | 2018-07-12 | 2020-01-16 | ファナック株式会社 | ロボット |
US11130241B2 (en) | 2018-07-12 | 2021-09-28 | Fanuc Corporation | Robot |
DE102019210012B4 (de) | 2018-07-12 | 2022-06-09 | Fanuc Corporation | Roboter |
DE102019210012A1 (de) | 2018-07-12 | 2020-01-16 | Fanuc Corporation | Roboter |
US11254005B2 (en) | 2018-10-12 | 2022-02-22 | Fanuc Corporation | Robot control device |
WO2020075526A1 (ja) | 2018-10-12 | 2020-04-16 | ソニー株式会社 | 調理システム、および調理システムの制御方法、並びにプログラム |
JP2020189367A (ja) * | 2019-05-22 | 2020-11-26 | セイコーエプソン株式会社 | ロボットシステム |
Also Published As
Publication number | Publication date |
---|---|
JP6824622B2 (ja) | 2021-02-03 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6824622B2 (ja) | ロボットの制御装置、制御方法およびシステム | |
US10379513B2 (en) | Monitoring system, monitoring device, and monitoring method | |
EP3715065B1 (en) | Controlling a robot in the presence of a moving object | |
US8816874B2 (en) | Danger presentation device, danger presentation system, danger presentation method and program | |
US9122266B2 (en) | Camera-based monitoring of machines with mobile machine elements for collision prevention | |
US10732643B2 (en) | Control system, moving object, and control apparatus | |
US11148299B2 (en) | Teaching apparatus and teaching method for robots | |
US10712566B2 (en) | Information displaying system provided with head-mounted type display | |
US9905016B2 (en) | Robot identification system | |
Chance et al. | An assistive robot to support dressing-strategies for planning and error handling | |
JP2005250990A (ja) | 作業支援装置 | |
KR101615687B1 (ko) | 충돌 예측 로봇 원격 제어 시스템 및 그 방법 | |
JP2017061026A (ja) | ロボット制御装置、ロボット制御方法、ロボットシステム及びコンピュータプログラム | |
JP7036399B2 (ja) | 自律移動ロボット、並びに、その制御装置及び動作制御プログラム | |
JP2018158393A (ja) | 安全制御装置、安全制御方法およびプログラム | |
JP2021065971A (ja) | ロボット教示システム、画像生成方法、及びプログラム | |
CN111565898B (zh) | 操作引导*** | |
Vogel et al. | A projection-based sensor system for ensuring safety while grasping and transporting objects by an industrial robot | |
US11691237B2 (en) | Machine control device | |
RU2685996C1 (ru) | Способ и система предиктивного избегания столкновения манипулятора с человеком | |
EP3950239A1 (en) | Control system, control method, and control unit | |
JP2020059112A (ja) | ロボット制御装置 | |
Kozamernik et al. | Visual quality and safety monitoring system for human-robot cooperation | |
Budiharto | Multiple moving obstacles avoidance for humanoid service robot using stereo vision and Bayesian approach | |
US12023813B2 (en) | Control system, control method, and control unit |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190419 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200330 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200428 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20200625 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200710 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201215 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20210113 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6824622 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |