JP2016209991A - ロボットの制御装置、制御方法およびシステム - Google Patents

ロボットの制御装置、制御方法およびシステム Download PDF

Info

Publication number
JP2016209991A
JP2016209991A JP2016084451A JP2016084451A JP2016209991A JP 2016209991 A JP2016209991 A JP 2016209991A JP 2016084451 A JP2016084451 A JP 2016084451A JP 2016084451 A JP2016084451 A JP 2016084451A JP 2016209991 A JP2016209991 A JP 2016209991A
Authority
JP
Japan
Prior art keywords
robot
human
person
contact
recognition state
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016084451A
Other languages
English (en)
Other versions
JP6824622B2 (ja
Inventor
政人 池田
Masato Ikeda
政人 池田
鈴木 雅博
Masahiro Suzuki
雅博 鈴木
小林 一彦
Kazuhiko Kobayashi
一彦 小林
祐介 中里
Yusuke Nakazato
祐介 中里
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Publication of JP2016209991A publication Critical patent/JP2016209991A/ja
Application granted granted Critical
Publication of JP6824622B2 publication Critical patent/JP6824622B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Manipulator (AREA)

Abstract

【課題】 人間とロボットとの接触を回避すると共に、ロボットの作業効率を向上することができるロボット制御装置を提供すること。【解決手段】 ロボット制御装置は、ロボットの位置を取得する取得手段と、人間を含む画像から前記人間の位置を検出する検出手段と、前記ロボットの位置と前記人間の位置とに基づいて、前記ロボットと前記人間との接触を予測する予測手段と、前記画像から抽出される前記人間に関する所定の情報に基づいて、前記ロボットについての前記人間の認識状態を推定する推定手段と、前記予測手段の予測結果と前記推定手段の推定結果とに基づいて、前記ロボットの動作を制御する制御手段とを備える。【選択図】 図1

Description

本発明は、ロボットの制御装置、制御方法およびシステムに関する。
産業用ロボットを使用する際には、人間とロボットとの接触を回避するための安全制御装置(ロボット制御装置)が必要である。例えば、特許文献1には、作業者が進入禁止領域に侵入した場合、ロボットを停止するか動力電源を遮断するロボット制御装置が開示されている。特許文献2には、作業者とロボットの現在位置および移動速度から、作業者とロボットの将来位置を予測する安全制御装置が開示されている。特許文献2の安全制御装置は、作業者とロボットの将来位置に基づいて、作業者とロボットとが接触するかを予測し、接触すると予測した場合に安全制御を行う。
特開2009−50958号公報 特開2010−120139号公報
特許文献1のロボット制御装置では、作業者が進入禁止領域(ロボットの動作領域)に侵入する度にロボットが停止してしまう。ロボットが停止する度に、ロボットの作業効率が低下する。
特許文献2の安全制御装置は、ロボットと作業者が将来接触すると予測する場合には、ロボットを停止する。この予測は、作業者とロボットの現在位置および移動速度に基づいて行われる。したがって、特許文献2の安全制御装置では、作業者がロボットとの接触可能性を認識しているか否かに関わらずロボットを停止してしまうことがある。
本発明は、上記した従来技術の課題を解決すべく考案されたものであり、本発明の目的は、人間とロボットとの接触を回避すると共に、ロボットの作業効率をより向上することができるロボット制御装置を提供することである。
本発明の1つの態様によるロボット制御装置は、ロボットの位置を取得する取得手段と、人間を含む画像から前記人間の位置を検出する検出手段と、前記ロボットの位置と前記人間の位置とに基づいて、前記ロボットと前記人間との接触を予測する予測手段と、前記画像から抽出される前記人間に関する所定の情報に基づいて、前記ロボットについての前記人間の認識状態を推定する推定手段と、前記予測手段の予測結果と前記推定手段の推定結果とに基づいて、前記ロボットの動作を制御する制御手段と、を備える。
本発明によれば、人間とロボットとの接触を回避すると共に、ロボットの作業効率をより向上することができる。
実施形態1のロボットシステムの構成を示す図である。 実施形態1のロボット制御装置の処理の流れを示すフローチャートである。 実施形態1の変形例のロボットシステムの構成を示す図である。 実施形態2のロボットシステムの構成を示す図である。 実施形態2のロボット制御装置の処理の流れを示すフローチャートである。
以下、本発明の実施形態によるロボット制御装置を含むロボットシステムについて、図面を参照しながら詳細に説明する。なお、本発明の技術的範囲は、特許請求の範囲によって確定されるのであって、以下の実施形態によって限定されない。例えば、実施形態の構成は、本発明が適用される装置の仕様や各種条件(使用条件、使用環境等)によって適宜修正又は変更され得る。
(実施形態1)
実施形態1では、撮像画像から取得される、ロボットと人間の接触を予測するのに用いる人間の位置情報と人間の認識状態を推定するのに用いる人間の情報とに基づいて、ロボットの危険回避動作を制御する。
図1は、実施形態1のロボットシステム100の構成を示している。ロボットシステム100は、ロボット101と、視覚センサ102と、ロボット制御装置10と、を有する。
ロボット101は、アーム(図示せず)とハンド(図示せず)とを有する。ロボット101が多関節型ロボットである場合、ロボット101は、複数のアームと関節を有する。ロボット101のハンドは、ロボット101の用途に応じたツールであり、本実施形態では、部品を把持して1つの位置(以下、「位置A」と称する。)から他の位置(以下、「位置B」と称する。)に移動するときに使用される。ロボット101は、後述するロボット制御装置10の制御部201に接続されている。ロボット101は、必要に応じて、アームの土台となるベース部、アームを駆動するサーボモータ、および当該サーボモータの角度位置を検出する手段(エンコーダ)等を備える。
視覚センサ102は、画像を撮像する手段である。本実施形態では、視覚センサ102は、視点の異なる複数の撮像カメラを含む。視覚センサ102は、複数の撮像カメラのうち任意の数のカメラを使用して撮像を行うことができる(例えば、全ての撮像カメラを使用することもできるし、1つの撮像カメラだけを使用することもできる)。視覚センサ102は、撮像カメラにより撮像される画像に、人間(作業者)が含まれるように撮像を行う。視覚センサ102は、後述するロボット制御装置10の画像情報取得部203に接続されている。
ロボット制御装置10は、制御部201、ロボット位置取得部202、画像情報取得部203、人間位置検出部204、接触予測部205、人間情報抽出部206、認識状態推定部207、および危険回避対応動作決定部208を備える。
ロボット制御装置10の制御部201は、ロボット101の動作を制御する。ロボット制御部201は、まず、作業者から指示(ティーチング)を受ける。具体的には、例えば、制御部201は、ロボット101により部品を位置Aから位置Bへ移動させる動作を指示(ティーチング)される。この指示は、例えば、作業者によって入力される。当該指示に基づき、制御部201は、障害物を回避して当該部品を位置Aから位置Bに移動するロボット101の軌道を生成(プランニング)する。ロボット101の軌道のデータは、ロボット101が位置Aから位置Bに部品を移動する際の、ロボット101を構成するアームとハンドの各部材の時系列の位置と関節角、および各部材の形状寸法を含む。
位置Aは、ロボット101の動作開始点で、位置Bはロボット101の動作終了点となる。そして、制御部201は、ロボット101で位置Aから位置Bへ部品を移動させるためのロボット101の軌道のデータを保持する。
また、制御部201は、後述する危険回避対応動作決定部208で決定された危険回避対応動作に従って、ロボット101を制御する。
なお、部品の当初の位置が予め指定された位置でない場合は、視覚センサ102により部品の置いてある位置(当初の位置)Aを検出(取得)する。そして、取得した位置Aに基づき部品の移動先である位置Bへ部品を移動するロボット101の軌道をプランニングしてもよい。
ロボット位置取得部202は、ロボット101の位置を算出することによりロボット101の位置を取得する。本実施形態で、ロボット101の位置とは、ロボット101を構成するアームとハンドが位置Aから位置Bへ部品を移動する際に通過する空間的な領域を意味する。つまり、ロボット101の位置は、位置Aから位置Bまでのロボット101の動作範囲(移動経路)を意味する。ロボット101の位置を、ロボット101が位置Aから位置Bに移動する際に通過する空間的な領域(経路)としたのは、人間が位置Aから位置Bの間で移動するロボット101と接触する可能性があるかを推定するためである。
ロボット位置取得部202は、制御部201に接続されており、制御部201が保持しているロボット101の軌道のデータを、制御部201から受け取る(取得する)。ロボット位置取得部202は、ロボット101の軌道のデータから、ロボット101を構成するアームとハンドが位置Aから位置Bへ部品を移動する際に通過する空間的な領域を、ロボット101の位置として算出する。
なお、ロボット101が部品を位置Aから位置Bに移動するときの空間的な領域の全てをロボットの位置としなくてもよい。例えば、ロボット101が位置Aと位置Bの途中にあるとき、ロボット101の現在の位置から位置Bへ部品を移動する際に通過する空間的な領域を、ロボット101の位置としてもよい。この際、ロボット位置取得部202は、ロボット101の現在の位置を、制御部201から受け取る。このようにすることで、ロボット101が位置Aからロボット101の現在の位置へ移動するまでに通過した空間的な領域を、上記した「ロボット101の位置」から除くことが出来る。
画像情報取得部203は、二次元画像と距離画像を取得する手段である。画像情報取得部203は、例えば、ビデオキャプチャボードやメモリなどで構成されている。画像情報取得部203は、視覚センサ102に接続されている。画像情報取得部203は、二次元画像と距離画像を算出するために、まず、視覚センサ102が撮像した画像を視覚センサ102から受け取る。そして、画像情報取得部203は、受け取った当該撮像画像から、二次元画像と距離画像を生成(算出)する。二次元画像と距離画像には、人間(作業者)の画像が含まれるようにする。距離画像を生成する場合、画像情報取得部203は、視覚センサ102の複数の撮像カメラによって撮像された複数の画像を基に、ステレオ法で撮影物体の距離画像を算出する。各距離画像は点群により形成されている。
なお、距離画像の生成は、画像情報取得部203を使用せずに行ってもよい。例えば、視覚センサ102が、距離画像を生成してもよい。また、図示しない距離画像生成手段を設け、当該距離画像生成手段により距離画像を生成してもよい。さらに、撮像カメラと、当該撮像カメラとは異なる位置から撮影物体に光のパターンを投影する手段とを用いて、パターン投影法などのアクティブ方式の三次元計測手法により、撮影物体の距離画像を生成してもよい。
人間位置検出部204は、人間(作業者)の位置を検出する手段である。人間の位置を検出するために、人間位置検出部204は、まず、画像情報取得部203で取得した距離画像を領域分割(セグメンテーション)する。また、人間位置検出部204は、画像情報取得部203で取得した二次元画像から人間の頭部を検出する。そして、人間位置検出部204は、領域分割して得られた距離画像の複数の領域のうち、二次元画像の人間の頭部に対応する部分を含む領域を人間の領域とし、その距離画像の点群を現在の人間の位置とする。人間の頭部の検出は、例えば、人間の肩から頭部の形状であるΩ形状を検出することにより行う。
接触予測部205は、人間とロボット101が接触するかを推測する手段である。接触予測部205は、ロボット位置取得部202と人間位置検出部204とに接続されており、ロボット位置取得部202の算出結果(ロボットの位置)と人間位置検出部204の検出結果(人間の位置)とを受け取る。接触予測部205は、ロボット101の位置と人間の位置とが重なる位置を、人間とロボット101が接触する可能性がある位置(接触予測情報)と予測する。
人間情報抽出部206は、画像から人間(作業者)の情報を抽出する手段である。本実施形態では、人間の情報は、作業者の顔の向きまたは視線の向きである。人間情報抽出部206は、画像情報取得部203に接続されており、画像情報取得部203で算出した二次元画像を画像情報取得部203から受け取る。そして、人間情報抽出部206は、当該二次元画像から人間の頭部を検出し、人間の情報として当該頭部から顔の向きまたは視線の向きを抽出(検出)する。人間の頭部の検出は、例えば、人間の肩から頭部の形状であるΩ形状を検出することにより行う。頭部からの顔の向きの検出は、例えば、顔の器官である目、鼻、口の局所的な明暗差を利用したHaar-like特徴に基づいて顔の向きを検出することにより行う。頭部から視線の向きを検出する場合は、まず、顔の器官である目、鼻、口の局所的な明暗差を利用したHaar-like特徴に基づいて顔の向きを検出すると共に目の領域を抽出する。そして、抽出した目の領域の中の瞳の位置と顔の向きとから視線の向きを検出する。
認識状態推定部207は、人間(作業者)がロボット101を見ているか否かを推定する手段である。認識状態推定部207は、接触予測部205と人間情報抽出部206に接続されており、接触予測部205で予測した接触予測位置と人間情報抽出部206で抽出した顔または視線の向きの情報を、接触予測部205と人間情報抽出部206から受け取る。そして、認識状態推定部207は、当該予測した接触予測位置と抽出した顔または視線の向きから、人間と接触する可能性のあるロボット101の位置が人間の視野範囲内にあるか否かを判断し、当該判断に基づいて、人間がロボット101を見ているか否かを推定する。認識状態推定部207は、人間がロボット101を見ていると推定した場合、人間がロボット101を認識していると推定する。
危険回避対応動作決定部208は、人間がロボット101を認識しているか否かによって、どのような危険回避対応動作を取るかを決定する手段である。危険回避対応動作決定部208は、認識状態推定部207に接続されており、認識状態推定部207の推定結果を認識状態推定部207から受け取る。接触予測部205で人間とロボット101が接触すると予測され、かつ、認識状態推定部207が人間はロボット101を認識していないと推定した場合、危険回避対応動作決定部208は、ロボット101の動作を変更して第一の危険回避対応動作を取るという決定をする。第一の危険回避対応動作とは、ロボットの動作速度を(接触予測前の速度より)減速し、その後、ロボットと人との間の距離が予め設定したマージン以下の距離になったらロボットを停止する動作である。接触予測部205で人間とロボット101が接触すると予測され、かつ、認識状態推定部207で人間がロボット101を認識していると推定された場合、第二の危険回避対応動作を取るという決定をする。第二の危険回避対応動作とは、接触予測部205でロボットと人間との接触予測に用いる、人間の位置とロボット101の位置との間の距離のマージンと、ロボットの動作速度とのうち少なくとも何れかひとつを変更する危険回避対応動作である。この場合もまた、ロボットと人との間の距離が予め設定したマージン以下の距離になったらロボットを停止する。
危険回避対応動作決定部208が決定した内容は、制御部201に伝達される。制御装置201は、当該決定の内容に基づいて、ロボット101の動作を制御する。
図2は、実施形態1のロボット制御装置10の処理の流れを示すフローチャートである。図2では、人間情報抽出部206が、人間の情報として、作業者の視線の向きを抽出(検出)する場合を説明する。
S100では、ロボット位置取得部202が、制御部201から受け取ったロボット101の軌道のデータに基づいて、ロボット101の位置(動作範囲)を算出する。より詳しくは、ロボット位置取得部202は、ロボットの軌道データに基づいて、ロボット101が位置Aから位置Bに移動する際に通過する空間的な領域を算出し、これをロボット101の位置とする(ロボット位置の取得)。
なお、上記したように、ロボット101の現在の位置から位置Bへ部品を移動する際に通過する空間的な領域を、ロボット101の位置としてもよい。この場合、ロボット101の軌道のデータと、制御部201が保持しているロボット101の現在の位置とから、ロボット101の位置を算出する。このようにすることで、ロボット101が位置Aからロボット101の現在の位置へ移動する際にすでに通過した空間的な領域を、ロボット101の位置から除くことが出来る。S100の後、S200に進む。
S200では、画像情報取得部203が、視覚センサ102から受け取った画像に基づいて、二次元画像と距離画像を算出(取得)する。S200の後、S300に進む。
S300では、人間位置検出部204が、現在の人間の位置を検出する。より詳しくは、人間位置検出部204は、S200で取得した距離画像の点群を領域分割すると共に、二次元画像から人間の頭部を検出する。領域分割した距離画像の複数領域のうち、二次元画像の頭部に対応する点群を含む分割領域を人間の領域とし、この領域の点群を現在の人間の位置とする。人間の頭部の検出は、例えば、人間の肩から頭部の形状であるΩ形状を検出することにより行う。S300の後、S400に進む。
S400では、接触予測部205が、人間とロボット101との接触の可能性を予測する(接触予測)。より詳しくは、S300で検出した人間の位置である点群のうち、S100で取得したロボット101の位置である空間的な領域の中に存在する点群の位置を、人間とロボット101が接触する可能性がある位置(接触予測情報)とする。
S400で予測した位置は、人間とロボット101が接触する可能性があるロボットの接触予測部分の位置となる。
なお、ロボット101の位置は、位置Aから位置Bにロボット101が移動する際にロボット101が通過する領域としなくてもよい。例えば、現在のロボット101の位置および移動速度、ならびに、現在の人間の位置および移動速度から、ロボット101と人間の将来位置を予測して、ロボット101と人間との接触予測位置を推定してもよい。S400の後、S500に進む。S500では、接触可能性の有無を判定する。S400で人間とロボット101が接触する可能性がある位置がない場合は、接触可能性が無いと判定され(S500:No)、S600に進む。S600では、危険回避対応動作決定部208が、ロボット101の動作を変更しないという決定をする。そして、制御部201は、この決定に基づいて、ロボット101の動作を変更しないという制御を行う。S600の後、S100に戻り、S100〜S500の処理を行う。
S400で人間とロボット101が接触する可能性がある位置がある場合は、S500で接触可能性が有ると判定され(S500:Yes)、S700に進む。
S700では、人間情報抽出部206が、S200で取得した二次元画像から人間の頭部を検出し、人間の情報として、当該頭部から作業者の視線の向きを抽出(検出)する。作業者の視線の向きを検出するには、まず、顔の器官である目、鼻、口の局所的な明暗差を利用した、例えば、Haar-like特徴により顔の向きを検出して、その後、目の領域を抽出する。さらに、抽出した目の領域の中の瞳位置と顔の向きとから視線の向きを検出する。S700の後、S800に進む。S800では、認識状態推定部207が、人間の視野範囲を算出する。認識状態推定部207は、S700で検出した視線の向きを、人間の視野の中心とし、人間の視野角を、例えば、視野の中心に対して、横方向は左右に90度、縦方向は上が60度、下が70度として、視野範囲を算出する。S800の後、S900に進む。
S900では、認識状態推定部207が、S800で算出した視野範囲(視野角)内に、S400で予測した、人間とロボット101が接触する可能性がある位置(ロボット接触予測部分位置)が含まれているかを算出する。S900の後、S1000に進む。S1000では、認識状態推定部207が、S900の算出結果に基づいて、人間とロボット101が接触する可能性がある位置を、人間が見ているか否かを判定する。より詳しくは、S900でロボット101の接触する可能性がある位置が、人間の視野範囲内にあるという算出がなされていれば、S1000でロボット101の接触予測部分の位置が見えていると判定する(S1000:Yes)。一方、S900でロボット101の接触予測部分の位置が、人間の視野範囲内にないという算出がなされていれば、S1000でロボット101の接触する可能性がある位置が人間には見えていないと判定する(S1000:No)。
本実施形態では、S800からS1000で、ロボット101についての人間の認識状態の推定(判定)を行っている。人間が人間とロボット101が接触する可能性があるロボットの位置を見ている状態であれば、人間がロボット101を認識していると推定する(S1000:Yes)。つまり、人間の視野範囲(視野角)内にロボット101の接触予測部分の位置が入っている状態を、ロボット101について人間が認識している状態であると推定(判定)する。人間が人間とロボット101が接触する可能性があるロボットの位置を見ていない状態であれば、人間がロボット101を認識していない状態と推定する(S1000:No)。
S1000の判定がNoの場合、S1100に進む。S1100では、人間とロボット101との接触による危険を回避するため、ロボット101の動作を変更して第一の危険回避対応動作を実行する。第一の危険回避対応動作とは、ロボット101の動作を止めたり速度を遅くしたりといった変更を行う制御である。S1100の後、S1300に進む。
S1000の判定がYesの場合、S1200に進む。S1200では、人間がロボット101を認識していると推定されるので、第一の危険回避対応動作とは異なる、第二の危険回避対応動作を実行する。第二の危険回避対応動作とは、ロボット101の動作を変更する、または、S400で予測する人間とロボット101が接触する可能性がある位置を求める際に用いる、人間の位置とロボット101の位置の距離のマージンを変更する、のうち少なくともいずれか一つを変更する制御である。本来、人間の位置とロボット101の位置の距離がゼロで接触するが、より安全性を持たせるため、距離のマージンを設定している。距離のマージンとは、接触予測判定をする際の人間の位置とロボットの位置との間の距離の余裕である。例えばマージンを0mmと設定すると、人間の位置とロボットの位置との間の距離が0mmのときに接触すると予測判定する。それに対してマージンを100mmと設定することにより、人間の位置とロボットの位置との間の距離が100mm以下の場合に接触すると予測判定して、その距離以下になった場合にロボットの動きを止める。こうすることで実際にはロボットと人が衝突することなくロボットを事前に止めることが確実となり、より安全性を高めることが出来る。S1200の後、S1300に進む。S1300では、ロボット101の移動が完了しているかを判定する。つまり、S1300では、ロボット101が位置Bに到達したかを判定する。ロボット101の移動が完了していなければ(S1300:No)、S100に戻る。ロボット101の移動が完了していれば(S1300:Yes)、処理を終了する。
人間が認識していないと推定された場合の第一の危険回避対応動作と、認識していると推定された場合の第二の危険回避対応動作の、より詳しい内容について、数値例を挙げて説明する。本実施形態では、人間がロボット101を認識していないと推定された場合、第一の危険回避対応動作の一つとして、例えば、ロボット101の動作速度を接触予測前の速度200mm/secより減速した50mm/secとしたり止めてもよい。なお、人間の位置とロボット101の位置の現在の距離が、予め定められた距離のマージン100mm以下の場合は、ロボット101を停止する。また、第一の危険回避対応動作として、人間との接触を避けるため、S400で予測された人間とロボット101が接触する可能性がある位置をロボット101が通過しないように、制御部201で生成されたロボット101の軌道データを、変更してもよい。人間がロボット101を認識していると推定された場合、安全性を保持した上、ロボットが作業を継続するように、第一の危険回避対応動作とは異なる、第二の危険回避対応動作を実行する。第二の危険回避対応動作とは、ロボット101の動作を変更する、または、S400で予測する人間とロボット101が接触する可能性がある位置を求める際に用いる、人間の位置とロボット101の位置の距離のマージンを変更する、のうち少なくともいずれか一つ(どちらか一方、または、両方)を変更する制御を実行する。第二の危険回避対応動作の一つとして、例えば、接触予測に用いるロボット位置と人間の位置との距離のマージンである初期値100mmを200mmに変更し、かつ、ロボットの動作速度は接触予測前の速度200mm/secと変えない、危険回避対応動作を実行する。別の第二の危険回避対応動作として、接触予測に用いるロボット位置と人間の位置との距離のマージンである初期値100mmは変えず、かつ、ロボットの動作速度は接触予測前の速度200mm/secと第一の危険回避対応動作の減速速度50mm/secとの中間の100mm/secに変更してもよい。更に、接触予測に用いるロボット位置と人間の位置との距離のマージンである初期値100mmを50mmに変更し、かつ、ロボットの動作速度は接触予測前の速度200mm/secから100mm/secに減速してもよい。この場合も、人間とロボットの距離が予め定められた距離のマージン以下の場合は、ロボット101を停止する。
以上述べたように、本実施形態では、S100〜S500でロボット101との接触可能性を予測し、更に、S700〜S1000でロボット101についての人間の認識状態の推定を行っている。つまり、本実施形態では、ロボット101と接触する可能性がある場合(S500:Yes)に、ただちにロボット101に対して危険回避のための制御を行わない。ロボットと接触する可能性がある場合には、人間がロボット101を見ているかを推定し、危険回避のためどのような制御を行う(危険回避対応動作を取る)かの決定を行っている。このようにすることで、人間がロボット101を認識している場合は、認識していない場合の第一の危険回避対応動作とは異なる、第二の危険回避対応動作を行うという設定をすることができる。従って、ロボット101の停止や減速に起因するロボット101の作業停滞・遅延が減り、ロボット101の作業効率の低下が抑制される。その結果、ロボット101との接触を回避することができると共に、ロボット101の作業効率を向上することができる。
実施形態1では、人間との共存環境下で運用できるロボットと、人間との接触を回避する制御をどのように行うかは、接触予測に加え、人間がロボットを見ている状態であるか否かに基づいて、判断(決定)される。換言すると、実施形態1では、ロボットと人間の接触を回避する制御をどのように行うかは、ロボットについての人間の認識状態に基づいて、判断される。
なお、図2の例では、S700において、人間情報抽出部206が、人間の情報として、人間の視線の向きを抽出(検出)するとしたが、人間の情報として、人間の顔の向きを抽出してもよい。つまり、人間の情報は、人間の視線の向きではなく、人間の顔の向きであってもよい。その場合、例えば、人間の顔がロボット101側にあるならば人間がロボット101を認識していると推定(判定)する。そして、人間の顔がロボット101を背にしているならば、人間がロボット101を認識していない(見ていない)と推定する。
また、上記した「人間」はロボット101を使用して作業をする作業者に限定されない。本実施形態では、画像情報取得部203で取得した画像に含まれている任意の人間(視覚センサ102の撮像カメラで撮像した画像に映っている人間)に対して、当該人間のための危険回避対応動作を行うことができる。従って、危険回避の対象となる人間は、ロボットを使用して作業をする作業者以外の人間(例えば、侵入者や部品補充者やメンテナンス者など)であってもよい。換言すると、上記した「人間」は、視覚センサ102によって撮像された全ての人間(一人ひとり)を意味する場合もある。本明細書の以下の説明においても、「人間」という用語はこの意味で用いられる。
さらに、本実施形態では、ロボット101の動作を変更した後に(S1100)、人間が移動した場合、再度S500の判断またはS1000の判断を行う。そして、S500で、ロボット101との接触の可能性がないと判断されれば、ロボット101の作業を元の速度で行うようにする。
(変形例)
図3は、実施形態1の変形例のロボットシステム110の構成を示す図である。この変形例の説明において、実施形態1と同様な構成要素には同じ参照符号を付け、当該構成要素の詳細な説明は省略する。
変形例のロボットシステム110は、ロボット101と、視覚センサ102と、ロボット制御装置14とを備えている。変形例のロボット101と視覚センサ102は、実施形態1と同じである。変形例のロボットシステム110のロボット制御装置14は、実施形態1のロボットシステム100のロボット制御装置10と異なっている。より詳しくは、実施形態1の危険回避対応動作決定部208が、変形例では危険回避対応動作決定部238になっている。また、実施形態1の認識状態推定部207が、変形例では認識状態推定部237になっている。
さらに、実施形態1では、接触予測部205で予測された、人間とロボット101が接触する可能性がある位置(接触予測情報)が、認識状態推定部207に入力されているが、変形例では危険回避対応動作決定部238に入力されている。変形例の認識状態推定部237は、人間がロボット101を見ている状態なのかを推定(判定)する際、人間とロボット101が接触する可能性のある位置(接触予測情報)は用いない。
認識状態推定部237は、人間情報抽出部206で抽出した人間の顔の向きまたは視線の向きから、当該人間が予め設定した領域または方向を見ているかを判断する。そして、認識状態推定部237は、その判断結果に基づいて、人間がロボット101を見ている状態にあるのかを推定する。例えば、ロボット101が部品を位置Bに置いた後、人間が当該部品に他の部品を組み付ける場合、位置Bで人間とロボット101が接触する可能性がある。そこで、位置Bを含む位置Bの近傍の領域を予め設定しておき、当該領域が人間の視野範囲内にあるか否かで、人間がロボット101を見ているか否かを推定する。
危険回避対応動作決定部238は、認識状態推定部237で推定した人間のロボット認識状態と、接触予測部205で予測した接触予測情報(人間とロボット101が接触する可能性がある位置)の有無とから、危険回避対応動作を決定する。人間がロボット101と接触する可能性のある位置を見ていなくて、かつ、接触予測情報がある場合、危険回避対応動作決定部238は、接触による危険を回避するため、例えば、ロボット101の動作を停止するという第一の危険回避動作を実行する決定を出す。人間がロボット101と接触する可能性のある位置を見ていて、かつ、接触予測情報がある場合は、この変形例では、ロボット101の動作は第二の危険回避動作を実行する。つまり、予め設定した領域であるロボット101と接触する可能性のある位置の方向を人間が見ているか否かと、人間とロボット101との接触の可能性の有無とから、どのような危険回避対応動作が必要であるかを判断する。
よって、この変形例においても、接触予測と作業者の認識状態とに基づいてどのような危険回避制御を行うかを決定している。このような危険回避対応動作の決定を行うことにより、ロボット101の停止や減速の回数が減少する。つまり、ロボット101の作業が滞る機会が減少する。したがって、ロボット101との接触を回避することができると共に、ロボット101の作業効率(生産性)を向上することができる。
(実施形態2)
実施形態1では、ロボット101についての人間の認識状態は、人間がロボット101を見ているか否かで判断した。本発明は、このような態様に限定されない。例えば、ロボット101についての人間の認識状態は、人間がロボット101を見ていること以外のことも考慮してよい。実施形態2では、ロボット101と人間との接触回避のためどのような危険回避対応動作を行うかを判断する際の、ロボット101についての人間の認識状態は、人間がロボット101を見ていて、かつ、ロボット101を意識している状態にあるか否かで判断する。
図4は、実施形態2のロボットシステム120の構成を示している。実施形態2の説明において、実施形態1と同様な構成要素には同じ参照符号を付け、当該構成要素の詳細な説明は省略する。実施形態2のロボットシステム120は、ロボット101と、視覚センサ102と、ロボット制御装置11とを備えている。実施形態2のロボット101と視覚センサ102は、実施形態1と同じである。実施形態2のロボットシステム120のロボット制御装置11は、実施形態1のロボットシステム100のロボット制御装置10と異なっている。より詳しくは、実施形態1の認識状態推定部207が、実施形態2では認識状態推定部217になっている。また、実施形態2では、制御部201が、認識状態推定部217に、ロボット101の軌道に関する情報(データ)を入力する。
実施形態2のロボット制御装置11の認識状態推定部217は、人間がロボット101を見ている状態であって、かつ、ロボット101を意識している状態を、人間がロボット101を認識している状態と推定(判断)する。人間と接触する可能性があるロボット101の位置を人間が見ているか否かに加えて、人間がロボットを意識しているか否かを判定することで、さらに安全性を高めることが出来る。そこで、本実施形態では、人間がロボットを意識しているかについても推定を行う。本実施形態では、ロボット101と接触する可能性がある位置を、人間が目で追っているか否かで、ロボット101を意識しているか否かを推定する。
図5は、実施形態2のロボット制御装置11の処理の流れを示すフローチャートである。図5のフローチャート(実施形態2)と図2のフローチャート(実施形態1)を比較すると、図2のS800、S900およびS1000が、図5ではS810、S910およびS1010になっている。それ以外のステップは、図2と図5において同じである。図5のS810、S910およびS1010は、ロボット101についての認識状態の推定にかかわるステップである。つまり、実施形態2は、ロボット101についての認識状態の推定に関する処理が実施形態1と異なる。
S100〜S700までは実施形態1と同じであるので説明を省略する。図5のフローチャートでは、S700の後、S810に進む。
S810では、S700で抽出した人間の視線の向きから、人間の視線の動きを算出する。実施形態1では、画像情報取得部203で取得した現在の画像から、現在の人間の情報(視線の向き)を抽出した。実施形態2では、現在の人間の情報だけでなく、過去に抽出した人間の情報(視線の向き)も利用することにより、視線の動きを算出する。例えば、視覚センサ102と画像情報取得部203により一定時間Δt毎に画像情報を取得していれば、時系列の視線の向きのデータが得られる。例えば、画像情報を取得した時刻をt、t+Δt、t+2・Δt、・・・とすると、時系列の視線の向きのデータは、時刻tにおけるデータ、時刻t+Δtにおけるデータ、時刻t+2・Δtにおけるデータ、・・・からなる。この時系列の視線の向きのデータから、人間の視線の動きを算出することができる。S810で視線の動きを算出したならば、S910に進む。
S910では、S400で予測した人間とロボット101が接触する可能性がある位置(ロボットの接触予測部分の位置)の動きを算出する。この動きはロボット101の動きと言えるので、図5のS910では「ロボットの動きを算出」すると記載してある。制御部201が保持しているロボット101の軌道のデータから、S400で予測した人間とロボット101が接触する可能性がある位置のうち、時刻t、t+Δt、t+2・Δt、・・・におけるロボット101の接触予測部分の位置を算出(抽出)する。
S1010では、S810で取得した視線の動きが、S910で算出したロボット101の接触予測部分の位置の動き(ロボットの動き)に追従しているかを判定する。画像情報を取得した時刻t、t+Δt、t+2・Δt、・・・において、人間の視線の向きの延長線上もしくは延長線付近に、ロボット101の接触する可能性がある部分の位置があれば、視線の動きが、ロボット101の動きに追従していると判定する(S1010:Yes)。人間の視線の動きがロボット101の動きに追従している場合、人間がロボット101を意識していると推定する。本実施形態では、S1010の判定がYesの状態が、人間がロボット101を見ていて、かつ、ロボット101を意識している状態である。
S1010の判定がYesの場合、S1200に進む。S1200の処理内容は実施形態1と同じである。人間の視線がロボット101の動きに追従しているので、実施形態1と同様に、第一の危険回避対応動作と異なる、ロボットの動作速度を変更する、または、人間の位置と、ロボット101の位置と、の距離のマージンの少なくともいずれか一つを変更する、第二の危険回避対応動作の制御を行う。S1200の後、S1300に進む。S1300の処理内容も実施形態1と同じである。
S1010の判定がNoの場合、S1100に進む。S1100の処理内容も実施形態1と同じである。人間の視線がロボット101の動きに追従していないので、危険回避対応動作を取る必要があると判断されて、ロボットを止めたり遅くしたりといった動作の変更を行う制御を実行する。
以上述べたように、実施形態2では、S100〜S500でロボット101との接触可能性を予測し、更に、S700〜S1010でロボット101についての人間の認識状態の推定を行っている。本実施形態において、人間の認識状態の推定は、人間がロボット101を見ていて、かつ、ロボット101を意識しているかを推定することにより行う。本実施形態では、人間がロボット101を見ていても、ロボット101を意識していないと推定されれば、第一の危険回避対応動作を実行する。人間がロボット101を見ていて、かつ、ロボット101を意識していると推定されれば、第二の危険回避対応動作を実行する。
実施形態2では、人間がロボット101を見ていて、かつ、ロボット101を意識している状態を、人間がロボットを認識している状態と推定する。そして、ロボット101を意識していないと推定できる場合には、人間がロボットに接触する可能性があると判断し、第一の危険回避対応動作を実行する。よって、ロボット101を意識していない人間が、ロボット101に接触することを防止することができる。
また、実施形態1と同じように、実施形態2では、ロボット101と接触する可能性がある場合(S500:Yes)であっても、ただちにロボット101に対して危険回避のための制御を行わない。ロボットと接触する可能性がある場合には、人間の視線がロボット101の動きに追従しているかを推定(判定)し、危険回避のためどのような制御を行うかの決定を行っている。このようにすることで、人間がロボット101を見ておりかつ意識している場合(人間がロボット101を認識している場合)は、意識していない場合の第一の危険回避対応動作とは異なる、第二の危険回避対応動作を行うという設定をすることができる。従って、ロボット101の停止や減速に起因するロボット101の作業停滞・遅延が減り、ロボット101の作業効率の低下が抑制される。よって、ロボット101との接触を回避することができると共に、ロボット101の作業効率(生産性)を向上することができる。
なお、図5の説明では、人間がロボット101を意識しているかどうかは、人間の視線の動きに基づいて判断したが、人間の顔の向きの動きに基づいて判断してもよい。
さらに、人間がロボットを認識しているか否かを推定する際、ロボットから人間に対し、人間が知覚可能な報知情報を発信し、その報知情報に応じた人間の反応を検出することで、人間が認識しているか否かを判定してもよい。報知情報は、色や輝度を変化させる光学的に報知を行うことのできる液晶表示装置やLEDなどのデバイスで構成される。光学的な報知を行う以外に、音声的に報知を行うスピーカやブザーなどを利用してもよい。また、触覚など、人間の他の感覚器に刺激を与えることで報知を行ってもよい。
(その他の実施形態)
実施形態1では、ロボット101についての人間の認識状態は、人間がロボット101を見ている状態であるとした。また、実施形態2では、ロボットについての人間の認識状態は、人間がロボット101を見ていて、かつ、ロボット101を意識している状態であるとした。しかしながら、本発明における、ロボット101についての人間の認識状態は、上記した状態に限定されない。本発明における、ロボット101についての人間の認識状態は、人間がロボット101を認識しているか否かを推定(判断)できる状態であればどのようなものであってもよい。例えば、人間がロボット101を見ていなくても、人間に注意喚起がなされている状態(例えば、音、光、振動などにより人間にロボット101を意識させている状態)は、人間がロボット101について認識している状態であるとしてもよい。
実施形態1および実施形態2では、人間の情報は、人間の視線の向き、または、顔の向きであるとした。しかしながら、本発明における人間の情報は、上記したものに限定されない。本発明における人間の情報は、人間がロボット101を認識しているか否かを推定できるものであればどのようなものであってもよい。例えば、人間の情報は、人間の体の向き(見ている向き、上半身の向き)でもよいし、人間の体が前を向いているか後ろを向いているかでもよい。例えば、人間の体の前面が視覚センサ102により検出(撮像)できるなら、人間の体が前を向いているとする。また、人間の情報は、人間の姿勢でもよいし(例えば、しゃがんでいるか否か)、人間の顔の表情でもよいし、顔の表情の変化であってもよい。
10…ロボット制御装置、101…ロボット、102…視覚センサ、201…制御部、202…ロボット位置取得部、203…画像情報取得部、204…人間位置検出部、205…接触予測部、206…人間情報抽出部、207…認識状態推定部、208…危険回避対応動作決定部

Claims (14)

  1. ロボットの位置を取得する取得手段と、
    人間を含む画像から前記人間の位置を検出する検出手段と、
    前記ロボットの位置と前記人間の位置とに基づいて、前記ロボットと前記人間との接触を予測する予測手段と、
    前記画像から抽出される前記人間に関する所定の情報に基づいて、前記ロボットについての前記人間の認識状態を推定する推定手段と、
    前記予測手段の予測結果と前記推定手段の推定結果とに基づいて、前記ロボットの動作を制御する制御手段と、
    を備えることを特徴とするロボット制御装置。
  2. 前記推定手段は、前記人間の認識状態として、前記人間が前記ロボットを見ているかを推定することを特徴とする請求項1記載のロボット制御装置。
  3. 前記画像から抽出される前記人間に関する所定の情報は、前記人間の視線の向きまたは前記人間の顔の向きであることを特徴とする請求項1記載のロボット制御装置。
  4. 前記推定手段は、前記人間の認識状態として、前記人間が所定の領域または方向を見ているかを推定することを特徴とする請求項1記載のロボット制御装置。
  5. 前記推定手段は、前記人間の認識状態として、前記人間が前記ロボットを見ていて、かつ、前記ロボットを意識しているかを推定することを特徴とする請求項1記載のロボット制御装置。
  6. 前記推定手段は、前記人間の視線の動きが前記ロボットの動きに追従している場合に、前記人間が前記ロボットを意識していると推定することを特徴とする請求項5記載のロボット制御装置。
  7. 前記推定手段は、前記人間の視野範囲内に前記ロボットの位置が入っている場合に、前記人間が前記ロボットを見ていると推定することを特徴とする請求項2、5または6に記載のロボット制御装置。
  8. 前記推定手段が、前記ロボットについての前記人間の認識状態は所定の認識状態にないと推定した場合、前記制御手段は、前記ロボットの第一の危険回避動作の制御を実行し、前記推定手段が、前記ロボットについての前記人間の認識状態は所定の認識状態にあると推定した場合、前記ロボットの第一の危険回避動作の制御と異なる、前記ロボットの第二の危険回避動作の制御を実行することを特徴とする請求項1乃至7のいずれか1項に記載のロボット制御装置。
  9. 前記第一の危険回避動作の制御とは、前記ロボットの動作を変更する制御であることを特徴とする請求項8記載のロボット制御装置。
  10. 前記第二の危険回避動作の制御とは、前記ロボットの動作を変更する、または、前記予測手段で前記ロボットと前記人間との接触予測に用いる距離のマージンを設定変更する、のうち少なくともいずれか一つを変更する制御であることを特徴とする請求項8または9に記載のロボット制御装置。
  11. さらに、人間が知覚可能な報知情報を報知する報知手段と、を備えることを特徴とする請求項1乃至10のいずれか1項に記載のロボット制御装置
  12. ロボットの位置を取得するステップと、
    人間を含む画像から前記人間の位置を検出するステップと、
    前記ロボットの位置と前記人間の位置とに基づいて、前記ロボットと前記人間との接触を予測する予測ステップと、
    前記画像から抽出される前記人間に関する所定の情報に基づいて、前記ロボットについての前記人間の認識状態を推定する推定ステップと、
    前記予測ステップの予測結果と前記推定ステップの推定結果とに基づいて、前記ロボットの動作を制御するステップと、
    を有することを特徴とするロボット制御方法。
  13. 請求項1乃至11のいずれか1項に記載のロボット制御装置に、センサまたは前記ロボットのうち、少なくとも何れか1つ、を備えるロボットシステム。
  14. コンピュータが読み取り実行することで、前記コンピュータを、請求項1乃至11のいずれか1項に記載のロボット制御装置の各部として機能させるためのコンピュータプログラム。
JP2016084451A 2015-05-01 2016-04-20 ロボットの制御装置、制御方法およびシステム Active JP6824622B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015093839 2015-05-01
JP2015093839 2015-05-01

Publications (2)

Publication Number Publication Date
JP2016209991A true JP2016209991A (ja) 2016-12-15
JP6824622B2 JP6824622B2 (ja) 2021-02-03

Family

ID=57549226

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016084451A Active JP6824622B2 (ja) 2015-05-01 2016-04-20 ロボットの制御装置、制御方法およびシステム

Country Status (1)

Country Link
JP (1) JP6824622B2 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018158393A (ja) * 2017-03-22 2018-10-11 日本電気株式会社 安全制御装置、安全制御方法およびプログラム
WO2019035362A1 (ja) * 2017-08-18 2019-02-21 三菱電機株式会社 ロボット制御装置およびこれを用いたロボットシステム
JP2019141496A (ja) * 2018-02-23 2019-08-29 パナソニックIpマネジメント株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
US10421187B2 (en) 2017-01-26 2019-09-24 Fanuc Corporation Robot program modification device, robot control device, robot simulation device, and robot program modification method
DE102019210012A1 (de) 2018-07-12 2020-01-16 Fanuc Corporation Roboter
WO2020075526A1 (ja) 2018-10-12 2020-04-16 ソニー株式会社 調理システム、および調理システムの制御方法、並びにプログラム
JP2020189367A (ja) * 2019-05-22 2020-11-26 セイコーエプソン株式会社 ロボットシステム
US11254005B2 (en) 2018-10-12 2022-02-22 Fanuc Corporation Robot control device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007181888A (ja) * 2006-01-05 2007-07-19 Advanced Telecommunication Research Institute International コミュニケーションロボットシステム
JP2008137127A (ja) * 2006-12-04 2008-06-19 Matsushita Electric Ind Co Ltd ロボットの制御方法
WO2011089885A1 (ja) * 2010-01-25 2011-07-28 パナソニック株式会社 危険提示装置、危険提示システム、危険提示方法およびプログラム
WO2012039280A1 (ja) * 2010-09-21 2012-03-29 トヨタ自動車株式会社 移動体
WO2014008929A1 (de) * 2012-07-10 2014-01-16 Siemens Aktiengesellschaft Roboteranordnung und verfahren zum steuern eines roboters

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007181888A (ja) * 2006-01-05 2007-07-19 Advanced Telecommunication Research Institute International コミュニケーションロボットシステム
JP2008137127A (ja) * 2006-12-04 2008-06-19 Matsushita Electric Ind Co Ltd ロボットの制御方法
WO2011089885A1 (ja) * 2010-01-25 2011-07-28 パナソニック株式会社 危険提示装置、危険提示システム、危険提示方法およびプログラム
JPWO2011089885A1 (ja) * 2010-01-25 2013-05-23 パナソニック株式会社 危険提示装置、危険提示システム、危険提示方法およびプログラム
WO2012039280A1 (ja) * 2010-09-21 2012-03-29 トヨタ自動車株式会社 移動体
WO2014008929A1 (de) * 2012-07-10 2014-01-16 Siemens Aktiengesellschaft Roboteranordnung und verfahren zum steuern eines roboters

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10421187B2 (en) 2017-01-26 2019-09-24 Fanuc Corporation Robot program modification device, robot control device, robot simulation device, and robot program modification method
JP7052203B2 (ja) 2017-03-22 2022-04-12 日本電気株式会社 安全制御装置、安全制御方法およびプログラム
JP2018158393A (ja) * 2017-03-22 2018-10-11 日本電気株式会社 安全制御装置、安全制御方法およびプログラム
WO2019035362A1 (ja) * 2017-08-18 2019-02-21 三菱電機株式会社 ロボット制御装置およびこれを用いたロボットシステム
JPWO2019035362A1 (ja) * 2017-08-18 2019-11-07 三菱電機株式会社 ロボット制御装置およびこれを用いたロボットシステム
JP2019206080A (ja) * 2017-08-18 2019-12-05 三菱電機株式会社 ロボット制御装置およびこれを用いたロボットシステム
JP2019141496A (ja) * 2018-02-23 2019-08-29 パナソニックIpマネジメント株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
CN110181542A (zh) * 2018-02-23 2019-08-30 松下知识产权经营株式会社 互动装置、互动方法、互动程序以及机器人
JP7109207B2 (ja) 2018-02-23 2022-07-29 パナソニックホールディングス株式会社 相互作用装置、相互作用方法、相互作用プログラム及びロボット
JP2020006494A (ja) * 2018-07-12 2020-01-16 ファナック株式会社 ロボット
US11130241B2 (en) 2018-07-12 2021-09-28 Fanuc Corporation Robot
DE102019210012B4 (de) 2018-07-12 2022-06-09 Fanuc Corporation Roboter
DE102019210012A1 (de) 2018-07-12 2020-01-16 Fanuc Corporation Roboter
US11254005B2 (en) 2018-10-12 2022-02-22 Fanuc Corporation Robot control device
WO2020075526A1 (ja) 2018-10-12 2020-04-16 ソニー株式会社 調理システム、および調理システムの制御方法、並びにプログラム
JP2020189367A (ja) * 2019-05-22 2020-11-26 セイコーエプソン株式会社 ロボットシステム

Also Published As

Publication number Publication date
JP6824622B2 (ja) 2021-02-03

Similar Documents

Publication Publication Date Title
JP6824622B2 (ja) ロボットの制御装置、制御方法およびシステム
US10379513B2 (en) Monitoring system, monitoring device, and monitoring method
EP3715065B1 (en) Controlling a robot in the presence of a moving object
US8816874B2 (en) Danger presentation device, danger presentation system, danger presentation method and program
US9122266B2 (en) Camera-based monitoring of machines with mobile machine elements for collision prevention
US10732643B2 (en) Control system, moving object, and control apparatus
US11148299B2 (en) Teaching apparatus and teaching method for robots
US10712566B2 (en) Information displaying system provided with head-mounted type display
US9905016B2 (en) Robot identification system
Chance et al. An assistive robot to support dressing-strategies for planning and error handling
JP2005250990A (ja) 作業支援装置
KR101615687B1 (ko) 충돌 예측 로봇 원격 제어 시스템 및 그 방법
JP2017061026A (ja) ロボット制御装置、ロボット制御方法、ロボットシステム及びコンピュータプログラム
JP7036399B2 (ja) 自律移動ロボット、並びに、その制御装置及び動作制御プログラム
JP2018158393A (ja) 安全制御装置、安全制御方法およびプログラム
JP2021065971A (ja) ロボット教示システム、画像生成方法、及びプログラム
CN111565898B (zh) 操作引导***
Vogel et al. A projection-based sensor system for ensuring safety while grasping and transporting objects by an industrial robot
US11691237B2 (en) Machine control device
RU2685996C1 (ru) Способ и система предиктивного избегания столкновения манипулятора с человеком
EP3950239A1 (en) Control system, control method, and control unit
JP2020059112A (ja) ロボット制御装置
Kozamernik et al. Visual quality and safety monitoring system for human-robot cooperation
Budiharto Multiple moving obstacles avoidance for humanoid service robot using stereo vision and Bayesian approach
US12023813B2 (en) Control system, control method, and control unit

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190419

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200330

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200428

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20200625

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200710

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210113

R151 Written notification of patent or utility model registration

Ref document number: 6824622

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151