JP2019114057A - 制御装置、ロボットおよびロボットシステム - Google Patents
制御装置、ロボットおよびロボットシステム Download PDFInfo
- Publication number
- JP2019114057A JP2019114057A JP2017247044A JP2017247044A JP2019114057A JP 2019114057 A JP2019114057 A JP 2019114057A JP 2017247044 A JP2017247044 A JP 2017247044A JP 2017247044 A JP2017247044 A JP 2017247044A JP 2019114057 A JP2019114057 A JP 2019114057A
- Authority
- JP
- Japan
- Prior art keywords
- robot
- image
- control device
- image processing
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 238000003384 imaging method Methods 0.000 claims abstract description 36
- 238000000034 method Methods 0.000 claims abstract description 25
- 230000008569 process Effects 0.000 claims abstract description 15
- 238000009499 grossing Methods 0.000 claims description 9
- 238000003860 storage Methods 0.000 description 30
- 235000019557 luminance Nutrition 0.000 description 13
- 238000010586 diagram Methods 0.000 description 12
- 239000012636 effector Substances 0.000 description 12
- 230000006870 function Effects 0.000 description 10
- 230000009467 reduction Effects 0.000 description 5
- 238000001514 detection method Methods 0.000 description 4
- 238000009434 installation Methods 0.000 description 4
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 230000003247 decreasing effect Effects 0.000 description 2
- 238000004519 manufacturing process Methods 0.000 description 2
- 239000003550 marker Substances 0.000 description 2
- 238000001179 sorption measurement Methods 0.000 description 2
- 230000008859 change Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000003672 processing method Methods 0.000 description 1
- 239000012536 storage buffer Substances 0.000 description 1
- 238000011144 upstream manufacturing Methods 0.000 description 1
- 210000000707 wrist Anatomy 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
- Manipulator (AREA)
- Image Processing (AREA)
Abstract
【課題】適確にロボットを制御することができる制御装置、ロボットおよびロボットシステムを提供すること。【解決手段】撮像部が対象物を撮像した撮像画像に基づいて前記対象物を処理するロボットを制御する制御装置であって、前記撮像画像において前記対象物を探索する探索領域を設定する領域設定部と、前記探索領域の輪郭に沿って前記撮像画像をぼかす画像処理部と、を備える。また、前記画像処理部は、前記探索領域の輪郭に沿って前記撮像画像をぼかす前に、前記探索領域を含むように前記撮像画像の一部を切り出す。【選択図】図2
Description
本発明は、制御装置、ロボットおよびロボットシステムに関するものである。
例えば、カメラによって撮像した画像によって対象物を認識して作業を行うロボットにおいて、対象物の特徴点(エッジ)を抽出するために、マスク画像を撮像画像に合成することにより、対象物が含まれていない領域を排除し、対象物の特徴点のみを抽出させることにより認識精度を向上させる技術が知られている(例えば、特許文献1)。
しかしながら、特許文献1に記載れているような方法では、マスク画像を形成するために容量の大きいメモリー(例えば、特許文献1の判定済画素記憶バッファ、マスク画像メモリー等)が必要となる。
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態または適用例として実現することが可能である。
本発明の制御装置は、撮像部が対象物を撮像した撮像画像に基づいて前記対象物を処理するロボットを制御する制御装置であって、
前記撮像画像において前記対象物を探索する探索領域を設定する領域設定部と、
前記探索領域の輪郭に沿って前記撮像画像をぼかす画像処理部と、を備えることを特徴とする。
前記撮像画像において前記対象物を探索する探索領域を設定する領域設定部と、
前記探索領域の輪郭に沿って前記撮像画像をぼかす画像処理部と、を備えることを特徴とする。
このような制御装置によれば、対象物のエッジ(輪郭)以外のエッジが対象物のエッジとして検出されてしまうことを抑制でき、撮像画像のみから、すなわち、撮像画像の他に従来のようなマスク画像を用いなくても、精度よく、対象物を検出することができる。そのため、従来のようなマスク画像を形成するためメモリーが不要となり、前述した従来構成と比較してメモリーの容量を小さく抑えることができる。そのため、的確に、ロボットを制御することができる。
本発明の制御装置では、前記画像処理部は、前記探索領域の輪郭に沿って前記撮像画像をぼかす前に、前記探索領域を含むように前記撮像画像の一部を切り出すことが好ましい。
これにより、撮像画面に含まれる画素数が減り、処理の負担を低減することができる。
これにより、撮像画面に含まれる画素数が減り、処理の負担を低減することができる。
本発明の制御装置では、前記画像処理部は、輝度値を前記輪郭から離間する方向に徐々に変化させることにより前記撮像画像をぼかすことが好ましい。
これにより、比較的簡単な処理で、撮像画像をぼかすことができる。このような処理は、特に、撮像画像が白黒画像の場合に有効である。
本発明の制御装置では、前記画像処理部は、前記輪郭から離間するほど前記輝度値を小さくすることが好ましい。
これにより、比較的簡単に探索領域の輪郭に沿って撮像画像をぼかすことができる。
これにより、比較的簡単に探索領域の輪郭に沿って撮像画像をぼかすことができる。
本発明の制御装置では、前記画像処理部は、前記輪郭に沿って輝度値を平滑化フィルターを用いて平滑化することにより、前記撮像画像をぼかすことが好ましい。
これにより、比較的簡単に撮像画像をぼかすことができる。
これにより、比較的簡単に撮像画像をぼかすことができる。
本発明の制御装置では、前記画像処理部は、彩度、色相、明度の少なくとも1つを前記輪郭から離間する方向に徐々に変化させることにより前記撮像画像をぼかすことが好ましい。
これにより、比較的簡単に撮像画像をぼかすことができる。このような処理は、特に、撮像画像がカラー画像の場合に有効である。
本発明の制御装置では、前記画像処理部は、前記輪郭の外側をぼかすことが好ましい。
これにより、探索領域内に位置する対象物のエッジが不本意にぼけてしまうことを確実に防止することができる。したがって、より精度よく対象物を検出することができる。
これにより、探索領域内に位置する対象物のエッジが不本意にぼけてしまうことを確実に防止することができる。したがって、より精度よく対象物を検出することができる。
本発明のロボットは、ロボットアームを有し、
請求項1ないし7のいずれか1項に記載の制御装置の処理結果に基づいて制御されることを特徴とする。
請求項1ないし7のいずれか1項に記載の制御装置の処理結果に基づいて制御されることを特徴とする。
このようなロボットによれば、ロボット制御装置の制御により、適切な動作を行うことができる。
本発明のロボットシステムは、ロボットアームを有するロボットと、
対象物を撮像する撮像部と、
請求項1ないし7のいずれか1項に記載の制御装置と、
前記制御装置の処理結果に基づいて、前記ロボットを制御するロボット制御装置と、を備えることを特徴とする。
このようなロボットシステムによれば、適確にロボットを制御することができる。
対象物を撮像する撮像部と、
請求項1ないし7のいずれか1項に記載の制御装置と、
前記制御装置の処理結果に基づいて、前記ロボットを制御するロボット制御装置と、を備えることを特徴とする。
このようなロボットシステムによれば、適確にロボットを制御することができる。
以下、本発明の制御装置、ロボットおよびロボットシステムを添付図面に示す実施形態に基づいて詳細に説明する。
<実施形態>
≪ロボットシステム≫
図1は、本発明のロボットシステムの実施形態を示す図である。図2は、図1に示すロボットシステムのブロック図である。図3は、図1に示すロボットシステムの作業を説明するための平面図である。図4ないし図11は、それぞれ、画像処理装置が行う処理の一例を示す図である。図12は、実施形態についてハードウェア(プロセッサー)を中心として説明するためのブロック図である。図13は、本発明のロボットシステムの他の例1(変形例1)を示すブロック図である。図14は、本発明のロボットシステムの他の例2(変形例2)を示すブロック図である。
≪ロボットシステム≫
図1は、本発明のロボットシステムの実施形態を示す図である。図2は、図1に示すロボットシステムのブロック図である。図3は、図1に示すロボットシステムの作業を説明するための平面図である。図4ないし図11は、それぞれ、画像処理装置が行う処理の一例を示す図である。図12は、実施形態についてハードウェア(プロセッサー)を中心として説明するためのブロック図である。図13は、本発明のロボットシステムの他の例1(変形例1)を示すブロック図である。図14は、本発明のロボットシステムの他の例2(変形例2)を示すブロック図である。
また、図1には、互いに直交する3つの軸としてxr軸、yr軸およびzr軸が図示されており、各軸を示す矢印の先端側を「+(正)」、基端側を「−(負)」とする。また、図1中のzr軸方向を「鉛直方向」とし、xr−yr平面に沿った方向を「水平方向」とする。また、+zr軸側を「上方」とし、−zr軸側を「下方」とする。また、xr軸の方向を「xr方向」、yr軸の方向を「yr方向」、zr軸の方向を「zr方向」と言う。また、以下では、説明の都合上、図1中の基台側を「基端」または「上流」、その反対側を「先端」または「下流」と言う。
また、本明細書において、「水平」とは、完全に水平な場合のみならず、水平に対して±5°以内で傾斜している場合も含む。同様に、本明細書において、「鉛直」とは、完全に鉛直な場合のみならず、鉛直に対して±5°以内で傾斜している場合も含む。また、本明細書において、「平行」とは、2つの線(軸を含む)または面が、互いに完全な平行である場合のみならず、±5°以内で傾斜している場合も含む。また、本明細書において、「直交」とは、2つの線(軸を含む)または面が、互いに完全な直交である場合のみならず、±5°以内で傾斜している場合も含む。
図1に示すロボットシステム100は、ロボット1と、エンドエフェクター19と、撮像部41と、画像処理装置42(制御装置)と、ロボット1等の動作(駆動)を制御するロボット制御装置2と、ロボット制御装置2および画像処理装置42と通信可能なコンピューター5と、を有する。以下、これら各部について順次説明する。
〈ロボット〉
ロボット1は、いわゆる6軸の垂直多関節ロボットであり、例えば、精密機器等を製造する製造工程等で用いられ、精密機器や部品等の対象物(図示せず)の保持や搬送等の種々の作業を行う。ロボット1は、基台110と、基台110に接続されたロボットアーム10(可動部)とを有する。なお、対象物としては、ロボット1が行う作業で用いられるものであればよく、特に限定されない。
ロボット1は、いわゆる6軸の垂直多関節ロボットであり、例えば、精密機器等を製造する製造工程等で用いられ、精密機器や部品等の対象物(図示せず)の保持や搬送等の種々の作業を行う。ロボット1は、基台110と、基台110に接続されたロボットアーム10(可動部)とを有する。なお、対象物としては、ロボット1が行う作業で用いられるものであればよく、特に限定されない。
基台110は、ロボット1を例えば床等の任意の設置箇所70に取り付ける部分である。ロボットアーム10は、アーム11(第1アーム)、アーム12(第2アーム)、アーム13(第3アーム)、アーム14(第4アーム)、アーム15(第5アーム)およびアーム16(第6アーム)を有する。また、アーム15およびアーム16によりリストが構成されている。また、アーム16は、円盤状をなしており、そのアーム16には、エンドエフェクター19(ツール)を着脱可能に設ける(取り付ける)ことが可能になっている。これらアーム11〜16は、基台110側からエンドエフェクター19側に向かってこの順に連結されている。また、各アーム11〜16は、隣り合うアームまたは基台110に対して図示しない所定の回動軸(第1回動軸〜第6回動軸)周りに回動可能になっている。すなわち、基台110とアーム11とは、関節171(ジョイント)を介して連結されている。また、アーム11とアーム12とは、関節172(ジョイント)を介して連結されている。また、アーム12とアーム13とは、関節173(ジョイント)を介して連結されている。また、アーム13とアーム14とは、関節174(ジョイント)を介して連結されている。また、アーム14とアーム15とは、関節175(ジョイント)を介して連結されている。また、アーム15とアーム16とは、関節176(ジョイント)を介して連結されている。
エンドエフェクター19としては、特に限定されないが、本実施形態では、対象物を把持(保持)、解放することが可能なロボットハンドが用いられている。また、エンドエフェクター19の他の構成例としては、例えば、対象物を把持(保持)、解放することが可能な吸着ヘッド等が挙げられる。なお、対象物を保持するとは、対象物を移動または対象物の姿勢を変更させることが可能なように、対象物を持つことであり、例えば、把持(掴む)、吸着、載置等が含まれる。また、エンドエフェクター19、ロボット1の構成要素ではないものとして捉えてもよく、また、ロボット1の構成要素として捉えてもよい。
また、図2に示すように、ロボット1は、一方のアームを他方のアーム(または基台110)に対して回動させるモーターおよび減速機等を備える駆動部130を有する。モーターとしては、例えば、ACサーボモーター、DCサーボモーター等のサーボモーターを用いることができる。減速機としては、例えば、遊星ギア型の減速機、波動歯車装置等を用いることができる。なお、減速機は省略されていてもよい。また、ロボット1は、モーターまたは減速機の回転軸の回転角度を検出する角度センサー140を有する。角度センサー140としては、例えば、ロータリーエンコーダー等を用いることができる。また、駆動部130および角度センサー140は、各アーム11〜16に対応して設けられており、本実施形態では、ロボット1は、6つの駆動部130および6つの角度センサー140を有する。
また、各駆動部130は、図示はしないが、例えば図1に示す基台110に内蔵されたモータードライバーと電気的に接続(以下、単に「接続」とも言う)されている。各駆動部130は、対応するモータードライバーを介してロボット制御装置2により制御される。また、各角度センサー140は、ロボット制御装置2に電気的に接続されている。また、エンドエフェクター19を駆動する駆動部(図示せず)は、ロボット制御装置2により制御される。
以上、ロボット1の構成について簡単に説明した。このようなロボット1は、後述するロボット制御装置2によって制御される。これにより、ロボット1は、適切な動作を行うことができる。
なお、ロボット1は、図示はしないが、例えばエンドエフェクター19に加わる力(モーメントを含む)を検出する6軸力覚センサー等で構成された力検出装置(力検出部)を備えていてもよい。力検出装置は、例えば、アーム16とエンドエフェクター19との間に配置され、ロボット制御装置2に電気的に接続される。力検出装置を設けることにより、例えば、インピーダンス制御等の力制御を行うことが可能になる。
〈ロボット制御装置〉
ロボット制御装置2は、ロボット1の動作を制御する。このロボット制御装置2は、ロボット1が有する各部の機能をつかさどるロボットコントローラーで構成されており、ロボット1、コンピューター5および画像処理装置42に対して通信可能に接続されている。
ロボット制御装置2は、ロボット1の動作を制御する。このロボット制御装置2は、ロボット1が有する各部の機能をつかさどるロボットコントローラーで構成されており、ロボット1、コンピューター5および画像処理装置42に対して通信可能に接続されている。
ロボット制御装置2とロボット1とは、例えばケーブル等を用いて有線方式で通信可能に接続されていてもよく、また、無線方式で通信可能に接続されていてもよい。また、ロボット制御装置2は、ロボット1と別体であってもよく、また、ロボット1(例えば、基台110等)にその一部または全部が内蔵されていてもよい。また、ロボット制御装置2とコンピューター5とは、例えばケーブル等を用いて有線方式で通信可能に接続されていてもよく、また、無線方式で通信可能に接続されていてもよい。また、ロボット制御装置2と画像処理装置42とは、例えばケーブル等を用いて有線方式で通信可能に接続されていてもよく、また、無線方式で通信可能に接続されていてもよい。
図2に示すように、ロボット制御装置2は、プロセッサーを備える制御部21と、制御部21に通信可能に接続されたメモリー等を備える記憶部22と、外部インターフェース(I/F)を備える外部入出力部23(受付部)と、を含む。外部入出力部23は、ロボット制御装置2の受付部の一例である。ロボット制御装置2の各構成要素は、種々のバスを介して相互通信可能に接続されている。
制御部21は、記憶部22に記憶された各種プログラム等を実行する。これにより、ロボット1の動作の制御や各種演算および判断等の処理を実現できる。記憶部22には、制御部21により実行可能な各種プログラムが保存(記憶)されている。また、記憶部22には、外部入出力部23で受け付けた各種データの保存が可能である。記憶部22は、例えばRAM(Random Access Memory)等の揮発性メモリーや、ROM(Read Only Memory)等の不揮発性メモリー等を含んで構成されている。なお、記憶部22は、非着脱式に限らず、着脱式の外部記憶装置(図示せず)を有する構成であってもよい。
なお、上述の各種プログラムとしては、コンピューター5から出力された動作プログラムや、動作プログラムの修正や変更をするプログラム等が挙げられる。各種データとしては、例えば、エンドエフェクター19の位置姿勢、各アーム11〜16の回動角度等に関するデータ等が挙げられる。
外部入出力部23は、外部インターフェース(I/F)を備え、ロボット1、コンピューター5および画像処理装置42の各接続のために用いられる。
このようなロボット制御装置2は、例えばコンピューター5で作成した動作プログラムに基づいて(を用いて)ロボット1を制御する。これにより、コンピューター5で作成した動作プログラムを用いて、ロボット1に適切な動作を行わせることができる。
なお、ロボット制御装置2は、前述した構成に加えて、さらに他の構成が付加されていてもよい。また、ロボット制御装置2には、ディスプレイ等を有する表示装置や、例えばマウスやキーボード等の入力装置が接続されていてもよい。また、記憶部22に保存されている各種プログラムやデータ等は、予め記憶部22に記憶されたものであってもよいし、例えばCD−ROM等の記録媒体(図示せず)に格納されており、この記録媒体から提供されたものでもよいし、ネットワーク等を介して提供されたものであってもよい。
〈コンピューター〉
図2に示すコンピューター5としては、例えばPC(Personal Computer)等の種々のコンピューターを用いることが可能であり、ロボット制御装置2および画像処理装置42に対して通信可能に接続されている。コンピューター5は、プロセッサーを備える制御部51と、制御部51に通信可能に接続されたメモリー等を備える記憶部52と、外部I/F(インターフェース)を備える外部入出力部53(受付部)と、を含む。外部入出力部53は、コンピューター5の受付部の1例である。コンピューター5の各構成要素は、種々のバスを介して相互通信可能に接続されている。また、コンピューター5と画像処理装置42とは、例えばケーブル等を用いて有線方式で通信可能に接続されていてもよく、また、無線方式で通信可能に接続されていてもよい。
図2に示すコンピューター5としては、例えばPC(Personal Computer)等の種々のコンピューターを用いることが可能であり、ロボット制御装置2および画像処理装置42に対して通信可能に接続されている。コンピューター5は、プロセッサーを備える制御部51と、制御部51に通信可能に接続されたメモリー等を備える記憶部52と、外部I/F(インターフェース)を備える外部入出力部53(受付部)と、を含む。外部入出力部53は、コンピューター5の受付部の1例である。コンピューター5の各構成要素は、種々のバスを介して相互通信可能に接続されている。また、コンピューター5と画像処理装置42とは、例えばケーブル等を用いて有線方式で通信可能に接続されていてもよく、また、無線方式で通信可能に接続されていてもよい。
制御部51は、記憶部52に記憶された各種プログラム等を実行する。これにより、画像処理装置42等の制御や各種演算および判断等の処理を実現できる。また、記憶部52には、制御部51により実行可能な各種プログラムが保存されている。また、記憶部52には、外部入出力部53で受け付けた各種データの保存が可能である。記憶部52は、例えばRAM(Random Access Memory)等の揮発性メモリーや、ROM(Read Only Memory)等の不揮発性メモリー等を含んで構成されている。なお、記憶部52は、非着脱式に限らず、着脱式の外部記憶装置(図示せず)を有する構成であってもよい。
外部入出力部53は、外部I/F(インターフェース)を備え、ロボット制御装置2、画像処理装置42、表示装置31および入力装置32との各接続のために用いられる。したがって、外部入出力部53は、作業者(ユーザー)による入力装置32の操作(指令)を受け付ける受付部としての機能を有する。また、外部入出力部53は、複数のモードのうち所定のモードの選択を受け付けるモード受付部としての機能を有する。また、外部入出力部53は、表示装置31のモニターに各種画面に関する信号を出力する出力部としての機能を有する。
また、コンピューター5は、前述した構成に加えて、さらに他の構成が付加されていてもよい。また、記憶部52に保存されている各種プログラムやデータ等は、予め記憶部52に記憶されたものであってもよいし、例えばCD−ROM等の記録媒体(図示せず)に格納されており、この記録媒体から提供されたものでもよいし、ネットワーク等を介して提供されたものであってもよい。
〈撮像部〉
撮像部41は、撮像素子(図示せず)およびレンズ群(図示せず)等を有している。また、撮像部41は、ロボット1以外の(ロボット1とは異なる)任意の設置個所、例えば、天井等の任意の設置箇所に取り付けられており(固定されており)、下方を撮像可能になっている(下方を向いている)。ただし、撮像部41は、床に取り付けられており、上方を撮像可能になっていてもよい。また、撮像部41は、ロボット1に設けられていてもよい(言い換えると、ロボット1が有するカメラを撮像部41として用いてもよい)。なお、撮像素子としては、特に限定されず、例えば、CCDイメージセンサー、CMOSイメージセンサー等が挙げられる。また、撮像部41は、2つの撮像素子を用いた3Dカメラであってもよい。この撮像部41は、撮像を行って、画像(画像データ)を生成する。
撮像部41は、撮像素子(図示せず)およびレンズ群(図示せず)等を有している。また、撮像部41は、ロボット1以外の(ロボット1とは異なる)任意の設置個所、例えば、天井等の任意の設置箇所に取り付けられており(固定されており)、下方を撮像可能になっている(下方を向いている)。ただし、撮像部41は、床に取り付けられており、上方を撮像可能になっていてもよい。また、撮像部41は、ロボット1に設けられていてもよい(言い換えると、ロボット1が有するカメラを撮像部41として用いてもよい)。なお、撮像素子としては、特に限定されず、例えば、CCDイメージセンサー、CMOSイメージセンサー等が挙げられる。また、撮像部41は、2つの撮像素子を用いた3Dカメラであってもよい。この撮像部41は、撮像を行って、画像(画像データ)を生成する。
〈画像処理装置(制御装置)〉
画像処理装置42(制御装置)は、撮像部41が撮像した画像(画像データ)に対して各種の画像処理を行い、対象物の位置および姿勢を特定(認識)する。この画像処理装置42は、撮像部41に対して通信可能に接続されている。
画像処理装置42(制御装置)は、撮像部41が撮像した画像(画像データ)に対して各種の画像処理を行い、対象物の位置および姿勢を特定(認識)する。この画像処理装置42は、撮像部41に対して通信可能に接続されている。
また、画像処理装置42は、プロセッサーを備える領域設定部421および画像処理部424と、これらに通信可能に接続されたメモリー等を備える記憶部422と、外部I/F(インターフェース)を備える外部入出力部423(受付部)と、を含む。外部入出力部423は、画像処理装置42の受付部の一例である。画像処理装置42の各構成要素は、種々のバスを介して相互通信可能に接続されている。また、画像処理装置42と撮像部41とは、例えばケーブル等を用いて有線方式で通信可能に接続されていてもよく、また、無線方式で通信可能に接続されていてもよい。
領域設定部421および画像処理部424は、それぞれ、記憶部422に記憶された各種プログラム等を実行する。これにより、対象物の画像認識を実現できる。すなわち、領域設定部421および画像処理部424は、それぞれ、撮像部41により対象物を撮像して得られた画像に含まれる対象物を認識(検出)する機能を有する。なお、領域設定部421および画像処理部424の機能については、後に詳細に説明する。
記憶部422には、領域設定部421および画像処理部424により実行可能な各種プログラムが保存されている。また、記憶部422には、外部入出力部423で受け付けた各種データの保存が可能である。記憶部422は、例えばRAM(Random Access Memory)等の揮発性メモリーや、ROM(Read Only Memory)等の不揮発性メモリー等を含んで構成されている。なお、記憶部422は、非着脱式に限らず、着脱式の外部記憶装置(図示せず)を有する構成であってもよい。
外部入出力部423は、外部I/F(インターフェース)を備え、撮像部41、ロボット制御装置2およびコンピューター5との各接続のために用いられる。この外部入出力部423は、撮像部41により対象物を撮像して得られた画像(画像データ)を受け付ける画像受付部としての機能を有する。
また、画像処理装置42は、前述した構成に加えて、さらに他の構成が付加されていてもよい。また、記憶部422に保存されている各種プログラムやデータ等は、予め記憶部422に記憶されたものであってもよいし、例えばCD−ROM等の記録媒体(図示せず)に格納されており、この記録媒体から提供されたものでもよいし、ネットワーク等を介して提供されたものであってもよい。
〈表示装置および入力装置〉
図2に示す表示装置31は、ディスプレイを備えており、例えば各種画面を表示する機能を有する。また、表示装置31としては、特に限定されず、例えば、液晶表示装置、有機EL表示装置等の直視型の表示装置、プロジェクター等の投射型表示装置等が挙げられる。この表示装置31は、コンピューター5に接続されているが、ロボット制御装置2に接続することもできる。また、2つの表示装置31を用意し、その表示装置31をコンピューター5およびロボット制御装置2に接続することもできる。ここでは、表示装置31がコンピューター5に接続されている場合を例に挙げて説明する。
図2に示す表示装置31は、ディスプレイを備えており、例えば各種画面を表示する機能を有する。また、表示装置31としては、特に限定されず、例えば、液晶表示装置、有機EL表示装置等の直視型の表示装置、プロジェクター等の投射型表示装置等が挙げられる。この表示装置31は、コンピューター5に接続されているが、ロボット制御装置2に接続することもできる。また、2つの表示装置31を用意し、その表示装置31をコンピューター5およびロボット制御装置2に接続することもできる。ここでは、表示装置31がコンピューター5に接続されている場合を例に挙げて説明する。
入力装置32は、例えばマウスやキーボード等を含んで構成されている。この入力装置32は、コンピューター5に接続されているが、ロボット制御装置2に接続することもできる。また、2つの入力装置32を用意し、その入力装置32をコンピューター5およびロボット制御装置2に接続することもできる。ここでは、入力装置32がコンピューター5に接続されている場合を例に挙げて説明する。作業者は、入力装置32を操作することで、コンピューター5に対して各種の処理等の指示(入力)を行うことができる。
具体的には、作業者は、表示装置31に表示される各種画面(ウィンドウ等)に対して入力装置32のマウスでクリックする操作や、入力装置32のキーボードで文字や数字等を入力する操作により、コンピューター5に対する指示を行うことができる。以下、この作業者による入力装置32を用いた指示(入力装置32による入力)を「操作指示」とも言う。この操作指示は、入力装置32により、表示装置31に表示された内容から所望の内容を選択する選択操作や、入力装置32により、文字や数字等を入力する入力指示等を含む。また、入力には、選択も含まれる。
なお、コンピューター5には、表示装置31および入力装置32がそれぞれ1つ接続されていてもよいし、それぞれ複数接続されていてもよい。また、表示装置31および入力装置32の代わりに、表示装置31および入力装置32の機能を兼ね備えた表示入力装置(図示せず)を用いてもよい。表示入力装置としては、例えばタッチパネル等を用いることができる。
以上、ロボットシステム100の基本的な構成について簡単に説明した。
以上、ロボットシステム100の基本的な構成について簡単に説明した。
≪ロボットシステムの動作≫
以下、ロボットシステム100の作業として、図3に示すように、テーブルT1に載置された対象物71を、別のテーブルT2に搬送する作業について代表して説明する。この場合、ロボット1は、エンドエフェクター19により対象物71を把持し、アームを動かして、把持した対象物71をテーブルT2まで搬送し、対象物71を開放することにより、テーブルT1からテーブルT2への対象物71の搬送を実現する。このような作業において、ロボット1は、対象物71を正しく把持できるように、対象物71の状態(位置よおび姿勢)を知る必要がある。
以下、ロボットシステム100の作業として、図3に示すように、テーブルT1に載置された対象物71を、別のテーブルT2に搬送する作業について代表して説明する。この場合、ロボット1は、エンドエフェクター19により対象物71を把持し、アームを動かして、把持した対象物71をテーブルT2まで搬送し、対象物71を開放することにより、テーブルT1からテーブルT2への対象物71の搬送を実現する。このような作業において、ロボット1は、対象物71を正しく把持できるように、対象物71の状態(位置よおび姿勢)を知る必要がある。
以下、対象物71の状態を特定する処理について詳細に説明する。なお、テーブルT1としては、特に限定されないが、説明の便宜上、テーブルT1は、白色の領域T1wと黒色の領域T1bとが格子状に配置された模様を有しているものとし、白色の領域T1w上に対象物71が載置されている例について説明する。
まず、撮像部41により、テーブルT1上の対象物71を含む画像P1(撮像画像)が撮像される。この画像P1は、例えば、図4に示すような画像となる。画像P1は、撮像部41から画像処理装置42に送信され、画像処理装置42の領域設定部421は、受信した画像P1に基づいて、探索領域As(関心領域:ROI)を設定する。
探索領域Asは、対象物71の全域を含むように設定され、本実施形態では、図5に示すように、斜めに傾いた台形の領域となっている。ただし、探索領域Asの形状や大きさは、特に限定されない。また、探索領域Asは、作業者から指定(教授)を受けてもよいし、領域設定部421が検出してもよい。領域設定部421が探索領域Asを検出する方法としては、例えば、画像P1の全体を画像としたテンプレートマッチング処理によって対象物71に設けられたマーカー(図示せず)を検出し、このマーカーの周囲であって、対象物71の全体が含まれるのに十分な領域を探索領域Asとして設定することができる。
画像処理装置42は、領域設定部421によって探索領域Asを設定した後、図6に示すように、画像処理部424によって画像P1から探索領域Asの全域を含む画像P2を切り出す。以下では、画像P2を「切り出し画像P2」と言う。そして、画像処理部424は、切り出し画像P2を用いて画像処理を行う。具体的には、画像処理部424は、切り出し画像P2の全域を新たな探索領域As’とし、画像P2の全域を探索することにより、図7に示すように、対象物71のエッジE(輪郭)を検出する。ここで、切り出し画像P2は、探索領域Asの全域を含みつつ、より小さい範囲とすることが好ましく、本実施形態では、探索領域Asに外接する矩形となっている。これにより、探索領域As’をより小さくすることができ、すなわち、探索領域As’に含まれる画素数を少なくすることができ、探索の負担を低減することができる。
対象物71のエッジEを検出する方法としては、特に限定されず、例えば、切り出し画像P2に含まれる全ての画素について、画素の特徴を検出し、検出した各画素の特徴に基づいて対象物71のエッジEを検出することができる。より具体的には、例えば、切り出し画像P2が白黒画像(グレースケール)の場合には、各画素の輝度を検出し、各画素の輝度に基づいて対象物71のエッジEを検出することができる。例えば、図8に示すように、横に並ぶ3つの画素Px1、Px2、Px3について、互いの輝度を比較し、画素Px1と画素Px3との輝度の急峻な差から、これらの間にある画素Px2をエッジEとして特定することができる。また、例えば、切り出し画像P2がカラー画像の場合には、各画素の色度を検出し、各画素の色度に基づいて対象物71のエッジEを検出することができる。
ここで、図9に示すように、切り出し画像P2にはテーブルT1の白色の領域T1wと黒色の領域T1bとの境界Qが存在しているため、画像処理部424が、この境界Qを対象物71のエッジEとして誤認してしまう場合がある。このように、画像処理部424が、境界Qを対象物71のエッジEとして誤認してしまうと、対象物71の状態を正しく検出することができなくなる。そこで、画像処理部424は、境界QをエッジEと誤認しないように、次のような処理を行う。
画像処理部424は、図10に示すように、領域設定部421によって設定された探索領域Asの輪郭に沿って切り出し画像P2をぼかす処理を行う。これにより、境界Qがぼやけ、境界QがエッジEとして認識され難くなる。そのため、画像処理部424が、境界QをエッジEと誤認してしまうことを抑制することができ、精度よく、対象物71のエッジEを検出することができる。なお、図10では、境界Qの一部がぼやけているが、これに限定されず、境界Qの全部がぼやけていてもよく、ぼやける範囲が広い程、上述の効果をより顕著に発揮することができる。
このような方法によれば、対象物71のエッジE以外のエッジがエッジEとして検出さされてしまうことを抑制でき、切り出し画像P2のみから、すなわち、切り出し画像P2の他に従来のようなマスク画像を用いなくても、精度よく、対象物71のエッジEを検出することができる。そのため、従来のようなマスク画像を形成するためメモリーが不要となり、前述した従来構成と比較してメモリーの容量を小さく抑えることができる。
探索領域Asの輪郭に沿って切り出し画像P2をぼかす処理方法については、特に限定されない。例えば、切り出し画像P2が白黒画像(グレースケール)である場合には、探索領域Asの輪郭付近の輝度値を輪郭から離間する方向に徐々に変化させる方法が挙げられる。例えば、本実施形態では、探索領域Asの輪郭から離間する方向に沿って白色から黒色に徐々(段階的)に変化するように、輝度を徐々(段階的)に小さくしている。このような処理によれば、比較的簡単にかつ確実に探索領域Asの輪郭に沿って切り出し画像P2をぼかすことができる。このような処理は、平滑化フィルターを用いて、探索領域Asの輪郭付近の輝度を平滑化することにより実行することができる。これにより、比較的簡単に、切り出し画像P2をぼかすことができる。なお、平滑化フィルターとしては、特に限定されないが、例えば、ガウシアンフィルターを用いることができる。
また、切り出し画像P2がカラー画像である場合には、彩度、色相、明度の少なくとも1つを探索領域Asの輪郭から離間する方向に徐々に変化させることにより切り出し画像P2をぼかすことができる。これにより、比較的簡単に、切り出し画像P2をぼかすことができる。なお、彩度を徐々に変化させる場合は、例えば、探索領域Asの輪郭から離間する方向に沿って彩度を徐々に低下させて、無彩色に近づけていくことにより、切り出し画像P2をぼかすことができる。また、色相を徐々に変化させる場合は、例えば、探索領域Asの輪郭から離間する方向に沿って色相を徐々に変化させて、所定の色相(または輪郭の色相)から補色となる色相に向けて変化させることにより、切り出し画像P2をぼかすことができる。また、明度を徐々に変化させる場合は、例えば、探索領域Asの輪郭から離間する方向に沿って明度を徐々に低下させて、暗い色に近づけていくことにより、切り出し画像P2をぼかすことができる。
図10に示すように、切り出し画像P2の現画像に対してぼかす領域は、探索領域Asの外側の領域である。すなわち、探索領域Asの輪郭からその外側に離間する方向に切り出し画像P2をぼかしている。前述したように、探索領域Asのどこかに対象物71が存在しているため、例えば、探索領域Asの内側の領域をぼかしてしまうと、対象物71のエッジEも一緒にぼけてしまうおそれがある。そのため、探索領域Asの外側の領域だけをぼかすことにより、対象物71のエッジEがぼけてしまうことを確実に防止することができる。したがって、より精度よくエッジEを検出することができる。ただし、ぼかす領域は、これに限定されず、例えば、図11に示すように、探索領域Asの外側の領域と共に、内側の領域についてもぼかしてもよい。
画像処理装置42は、上述した方法によって対象物71のエッジEを検出し、対象物71の輪郭形状を取得する。次に、画像処理装置42は、輪郭形状を画像としたテンプレートマッチング処理によって、対象物71の姿勢を検出する。すなわち、輪郭形状の画像をテンプレート画像で走査して両画像の類似度を求め、この類似度にしたがって、対象物71の姿勢および位置を検出する。画像処理装置42は、検出した対象物71の状態(位置および姿勢)をロボット制御装置2に送信し、ロボット制御装置2は、受信した対象物71の状態に基づいて、ロボット1の各部の駆動を制御する。これにより、ロボット1によって、対象物71を適切に把持、搬送することができる。
以上説明したように、画像処理装置42(制御装置)は、撮像部41が対象物71を撮像した画像P1(撮像画像)に基づいて対象物71を処理するロボットを制御する装置である。そして、画像処理装置42は、画像P1において対象物71を探索する探索領域Asを設定する領域設定部421と、探索領域Asの輪郭に沿って画像P1をぼかす画像処理部424と、を備える。このような画像処理装置42によれば、対象物71のエッジE以外のエッジがエッジEとして検出されてしまうことを抑制でき、切り出し画像P2のみから、すなわち、切り出し画像P2の他に従来のようなマスク画像を用いなくても、精度よく、対象物71を検出することができる。そのため、従来のようなマスク画像を形成するためメモリーが不要となり、前述した従来構成と比較してメモリーの容量を小さく抑えることができる。そのため、的確に、ロボット1を制御することができる。
また、画像処理装置42は、探索領域Asの輪郭に沿って画像P1をぼかす前に、探索領域Asを含むように画像P1の一部を切り出す。そして、探索領域Asの輪郭に沿って、切り出した画像(切り出し画像P2)をぼかす。前述したように、切り出し画像P2の全域が新たな探索領域As’となるため、画像P1から切り出し画像P2を切り出すことにより、探索領域As’を小さくすることができ、処理の負担を低減することができる。なお、画像P1から切り出し画像P2を切り取らず、画像P1のままでぼかす処理を行ってもよい。
また、画像処理装置42は、輝度値を探索領域Asの輪郭から離間する方向に徐々に変化させることにより切り出し画像P2をぼかす。これにより、比較的簡単な処理で、切り出し画像P2をぼかすことができる。
また、画像処理装置42は、探索領域Asの輪郭から離間するほど輝度値を小さくする。これにより、比較的簡単に探索領域Asの輪郭に沿って切り出し画像P2をぼかすことができる。このような処理は、特に、切り出し画像P2が白黒画像の場合に有効である。
また、画像処理装置42は、探索領域Asの輪郭に沿って輝度値を平滑化フィルターを用いて平滑化することにより、切り出し画像P2をぼかす。これにより、比較的簡単に切り出し画像P2をぼかすことができる。
また、画像処理装置42は、彩度、色相、明度の少なくとも1つを探索領域Asの輪郭から離間する方向に徐々に変化させることにより切り出し画像P2をぼかす。これにより、比較的簡単に探索領域Asの輪郭に沿って切り出し画像P2をぼかすことができる。このような処理は、特に、切り出し画像P2がカラー画像の場合に有効である。
また、画像処理装置42は、探索領域Asの輪郭の外側をぼかす。これにより、探索領域As内に位置する対象物71のエッジEが不本意にぼけてしまうことを確実に防止することができる。したがって、より精度よく対象物71を検出することができる。
また、ロボット1は、ロボットアームを有し、画像処理装置42(制御装置)の処理結果に基づいて制御される。このようなロボット1によれば、画像処理装置42により検出された対象物71の状態に基づいて制御されるため、適切な動作を行うことができる。
また、ロボットシステム100は、ロボットアームを有するロボット1と、対象物71を撮像する撮像部41と、画像処理装置42(制御装置)と、画像処理装置42の処理結果に基づいて、ロボット1を制御するロボット制御装置2と、を備える。このようなロボットシステム100によれば、画像処理装置42により検出された対象物71の状態に基づいてロボット1を制御できるため、ロボット1に適切な動作をさせることができる。
図12は、実施形態についてハードウェア(プロセッサー)を中心として説明するためのブロック図である。図12には、ロボット1とコントローラー61とコンピューター62が接続されたロボットシステム100Aの全体構成が示されている。ロボット1の制御はコントローラー61にあるプロセッサーによりメモリーにある指令を読みだして実行されてもよいし、コンピューター62に存在するプロセッサーによりメモリーにある指令を読みだしてコントローラー61を介して実行されてもよい。
<変形例1>
図13は、本発明のロボットシステムの他の例1(変形例1)を示すブロック図である。図13には、ロボット1に直接コンピューター63が接続されたロボットシステム100Bの全体構成が示されている。ロボット1の制御はコンピューター63に存在するプロセッサーによりメモリーにある指令を読みだして直接実行される。
図13は、本発明のロボットシステムの他の例1(変形例1)を示すブロック図である。図13には、ロボット1に直接コンピューター63が接続されたロボットシステム100Bの全体構成が示されている。ロボット1の制御はコンピューター63に存在するプロセッサーによりメモリーにある指令を読みだして直接実行される。
<変形例2>
図14は、本発明のロボットシステムの他の例2(変形例2)を示すブロック図である。図14には、コントローラー61が内蔵されたロボット1とコンピューター66が接続され、コンピューター66がLAN等のネットワーク65を介してクラウド64に接続されているロボットシステム100Cの全体構成が示されている。ロボット1の制御はコンピューター66に存在するプロセッサーによりメモリーにある指令を読みだして実行されてもよいし、クラウド64上に存在するプロセッサーによりコンピューター66を介してメモリーにある指令を読みだして実行されてもよい。
図14は、本発明のロボットシステムの他の例2(変形例2)を示すブロック図である。図14には、コントローラー61が内蔵されたロボット1とコンピューター66が接続され、コンピューター66がLAN等のネットワーク65を介してクラウド64に接続されているロボットシステム100Cの全体構成が示されている。ロボット1の制御はコンピューター66に存在するプロセッサーによりメモリーにある指令を読みだして実行されてもよいし、クラウド64上に存在するプロセッサーによりコンピューター66を介してメモリーにある指令を読みだして実行されてもよい。
また、ロボットシステム100A、100B、100Cでは、各プロセッサーは、それぞれ、1つの装置で構成されていてもよく、また、複数の装置で構成されていてもよい、すなわち、複数の単位プロセッサーに分かれていてもよい。
以上、本発明の制御装置、ロボットおよびロボットシステムを図示の実施形態に基づいて説明したが、本発明は、これに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、他の任意の構成物が付加されていてもよい。
また、前述した実施形態では、ロボットとして、6軸の垂直多関節ロボットを例示したが、当該ロボットは、これに限らず、例えば、スカラーロボット等の水平多関節ロボット、脚部を有する脚式歩行(走行)ロボット等の他の形態のロボットであってもよい。また、当該ロボットは、単腕ロボットに限定されず、例えば、双腕ロボット等の他のロボットであってもよい。したがって、ロボットアーム(可動部)の数は、1つに限定されず、2つ以上であってもよい。また、ロボットアーム(可動部)が有するアームの数は、前述した実施形態では、6つであるが、1つ〜5つまたは7つ以上であってもよい。
1…ロボット、2…ロボット制御装置、5…コンピューター、10…ロボットアーム、11、12、13、14、15、16…アーム、19…エンドエフェクター、21…制御部、22…記憶部、23…外部入出力部、31…表示装置、32…入力装置、41…撮像部、42…画像処理装置、51…制御部、52…記憶部、53…外部入出力部、61…コントローラー、62、63…コンピューター、64…クラウド、65…ネットワーク、66…コンピューター、70…設置箇所、71…対象物、100、100A、100B、100C…ロボットシステム、110…基台、130…駆動部、140…角度センサー、171、172、173、174、175、176…関節、421…領域設定部、422…記憶部、423…外部入出力部、424…画像処理部、As、As’…探索領域、E…エッジ、P1…画像、P2…切り出し画像、Px1、Px2、Px3…画素、Q…境界、T1…テーブル、T1b…領域、T1w…領域、T2…テーブル
Claims (9)
- 撮像部が対象物を撮像した撮像画像に基づいて前記対象物を処理するロボットを制御する制御装置であって、
前記撮像画像において前記対象物を探索する探索領域を設定する領域設定部と、
前記探索領域の輪郭に沿って前記撮像画像をぼかす画像処理部と、を備えることを特徴とする制御装置。 - 前記画像処理部は、前記探索領域の輪郭に沿って前記撮像画像をぼかす前に、前記探索領域を含むように前記撮像画像の一部を切り出す請求項1に記載の制御装置。
- 前記画像処理部は、輝度値を前記輪郭から離間する方向に徐々に変化させることにより前記撮像画像をぼかす請求項1または2に記載の制御装置。
- 前記画像処理部は、前記輪郭から離間するほど前記輝度値を小さくする請求項3に記載の制御装置。
- 前記画像処理部は、前記輪郭に沿って輝度値を平滑化フィルターを用いて平滑化することにより、前記撮像画像をぼかす請求項1または2に記載の制御装置。
- 前記画像処理部は、彩度、色相、明度の少なくとも1つを前記輪郭から離間する方向に徐々に変化させることにより前記撮像画像をぼかす請求項1または2に記載の制御装置。
- 前記画像処理部は、前記輪郭の外側をぼかす請求項1ないし6のいずれか1項に記載の制御装置。
- ロボットアームを有し、
請求項1ないし7のいずれか1項に記載の制御装置の処理結果に基づいて制御されることを特徴とするロボット。 - ロボットアームを有するロボットと、
対象物を撮像する撮像部と、
請求項1ないし7のいずれか1項に記載の制御装置と、
前記制御装置の処理結果に基づいて、前記ロボットを制御するロボット制御装置と、を備えることを特徴とするロボットシステム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017247044A JP2019114057A (ja) | 2017-12-22 | 2017-12-22 | 制御装置、ロボットおよびロボットシステム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017247044A JP2019114057A (ja) | 2017-12-22 | 2017-12-22 | 制御装置、ロボットおよびロボットシステム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019114057A true JP2019114057A (ja) | 2019-07-11 |
Family
ID=67222767
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017247044A Pending JP2019114057A (ja) | 2017-12-22 | 2017-12-22 | 制御装置、ロボットおよびロボットシステム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2019114057A (ja) |
-
2017
- 2017-12-22 JP JP2017247044A patent/JP2019114057A/ja active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US8315455B2 (en) | Robot system, robot control device and method for controlling robot | |
US9884425B2 (en) | Robot, robot control device, and robotic system | |
US10306149B2 (en) | Image processing apparatus, robot system, robot, and image processing method | |
JP2012254518A (ja) | ロボット制御システム、ロボットシステム及びプログラム | |
JP2011110621A (ja) | ロボットの教示データを作成する方法およびロボット教示システム | |
JP2009083095A (ja) | ロボット装置の制御方法及びロボット装置 | |
JP2015071206A (ja) | 制御装置、ロボット、教示データ生成方法及びプログラム | |
US10708479B2 (en) | Optical measurement of object location in three dimensions | |
JP2018034242A (ja) | ロボット制御装置、ロボット、及びロボットシステム | |
US9595095B2 (en) | Robot system | |
US10207409B2 (en) | Image processing method, image processing device, and robot system | |
US10562187B2 (en) | Robot, robot control device, and robot system | |
CN112476489A (zh) | 基于自然特征的柔性机械臂同步测量方法及*** | |
WO2020179416A1 (ja) | ロボット制御装置、ロボット制御方法、及びロボット制御プログラム | |
JP7112528B2 (ja) | 作業座標作成装置 | |
JP2015003348A (ja) | ロボット制御システム、制御装置、ロボット、ロボット制御システムの制御方法及びロボットの制御方法 | |
JP2014144516A (ja) | ロボット制御装置、ロボットシステム、ロボット、制御方法及びプログラム | |
JP2019114057A (ja) | 制御装置、ロボットおよびロボットシステム | |
JP5862382B2 (ja) | 作業支援装置 | |
JP4815592B2 (ja) | 物体検出方法 | |
WO2021177159A1 (ja) | 機械学習装置 | |
JP2020198020A (ja) | 画像処理パラメータの決定方法、画像処理装置、及びロボットシステム | |
JP7376227B2 (ja) | 複数の撮像条件を用いた画像処理装置 | |
JP2012236266A (ja) | ロボット制御システム、ロボットシステム及びプログラム | |
JP2015157339A (ja) | ロボット、ロボットシステム、制御装置、及び制御方法 |