JP2019058993A - ロボットシステム - Google Patents
ロボットシステム Download PDFInfo
- Publication number
- JP2019058993A JP2019058993A JP2017186529A JP2017186529A JP2019058993A JP 2019058993 A JP2019058993 A JP 2019058993A JP 2017186529 A JP2017186529 A JP 2017186529A JP 2017186529 A JP2017186529 A JP 2017186529A JP 2019058993 A JP2019058993 A JP 2019058993A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- robot
- light
- recognition sensor
- arm
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01B—MEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
- G01B11/00—Measuring arrangements characterised by the use of optical techniques
- G01B11/24—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
- G01B11/25—Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
- G01B11/254—Projection of a pattern, viewing through a pattern, e.g. moiré
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/10—Programme-controlled manipulators characterised by positioning means for manipulator elements
- B25J9/12—Programme-controlled manipulators characterised by positioning means for manipulator elements electric
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1694—Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
- B25J9/1697—Vision controlled systems
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J13/00—Controls for manipulators
- B25J13/08—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices
- B25J13/087—Controls for manipulators by means of sensing devices, e.g. viewing or touching devices for sensing other physical parameters, e.g. electrical or chemical properties
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J19/00—Accessories fitted to manipulators, e.g. for monitoring, for viewing; Safety devices combined with or specially adapted for use in connection with manipulators
- B25J19/02—Sensing devices
- B25J19/021—Optical sensing devices
- B25J19/022—Optical sensing devices using lasers
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B25—HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
- B25J—MANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
- B25J9/00—Programme-controlled manipulators
- B25J9/16—Programme controls
- B25J9/1602—Programme controls characterised by the control system, structure, architecture
- B25J9/161—Hardware, e.g. neural networks, fuzzy logic, interfaces, processor
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B19/00—Programme-control systems
- G05B19/02—Programme-control systems electric
- G05B19/18—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
- G05B19/401—Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form characterised by control arrangements for measuring, e.g. calibration and initialisation, measuring workpiece for machining purposes
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37555—Camera detects orientation, position workpiece, points of workpiece
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/37—Measurements
- G05B2219/37571—Camera detecting reflected light from laser
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05B—CONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
- G05B2219/00—Program-control systems
- G05B2219/30—Nc systems
- G05B2219/40—Robotics, robotics mapping to robotics vision
- G05B2219/40564—Recognize shape, contour of object, extract position and orientation
Landscapes
- Engineering & Computer Science (AREA)
- Robotics (AREA)
- Mechanical Engineering (AREA)
- Physics & Mathematics (AREA)
- Automation & Control Theory (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- Manufacturing & Machinery (AREA)
- Optics & Photonics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Artificial Intelligence (AREA)
- Evolutionary Computation (AREA)
- Fuzzy Systems (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Manipulator (AREA)
Abstract
【課題】対象物の形状を測定する小型な装置をロボットアームに設けたロボットシステムを提供すること。【解決手段】対象物に対して作業を行う1つまたは複数のロボットアームと、前記ロボットアームに配置され、前記対象物の形状を測定する形状測定部と、前記形状測定部が測定した結果に基づいて前記ロボットアームを制御する制御部と、を備え、前記形状測定部は、前記対象物に対して縞状のパターン光を投影する投影部と、前記パターン光を撮像する撮像部と、前記撮像部が撮像した結果に基づいて前記対象物の形状を算出する算出部と、を有し、前記投影部は、ライン状のレーザーを出射する光源部と、前記光源部からのレーザーを前記対象物に向けて反射させて走査することで前記パターン光を生成する光スキャナーと、前記光スキャナーを非共振駆動する駆動信号を出力するスキャナー駆動部と、を有することを特徴とするロボットシステム。【選択図】図3
Description
本発明は、ロボットシステムに関する。
ロボットアームを有するロボットを用いて対象物に対して作業を行うロボットシステムとして、対象物の形状を測定する装置をロボットアームに取り付け、当該装置の測定結果を用いてロボットアームを動作させて作業を行うシステムが知られている。
対象物の形状を測定する装置は、例えば、特許文献1に記載されているように、対象物に明暗パターンを投影して、位相シフト法により対象物の形状を測定する。ここで、特許文献1に記載の装置は、共振揺動するMEMSミラーでレーザー光源からの光を走査することで、対象物上に明暗パターンを投影する。
ロボットアームに取り付ける装置は、一般に、大型になるほど、ロボットの可動範囲を制限したり、ロボットの可搬重量を小さくしたりする。そのため、ロボットアームに取り付ける装置には、小型化が求められる。
しかし、特許文献1に記載の装置は、MEMSミラーが共振駆動であるため、環境温度の変化等に伴ってMEMSミラーの共振周波数が変化したとき、それに伴って、MEMSミラーの駆動周波数を変更しなければならない。そのため、特許文献1に記載の装置は、MEMSミラーの駆動周波数を共振周波数の変化に伴って制御する回路が必要となり、回路構成が複雑化し、その結果、装置の大型化を招くという課題がある。
本発明の目的は、対象物の形状を測定する小型な装置をロボットアームに設けたロボットシステムを提供することにある。
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の適用例または形態として実現することが可能である。
本適用例のロボットシステムは、対象物に対して作業を行うロボットアームと、
前記ロボットアームに配置され、前記対象物の形状を測定する形状測定部と、
前記形状測定部が測定した結果に基づいて前記ロボットアームを制御する制御部と、を備え、
前記形状測定部は、
前記対象物に対して縞状のパターン光を投影する投影部と、
前記対象物に投影された前記パターン光を撮像する撮像部と、
前記撮像部が撮像した結果に基づいて前記対象物の形状を算出する算出部と、を有し、
前記投影部は、
ライン状のレーザーを出射する光源部と、
前記光源部から出射されたレーザーを反射させて前記対象物を走査することで前記パターン光を生成する光スキャナーと、
前記光スキャナーを非共振駆動する駆動信号を出力するスキャナー駆動部と、を有することを特徴とする。
前記ロボットアームに配置され、前記対象物の形状を測定する形状測定部と、
前記形状測定部が測定した結果に基づいて前記ロボットアームを制御する制御部と、を備え、
前記形状測定部は、
前記対象物に対して縞状のパターン光を投影する投影部と、
前記対象物に投影された前記パターン光を撮像する撮像部と、
前記撮像部が撮像した結果に基づいて前記対象物の形状を算出する算出部と、を有し、
前記投影部は、
ライン状のレーザーを出射する光源部と、
前記光源部から出射されたレーザーを反射させて前記対象物を走査することで前記パターン光を生成する光スキャナーと、
前記光スキャナーを非共振駆動する駆動信号を出力するスキャナー駆動部と、を有することを特徴とする。
このようなロボットシステムによれば、光スキャナーを非共振駆動させるため、温度変化が生じても、安定した振幅および周波数で光スキャナーの駆動を行うことができる。そのため、温度変化による特性変化を低減するための回路が不要となり、形状測定部の小型化を図ることができる。
本発明のロボットシステムでは、前記駆動信号の波形は、正弦波状であることが好ましい。
これにより、駆動信号の生成が容易となる。また、駆動信号の周波数成分に光スキャナーの駆動周波数以外の周波数が含まれることを低減し、光スキャナーの非共振駆動を安定して行うことができる。
本発明のロボットシステムでは、前記光源部を駆動する変調信号を出力する光源駆動部を備え、
前記対象物に対して投影される前記縞状のパターン光は輝度値の明暗で正弦波状となる縞パターンであり、
前記変調信号の波形は、正弦波状とは異なる形状であることが好ましい。
前記対象物に対して投影される前記縞状のパターン光は輝度値の明暗で正弦波状となる縞パターンであり、
前記変調信号の波形は、正弦波状とは異なる形状であることが好ましい。
これにより、光スキャナーの駆動信号の波形が正弦波状であっても、輝度値の明暗で正弦波を表した縞状のパターン光を高精度に投影することができる。
本発明のロボットシステムでは、前記ロボットアームを搭載し、無軌道で移動可能な自動搬送装置を備えることが好ましい。
これにより、ロボットアームを移動させることができ、広範囲に作業を行うことができる。また、自動搬送装置が無軌道で移動可能であるため、自動搬送装置の移動を案内するためのレール等の設備が不要または簡素となるため、設備費を安価にすることができる。
本発明のロボットシステムでは、前記自動搬送装置が移動する方向の環境を認識する環境認識センサーを備え、
前記自動搬送装置は、前記環境認識センサーの認識結果に基づいて移動可能であることが好ましい。
前記自動搬送装置は、前記環境認識センサーの認識結果に基づいて移動可能であることが好ましい。
これにより、自動搬送装置の移動を案内するためのマーカー等の設備が不要または簡素となるため、設備費を安価にすることができる。
本発明のロボットシステムでは、前記スキャナー駆動部は、前記ロボットアームの動作により移動しているときに、前記駆動信号の出力を停止することが好ましい。
これにより、ロボットアームの動作中における衝突等の衝撃による光スキャナーの損傷を低減することができる。
本発明のロボットシステムでは、前記光スキャナーの故障を検知する故障検知部を備えることが好ましい。
これにより、光スキャナーが故障しているか否かを把握することができる。そのため、例えば、光スキャナーが故障した場合、光源部の駆動を停止させることで、停止した状態の光スキャナーからの高強度の光が人に当たることを防止し、安全性を高めることができる。
本発明のロボットシステムでは、前記光スキャナーは、
可動ミラー部と、
前記可動ミラー部を揺動可能に支持している1対の軸部と、を有し、
前記故障検知部は、前記軸部に設けられている歪センサーを有することが好ましい。
可動ミラー部と、
前記可動ミラー部を揺動可能に支持している1対の軸部と、を有し、
前記故障検知部は、前記軸部に設けられている歪センサーを有することが好ましい。
このような歪センサーは、半導体製造技術を用いて容易に製造することができる。また、光学式センサー等の他の故障検知のためのセンサーに比べて、故障検知部の小型化を図ることができる。
本発明のロボットシステムでは、前記駆動信号の周波数が100Hz以上4kHz以下の範囲内にあることが好ましい。
これにより、形状測定部の測定精度を優れたものとしつつ、光スキャナーの非共振駆動を容易に実現することができる。
本発明のロボットシステムでは、前記ロボットアームとは別のロボットアームを有することが好ましい。
これにより、作業効率を高めたり、より複雑な作業を行ったりすることができる。
これにより、作業効率を高めたり、より複雑な作業を行ったりすることができる。
以下、本発明のロボットシステムを添付図面に示す好適な実施形態に基づいて詳細に説明する。
<第1実施形態>
図1は、本発明の第1実施形態に係るロボットシステムを概略的に示す斜視図である。図2は、図1に示すロボットシステムの制御系を示すブロック図である。図3は、図1に示すロボットシステムが備える物体認識センサーの模式図である。図4は、図3に示す物体認識センサーが備える投影部が生成する投影パターン(パターン光)の明暗状態を示す図である。図5は、図3に示す物体認識センサーが備える光スキャナーの斜視図である。図6は、図3に示す物体認識センサーが備えるスキャナー駆動部からの駆動信号の波形を示す図である。図7は、図3に示す物体認識センサーが備える光源駆動部から出力される変調信号の波形(図中下段)および可動ミラー部の振れ角(図中上段)を示す図である。
図1は、本発明の第1実施形態に係るロボットシステムを概略的に示す斜視図である。図2は、図1に示すロボットシステムの制御系を示すブロック図である。図3は、図1に示すロボットシステムが備える物体認識センサーの模式図である。図4は、図3に示す物体認識センサーが備える投影部が生成する投影パターン(パターン光)の明暗状態を示す図である。図5は、図3に示す物体認識センサーが備える光スキャナーの斜視図である。図6は、図3に示す物体認識センサーが備えるスキャナー駆動部からの駆動信号の波形を示す図である。図7は、図3に示す物体認識センサーが備える光源駆動部から出力される変調信号の波形(図中下段)および可動ミラー部の振れ角(図中上段)を示す図である。
図1に示すロボットシステム100は、ロボット1が部品収納部200(部品供給部)から互いに異なる種類の複数の部品C1、C2、C3をそれぞれ取り出し、複数種の部品C1、C2、C3からなる部品キットCKを作成し、部品キットCKを作業台300(次工程部)へ供給するという作業を行うシステムである。
部品収納部200は、鉛直方向に4段、水平方向に3列(左側、中央、右側)に仕切られていることによって12個の収納スペースを有する部品棚であり、各収納スペースには、コンテナ201が収納されている。ここで、各コンテナ201は、上方に開放したトレイ状または箱状をなしている。そして、部品収納部200の左側の列にある各コンテナ201には、部品C1が複数収納されている。部品収納部200の中央の列にある各コンテナ201には、部品C2が複数収納されている。部品収納部200の右側の列にある各コンテナ201には、部品C3が複数収納されている。また、各コンテナ201は、部品収納部200から引き出し可能に配置されている。これにより、各コンテナ201から部品C1、C2、C2を容易に取り出すことができる。
なお、部品収納部200は、図示の収納スペースの数、構成および配置等に限定されず、例えば、部品収納部200が部品の種類ごとに独立した複数の棚で構成されていてもよく、この場合、複数の棚の配置は任意である。また、ロボット1が作業可能な状態で部品C1、C2、C3を載置することができれば、コンテナ201は省略してもよい。
部品C1、C2、C3は、互いに種類の異なる部品である。部品C1、C2、C3としては、それぞれ、特に限定されないが、例えば、各種電子部品等が挙げられる。部品キットCKは、部品C1、C2、C3を1つずつ含んで構成されている。なお、部品キットCKは、部品C1、C2、C3以外の部品を含んでいてもよいし、同種の複数の部品を含んでいてもよい。
作業台300は、部品キットCKを用いた作業を行うための台である。図示の作業台300は、複数の部品キットCKを載置可能な載置部301を有する。作業台300での作業としては、特に限定されないが、例えば、部品キットCKを含む部品群の組み立て、塗装、表面処理、整列、搬送等が挙げられる。
なお、作業台300は、複数の部品キットCKまたはトレイTRを載置可能であればよく、図示の構成および配置等に限定されず、例えば、ベルトコンベア等の装置であってもよい。
ロボットシステム100は、自動搬送装置2と、自動搬送装置2に搭載されているロボットアーム10を有するロボット本体3と、自動搬送装置2に配置されている環境認識センサー4と、ロボットアーム10に配置されている物体認識センサー5(形状測定部)と、自動搬送装置2およびロボットアーム10の動作を制御する制御装置6(制御部)と、自動搬送装置2上に配置されている載置部7と、を備え、これらが走行可能なロボット1を構成している。なお、ロボットシステム100は、ロボット1と、部品収納部200と、作業台300と、を有するシステムであるともいえる。
ここで、制御装置6は、環境認識センサー4の認識結果(測定結果)に基づいて、ロボットアーム10が部品収納部200または作業台300に対する作業可能な位置となるように自動搬送装置2を移動させることが可能である。また、制御装置6は、ロボット本体3が部品収納部200に対する作業可能な位置にあるとき、物体認識センサー5の認識結果に基づいて、載置部7上に複数の部品キットCKを作成するようにロボット本体3を駆動させることが可能である。また、制御装置6は、ロボット本体3が作業台300に対する作業可能な位置にあるとき、物体認識センサー5の認識結果に基づいて、載置部7上から作業台300へ複数の部品キットCKを載せ換えるようにロボット本体3を駆動させることが可能である。
このように、ロボット1は、複数の部品キットCKを載置部7上で作成した後に作業台300へ載せ換えることが可能である。これにより、自動搬送装置2が部品収納部200と作業台300との間を往復する回数を少なくし、作業効率を高めることができる。本実施形態では、部品キットCKの作成前の載置部7上には、複数のトレイTRが載置されており、部品キットCKは、トレイTR上に作成される。そして、部品キットCKはトレイTRごと載置部7上から作業台300に載せ換えられる。これにより、載せ換え作業の簡単化を図ることができる。
以下、ロボットシステム100(ロボット1)を構成する各部について順次説明する。
[自動搬送装置]
図1に示す自動搬送装置2は、無軌道で走行(移動)可能な無人搬送車である。ここで、「無軌道で走行(移動)可能」とは、自動搬送装置2の走行(移動)軌道となるレールや誘導の為のガイド線等の設備を必要とせずに、指示された目的位置へ向かうように走行(移動)制御可能であることを言う。
[自動搬送装置]
図1に示す自動搬送装置2は、無軌道で走行(移動)可能な無人搬送車である。ここで、「無軌道で走行(移動)可能」とは、自動搬送装置2の走行(移動)軌道となるレールや誘導の為のガイド線等の設備を必要とせずに、指示された目的位置へ向かうように走行(移動)制御可能であることを言う。
この自動搬送装置2は、図1および図2に示すように、車体21と、車体21に取り付けられて、通常進行方向側である前方にある1対の前輪22と、後方にある1対の後輪23と、1対の前輪22の舵角を変更可能な操舵機構24と、1対の後輪23を駆動可能な駆動部25と、を備えている。
図1に示すように、車体21の上部には、複数の部品C1、C2、C3を含む部品キットCKを複数(図示では3つ)載置可能な載置部7が設けられている。この載置部7は、部品キットCKをトレイTRに載置した状態で載置可能に構成されている。ここで、1つのトレイTRには、1つの部品キットCKが載置される。したがって、載置部7は、複数(図示では3つ)のトレイTRを載置可能に構成されている。また、載置部7に載置可能なトレイTRの数は、載置部7に載置可能な部品キットCKの数と等しい。このようなトレイTRは、部品キットCKの作成に先立ち、ロボット本体3を用いて載置部7上に載置されるか、または、人手により載置部7上に載置される。
なお、載置部7に載置可能な部品キットCKおよびトレイTRの数は、それぞれ、図示の数に限定されず、任意である。また、載置部7に載置可能なトレイTRの数は、載置部7に載置可能な部品キットCKの数と異なっていてもよく、例えば、1つのトレイTRに複数の部品キットCKを載置してもよい。
一方、車体21の下部には、前方側に左右1対の前輪22、後方側に左右1対の後輪23が設けられている。
1対の前輪22は、操舵輪であり、図2に示す操舵機構24を介して車体21に取り付けられている。この操舵機構24により1対の前輪22の舵角を変更することで、自動搬送装置2の操舵が行われる。これにより、車体21の走行方向を変更することができる。なお、1対の後輪23が操舵可能であってもよいし、1対の前輪22および1対の後輪23のすべてが操舵可能であってもよい。
また、1対の後輪23は、駆動輪であり、駆動部25を介して車体21に取り付けられている。この駆動部25は、モーター等の駆動源(図示せず)を有し、その駆動源の駆動力を1対の後輪23に伝達する。これにより、車体21を前方または後方へ走行させることができる。なお、1対の前輪22が駆動可能であってもよいし、1対の前輪22および1対の後輪23のすべてが駆動可能であってもよい。
また、車体21内には、前述した駆動源に電力を供給するためのバッテリー(図示せず)が配置されており、このバッテリーは、ロボットアーム10、環境認識センサー4および物体認識センサー5等の駆動にも用いられる。
[ロボット本体]
図1に示すロボット本体3は、いわゆる単腕の6軸垂直多関節ロボットである。このロボット本体3は、基台30と、基台30に回動可能に連結されたロボットアーム10と、を有する。また、ロボットアーム10には、力検出センサー11を介してハンド12が装着されている。
図1に示すロボット本体3は、いわゆる単腕の6軸垂直多関節ロボットである。このロボット本体3は、基台30と、基台30に回動可能に連結されたロボットアーム10と、を有する。また、ロボットアーム10には、力検出センサー11を介してハンド12が装着されている。
基台30は、前述した自動搬送装置2の車体21の上部に、図示しないボルト等により固定されている。なお、自動搬送装置2に対する基台30の設置位置は、ロボット本体3が前述した自動搬送装置2の載置部7上に部品C1、C2、C3をそれぞれ複数載置可能であれば、いかなる位置であってもよい。また、基台30は、自動搬送装置2と一体で構成されていてもよい。
ロボットアーム10は、基台30に対して回動可能に連結されているアーム31(第1アーム)と、アーム31に対して回動可能に連結されているアーム32(第2アーム)と、アーム32に対して回動可能に連結されているアーム33(第3アーム)と、アーム33に対して回動可能に連結されているアーム34(第4アーム)と、アーム34に対して回動可能に連結されているアーム35(第5アーム)と、アーム35に対して回動可能に連結されているアーム36(第6アーム)と、を有する。
これらアーム31〜36の各関節部には、図2に示すアーム駆動部13が設けられており、各アーム駆動部13の駆動によって各アーム31〜36が回動する。ここで、各アーム駆動部13は、図示しないモーターおよび減速機を有する。モーターとしては、例えば、ACサーボモーター、DCサーボモーター等のサーボモーター、圧電モーター等を用いることができる。減速機としては、例えば、遊星ギア型の減速機、波動歯車装置等を用いることができる。また、各アーム駆動部13には、ロータリーエンコーダー等の角度センサー14が設けられており(図2参照)、角度センサー14がアーム駆動部13のモーターまたは減速機の回転軸の回転角度を検出する。
また、図1に示すように、ロボットアーム10の先端部に位置するアーム36には、力検出センサー11を介して、ハンド12が取り付けられている。
力検出センサー11は、例えば、力検出センサー11に加えられた外力の6軸成分を検出可能な6軸力覚センサーである。ここで、6軸成分は、互いに直交する3つの軸のそれぞれの方向の並進力(せん断力)成分、および、当該3つの軸のそれぞれの軸まわりの回転力(モーメント)成分である。なお、力検出センサー11の検出軸の数は、6つに限定されず、例えば、1つ以上5つ以下であってもよい。
ハンド12は、ロボットシステム100の作業の対象物である部品C1、C2、C3をそれぞれ把持可能な2本の指を有する。なお、ハンド12が有する指の数は、2本に限定されず、3本以上であってもよい。また、部品C1、C2、C3の種類によっては、ハンド12に代えて、部品C1、C2、C3を吸着等により保持するエンドエフェクターを用いてもよい。
[環境認識センサー]
環境認識センサー4は、前述した自動搬送装置2の車体21の前方部および後方部にそれぞれ設けられている。車体21の前方部に設けられた環境認識センサー4(4a)は、車体21に対して前方側にある物体(例えば、部品収納部200、作業台300等の対象物、または図示しない壁、走行や搬送に障害となる図示しない障害物)の存在(距離)またはその形状に応じた信号を出力する機能を有する。また、車体21の後方部に設けられた環境認識センサー4(4b)は、車体21に対して後方側にある物体(例えば、部品収納部200、作業台300等の対象物、または図示しない壁、走行や搬送に障害となる図示しない障害物)の存在(距離)またはその形状に応じた信号を出力する機能を有する。
環境認識センサー4は、前述した自動搬送装置2の車体21の前方部および後方部にそれぞれ設けられている。車体21の前方部に設けられた環境認識センサー4(4a)は、車体21に対して前方側にある物体(例えば、部品収納部200、作業台300等の対象物、または図示しない壁、走行や搬送に障害となる図示しない障害物)の存在(距離)またはその形状に応じた信号を出力する機能を有する。また、車体21の後方部に設けられた環境認識センサー4(4b)は、車体21に対して後方側にある物体(例えば、部品収納部200、作業台300等の対象物、または図示しない壁、走行や搬送に障害となる図示しない障害物)の存在(距離)またはその形状に応じた信号を出力する機能を有する。
なお、環境認識センサー4の設置位置および設置数は、環境認識センサー4がロボット1の走行および作業に必要な範囲を認識可能であればよく、前述した位置および数に限定されず、例えば、環境認識センサー4bを省略してもよいし、環境認識センサー4a、4bの他に、車体21の右側部および左側部のうちの少なくとも一方に環境認識センサー4を設けてもよい。
環境認識センサー4は、前述した機能を有していればよく、特に限定されず、TOF(Time Of Flight)方式等を用いた各種3次元測定機を用いることができる。また、環境認識センサー4は、後述する物体認識センサー5と同様に構成することができる。ただし、環境認識センサー4は、物体認識センサー5よりも測定範囲(測定可能な領域の範囲)が広いことが好ましい。これにより、ロボット1の周囲の環境を広範囲にわたって認識することができる。そのため、ロボット1は、必要な環境認識センサー4の設置数を少なくしたり、環境認識センサー4の死角を少なくして安全性を高めたりすることができる。
環境認識センサー4には、その認識結果を表すための3次元の直交座標系が設定されており、環境認識センサー4は、この座標系における物体の座標情報を認識結果として出力することができる。ここで、環境認識センサー4に設定されている座標系は、制御装置6において、ロボット1に設定されているロボット座標系(制御装置6がロボット1の駆動制御に用いる座標系)と対応付けを成すことができる。
[物体認識センサー]
物体認識センサー5は、前述したロボット本体3のロボットアーム10の先端部に設けられている。図示では、物体認識センサー5は、ロボットアーム10が有するアーム31〜36のうちの最も先端側にあるアーム36に取り付けられている。物体認識センサー5は、ロボットアーム10の先端部の周囲または近傍にある物体(例えば、部品C1、C2、C3、部品収納部200、作業台300、載置部7等の対象物)の形状に応じた信号を出力する機能を有する。
物体認識センサー5は、前述したロボット本体3のロボットアーム10の先端部に設けられている。図示では、物体認識センサー5は、ロボットアーム10が有するアーム31〜36のうちの最も先端側にあるアーム36に取り付けられている。物体認識センサー5は、ロボットアーム10の先端部の周囲または近傍にある物体(例えば、部品C1、C2、C3、部品収納部200、作業台300、載置部7等の対象物)の形状に応じた信号を出力する機能を有する。
なお、物体認識センサー5の設置位置は、他のアーム31〜35、基台30または自動搬送装置2の車体21であってもよい。また、物体認識センサー5の設置数は、2以上であってもよい。
物体認識センサー5は、例えば、位相シフト法を用いて、ロボットアーム10の先端部の周囲または近傍にある物体(対象物)の形状を測定するように構成されている。すなわち、物体認識センサー5が形状測定を行う対象物は、ロボットアーム10が作業する対象物である。また、物体認識センサー5には、その認識結果を表すための3次元の直交座標系が設定されており、物体認識センサー5は、この座標系における物体の座標情報を認識結果として出力する。ここで、物体認識センサー5に設定されている座標系は、制御装置6において、ロボット1に設定されているロボット座標系(制御装置6がロボット1の駆動制御に用いる座標系)と対応付けがなされている。
具体的には、図3に示すように、物体認識センサー5は、測定範囲にパターン光LPの投影を行う投影部51と、測定範囲の撮像を行う撮像部52と、投影部51および撮像部52のそれぞれに電気的に接続されている回路部53と、を備える。
投影部51は、測定範囲に、輝度値の明暗で正弦波を表した縞パターンの映像光であるパターン光LPを投影する機能を有する。このパターン光LPは、図4に示すように、測定範囲を所定方向でn分割(好ましくは5本以上50本以下の範囲内であり、図4では5分割である)し、各領域の範囲を1周期として輝度値が所定方向(図4中に示すX方向)で正弦波に沿って変化する。
この投影部51は、図3に示すように、ライン状の光LLを出射する光源部511と、光源部511からの光LLを反射させながら走査してパターン光LPを生成する光スキャナー512と、を有する。
光源部511は、光源5111と、レンズ5112、5113と、を有する。ここで、光源5111は、例えば、半導体レーザーである。また、レンズ5112は、コリメートレンズであり、レンズ5112を透過した光を平行光とする。レンズ5113は、ラインジェネレーターレンズ(パウエルレンズ)、シリンドリカルレンズまたはロッドレンズであり、光源5111からの光を所定方向(図4中に示すY方向)に沿ったライン状に伸長して光LLを生成する。なお、レンズ5112は、必要に応じて設ければよく、省略してもよい。レンズ5113に代えて、凹面シリンドリカルミラーまたは光スキャナーを用いて、光源5111からの光をライン状に伸長してもよい。また、光源5111からの光がライン状である場合、レンズ5113を省略することができる。
光スキャナー512は、ムービングマグネット方式の光スキャナーであり、光源部511からのライン状の光LLを反射させて、所定方向(図4中に示すX方向)に走査することでパターン光LPを生成する。この光スキャナー512は、図5に示すように、可動ミラー部5121と、1対の軸部5122と、支持部5123と、永久磁石5124と、コイル5125と、歪センサー5126と、を備える。
可動ミラー部5121は、1対の軸部5122(トーションバー)を介して支持部5123に対して揺動軸asまわりに揺動可能に支持されている。このような可動ミラー部5121、軸部5122および支持部5123は、シリコン等で一体に構成されており、例えば、シリコン基板またはSOI(Silicon on Insulator)基板をエッチングすることで得られる。
また、可動ミラー部5121の一方の面(ミラー面)は、光反射性を有し、光源部511からの光LLを反射させる部分である。ここで、当該一方の面には、必要に応じて、金属膜が設けられていてもよい。また、可動ミラー部5121は、揺動軸asに沿った長手形状をなしている。これにより、可動ミラー部5121の小型化を図りつつ、ライン状の光LLの走査を行うことができる。なお、可動ミラー部5121の平面視形状は、図示では四角形(長方形)であるが、これに限定されず、例えば、楕円形であってもよい。また、軸部5122および支持部5123の形状も、図示の形状に限定されない。
可動ミラー部5121のミラー面とは反対側の面には、永久磁石5124が接着剤等により接合(固定)されている。永久磁石5124は、例えば、ネオジム磁石、フェライト磁石、サマリウムコバルト磁石、アルニコ磁石またはボンド磁石である。
永久磁石5124の直下(可動ミラー部5121とは反対側)には、コイル5125が配置されている。このコイル5125は、後述するスキャナー駆動部532(図3参照)からの通電(駆動信号)により、可動ミラー部5121を揺動軸asまわりに揺動させるように、永久磁石5124と相互作用する磁界を発生させる。なお、永久磁石5124およびコイル5125の配置等は、可動ミラー部5121を揺動軸asまわりに揺動させることができればよく、図示の配置等に限定されない。
歪センサー5126は、軸部5122と支持部5123との境界部に設けられたピエゾ抵抗素子であり、軸部5122の歪に応じて抵抗値が変化する。可動ミラー部5121が揺動軸asまわりに揺動(回動)する際には、軸部5122のねじれ変形を伴うので、これにより生じる軸部5122の歪を歪センサー5126で検出し、可動ミラー部5121の動きを把握することができる。この歪センサー5126は、軸部5122と支持部5123との境界部を構成するシリコンにリンまたはボロン等の不純物をドープすることで得られる。
以上のような投影部51のパターン光LPの出射方向(中心軸a1方向)は、撮像部52の光軸a2方向に対して傾斜している。これにより、3次元形状を高精度に測定することができる。この傾斜角度は、20°以上40°以下の範囲内であることが好ましく、25°以上35°以下の範囲内であることがより好ましい。これにより、測定可能な範囲を広くしつつ、3次元形状を高精度に測定することができる。かかる傾斜角度が小さすぎると、測定可能な範囲が広くなるものの、高さ方向での測定精度が低くなってしまい、一方、かかる傾斜角度が大きすぎると、高さ方向での測定精度を高められるものの、測定可能な範囲が狭くなってしまう。
撮像部52は、複数の画素を有する撮像素子521と、結像光学系522と、を有し、測定範囲に投影されたパターン光LPを撮像素子521が結像光学系522を介して撮像する。
撮像素子521は、撮影画像を画素ごとの電気信号に変換して出力する。撮像素子521としては、特に限定されないが、例えば、CCD(Charge Coupled Devices)、CMOS(Complementary Metal Oxide Semiconductor)等が挙げられる。
結像光学系522は、2つのレンズ5221、5222を有し、測定範囲にある物体表面でのパターン光を撮像素子521の受光面(センサー面)に結像させる。なお、結像光学系522が有するレンズの数は、撮像素子521がパターン光を撮像することができればよく、図示の数に限定されず、任意である。
撮像部52の撮像方向(光軸a2方向)は、ロボットアーム10の先端部の中心軸a(図1参照)に対して平行である。これにより、ロボットアーム10の先端部が向く方向を測定範囲とすることができる。
回路部53は、図3に示すように、投影部51の光源部511を駆動する光源駆動部531と、投影部51の光スキャナー512を駆動するスキャナー駆動部532と、光スキャナー512が故障しているか否かを判断する故障判断部533と、撮像部52の撮像素子521からの信号に基づいて、測定範囲内にある物体(対象物)の形状を算出する算出部534と、を有する。なお、回路部53、または光源駆動部531、スキャナー駆動部532、故障判断部533のいずれかは、電気導通可能に接続されていれば必ずしもロボットアーム10の先端部に設けられている必要はなく、例えば後述する制御装置6に含まれていたり、ロボット本体3の基台30内、車体21の外部等に配置されていたりしてもよい。
図3に示すスキャナー駆動部532は、光スキャナー512のコイル5125に電気的に接続されている。このスキャナー駆動部532は、コイル5125を駆動する駆動回路を含んで構成され、図6に示すように、周期的(周期T)に電流値が変化する駆動信号(バイアス電流に変調電流を重畳した駆動電流)を生成し、これをコイル5125に供給する。この駆動信号の周波数(駆動周波数)は、前述した可動ミラー部5121および1対の軸部5122からなる振動系の共振周波数からずれている。物体認識センサー5(回路部53)は、前述した振動系の共振周波数に対応して駆動信号の周波数を制御する回路を有しないため、可動ミラー部5121が非共振で駆動することになる。すなわち、温度変化による特性変化を低減するための回路が不要となり、形状測定部の小型化を図ることができる。また、可動ミラー部5121を非共振で駆動する場合、可動ミラー部5121を共振で駆動する場合に比べて、光スキャナー512の起動時間(可動ミラー部5121が停止状態から所望の振幅および周波数となるまでに要する時間)を短くすることができるという利点もある。
ここで、駆動信号の周波数は、利得が0.8以上1.2以下の範囲内となるように、可動ミラー部5121および1対の軸部5122からなる振動系の共振周波数との差を有することが好ましい。また、駆動信号の具体的な周波数は、特に限定されないが、例えば、100Hz以上4kHz以下の範囲内にあることが好ましい。これにより、物体認識センサー5(形状測定部)の測定精度を優れたものとしつつ、光スキャナー512の非共振駆動を容易に実現することができる。
特に、スキャナー駆動部532が出力する駆動信号は、正弦波形の波形をなしている(図6参照)。これにより、駆動信号の周波数成分が単一(駆動周波数のみ)となるため、駆動信号の生成(波形の成形)を簡単化することができる。また、駆動信号が駆動周波数以外の他の周波数成分を含まないため、当該他の周波数成分により可動ミラー部5121が共振駆動するのを低減することができる。その結果、可動ミラー部5121を非共振で安定的に駆動することができる。
図3に示す光源駆動部531は、光源部511の光源5111に電気的に接続されている。この光源駆動部531は、光源5111を駆動する駆動回路を含んで構成され、周期的に電流値が変化する変調信号(バイアス電流に変調電流を重畳した駆動電流)を生成し、これを光源5111に供給する。光源駆動部531が生成する変調信号は、おおよそ正弦波をなす波形の信号である。
ただし、前述したように、スキャナー駆動部532が出力する駆動信号は、正弦波信号(正弦波形の波形をなす信号)である。そのため、光スキャナー512によって走査される光LLの投影面55(光スキャナー512と測定投影の対象物とを結ぶ線分に垂直な面)での走査速度は、可動ミラー部5121が揺動することでその揺動角度によって変化し、一定でない。したがって、仮に光源駆動部531が生成する変調信号を正弦波信号とすると、投影されるパターン光LPが意図した縞パターンとはならない。そこで、これを補正するべく、光源駆動部531が生成する変調信号の波形は、図7の下段に示すように、正弦波形からずれている。これにより、光スキャナー512からの光LLにより前述した図4に示すような濃淡(輝度値の明暗で正弦波を表した縞パターン)のパターン光LPを描くことができる。
また、光源駆動部531は、π/2ずつ位相のずれた駆動信号を出力可能となっている。これにより、位相がπ/2ずつずれた縞状のパターン光LPを生成することができる。
図3に示す故障判断部533は、光スキャナー512の歪センサー5126(図5参照)に電気的に接続されている。この故障判断部533は、歪センサー5126の抵抗値に基づいて、光スキャナー512が故障(正常に作動していないこと)しているか否かを判断する。例えば、故障判断部533は、歪センサー5126の抵抗値を測定し、その抵抗値の変化(周波数)が駆動信号の周波数と同期していないとき、光スキャナー512が故障していると判断する。ここで、歪センサー5126および故障判断部533は、光スキャナー512の故障を検知する故障検知部54を構成している。
図3に示す算出部534は、図示しないが、CPU(Central Processing Unit)等のプロセッサーと、ROM(read only memory)、RAM(Random Access Memory)等のメモリーと、を有する。そして、算出部534は、メモリーに記憶されている測定プログラムをプロセンサーが実行することにより、撮像部52の撮像結果に基づいて対象物の形状を算出する。
以上のような物体認識センサー5は、パターン光LPを投影部51から測定範囲に向けて投影し、その投影されたパターン光LPを撮像部52で撮像する。その際、例えば、光源駆動部531がπ/2ずつ位相のずれた駆動信号を4つ出力し、位相がπ/2ずつずれて投影されたパターン光LPを4回投影し、その都度、投影されたパターン光LPを撮像部52で撮像する。4回の撮像により得られる4つの撮像画像の同じ座標における輝度値は、絶対値がその座標における測定対象物の表面状態や色等で変化しても、相対値がパターン光LPの位相差分だけ変化する。これにより、環境光や測定対象物の表面状態等の影響を受けるのを低減しつつ、その座標での縞パターンの位相値を求めることができる。
ここで、位相値は、まず、撮像画像中で連続した値ではなく縞パターンの縞ごとに−π〜+πの範囲で求められる。そして、このような位相値は、撮像画像中の連続した値となるように位相連結(位相接続)される。これにより、位相値に基づいて測定対象物の形状を測定することができる。
[制御装置]
図2に示す制御装置6(制御部)は、環境認識センサー4および物体認識センサー5の認識結果に基づいて、自動搬送装置2およびロボットアーム10の駆動を制御する機能を有する。
図2に示す制御装置6(制御部)は、環境認識センサー4および物体認識センサー5の認識結果に基づいて、自動搬送装置2およびロボットアーム10の駆動を制御する機能を有する。
この制御装置6は、CPU(Central Processing Unit)等のプロセッサー61と、ROM(read only memory)、RAM(Random Access Memory)等のメモリー62(記憶部)と、を備える。なお、制御装置6は、自動搬送装置2の車体21内に配置されているが、これに限定されず、例えば、ロボット本体3の基台30内、車体21の外部等に配置されていてもよい。
メモリー62には、自動搬送装置2およびロボットアーム10の駆動制御を行うプログラムと、作業の対象物である部品C1、C2、C3の部品形状情報と、ロボットシステム100が使用される環境(ロボット1の周囲の環境)の地図情報と、が記憶されている。ここで、地図情報には、ロボット1が使用される環境にある物体(部品収納部200、作業台300等)の位置情報および形状情報が含まれている。
プロセッサー61は、メモリー62に記憶されているプログラムおよび各種情報を適宜読み込んで実行することにより、自動搬送装置2およびロボットアーム10の駆動制御を行う。
このような制御装置6には、制御装置6が自動搬送装置2およびロボットアーム10の駆動制御に用いる座標系として、ロボット座標系が設定されている。このロボット座標系は、ロボットアーム10の先端部(例えばツールセンターポイント)に設定されている座標系との対応付けがなされている。これにより、制御装置6は、ロボットアーム10の先端部またはハンド12を所望の位置および姿勢とすることができる。また、前述したように、ロボット座標系は、環境認識センサー4および物体認識センサー5に設定されている座標系との対応付けもなされており、これらのセンサーの認識結果に基づいて、自動搬送装置2およびロボットアーム10の所望の動作が可能となっている。また前述した回路部53は、制御装置6に含まれていても含まれていなくともよい。
以下、制御装置6による自動搬送装置2およびロボットアーム10の駆動制御について説明する。
図8は、図1に示すロボットシステムの動作を説明するためのフローチャートである。図9は、図8に示す部品キット作成モードの動作を説明するためのフローチャートである。図10は、図9に示す取り出し作業の動作を説明するためのフローチャートである。図11は、部品が作業不可能な状態にある場合を説明するための図である。図12は、図10に示すステップS34を説明するための図である。図13は、1種目の部品の取り出し作業を説明するための図である。図14は、2種目の部品の取り出し作業を説明するための図である。図15は、3種目の部品の取り出し作業を説明するための図である。図16は、図8に示す部品キット乗せ換えモードの動作を説明するためのフローチャートである。図17は、乗せ換え完了時の作業台の状態を示す図である。
制御装置6は、図8に示すように、部品キット作成モード(ステップS1)と、部品キット載せ換えモード(ステップS2)と、を有し、これらを順次実行する。ここで、部品キット作成モードは、部品収納部200から部品C1、C2、C3を取り出して載置部7上に複数の部品キットCKを作成するモードである。部品キット載せ換えモードは、複数の部品キットCKを載置部7上から作業台300上に載せ換えるモードである。以下、各モードについて詳述する。
(部品キット作成モード)
部品キット作成モードでは、図9に示すように、まず、対象部品が設定される(ステップS11)。この対象部品は、部品C1、C2、C3のうちのいずれかであり、例えば、部品C1が対象部品として設定される。
部品キット作成モードでは、図9に示すように、まず、対象部品が設定される(ステップS11)。この対象部品は、部品C1、C2、C3のうちのいずれかであり、例えば、部品C1が対象部品として設定される。
次に、環境認識センサー4の認識結果に基づくロボット1(より具体的には自動搬送装置2)の位置が停止位置か否かを判断する(ステップS12)。このとき、メモリー62に記憶されている地図情報(特に部品収納部200の位置情報)と、環境認識センサー4の認識結果とを照合することにより、自動搬送装置2の現在位置を把握する。そして、その現在位置と地図情報内の部品収納部200の位置とを比較し、その現在位置が停止位置であるか否かを判断する。この停止位置は、ロボットアーム10が対象部品に対して作業可能な位置(作業位置)、または、物体認識センサー5が部品収納部200の対象位置(対象部品がある位置)を認識可能な位置である。
環境認識センサー4の認識結果に基づく自動搬送装置2の現在位置が停止位置でない場合(ステップS12のNO)、環境認識センサー4の認識結果に基づいて、自動搬送装置2を停止位置まで移動させる(ステップS13)。このとき、前述したステップS12で比較した結果を用いて、自動搬送装置2の停止位置までの走行ルートを決定し、その走行ルートに基づいて自動搬送装置2の駆動を制御してもよいし、メモリー62に記憶されている地図情報と、環境認識センサー4の認識結果とを照合しながら、自動搬送装置2の現在位置が停止位置に一致するように、自動搬送装置2の駆動を制御してもよい。このようなステップS13の後、後述するステップS14に移行する。なお、自動搬送装置2の駆動中(移動中)は、ロボットアーム10の駆動を停止することが好ましい(他のステップにおける移動中も同様)。これにより、例えば、ロボットアーム10に取り付けられた物体認識センサー5が衝撃等により損傷することを低減することができる。
一方、環境認識センサー4の認識結果に基づく自動搬送装置2の現在位置が停止位置である場合(ステップS12のYES)、物体認識センサー5の認識結果に基づくロボット1(より具体的には自動搬送装置2)の位置が停止位置か否かを判断する(ステップS14)。このとき、メモリー62に記憶されている地図情報(特に部品収納部200の形状情報)と、物体認識センサー5の認識結果とを照合することにより、自動搬送装置2の現在位置を把握する。そして、その現在位置と地図情報内の部品収納部200の作業位置(例えば作業すべきコンテナ201の位置)とを比較し、その現在位置が停止位置であるか否かを判断する。この停止位置は、ロボットアーム10が対象部品に対して作業可能な位置である。
物体認識センサー5の認識結果に基づく自動搬送装置2の現在位置が停止位置でない場合(ステップS14のNO)、物体認識センサー5の認識結果に基づいて、自動搬送装置2を停止位置まで移動させる(ステップS15)。これにより、自動搬送装置2の位置の微調整を行うことができる。このとき、前述したステップS14で比較した結果を用いて、自動搬送装置2の停止位置までの走行ルートを決定し、その走行ルートに基づいて自動搬送装置2の駆動を制御してもよいし、メモリー62に記憶されている地図情報と、物体認識センサー5の認識結果とを照合しながら、自動搬送装置2の現在位置が停止位置に一致するように、自動搬送装置2の駆動を制御してもよい。このようなステップS15の後、後述するステップS16に移行する。
一方、物体認識センサー5の認識結果に基づく自動搬送装置2の現在位置が停止位置である場合(ステップS14のYES)、物体認識センサー5の認識結果に基づいて、対象部品を認識する(ステップS16)。このとき、ハンド12を用いて目的のコンテナ201を引き出す。そして、メモリー62に記憶されている形状情報(部品C1、C2、C3のうち対象部品の形状情報)と、物体認識センサー5の認識結果とを照合することにより、コンテナ201内の対象部品の位置および姿勢を把握する。
次に、対象部品の取り出し作業を行う(ステップS17)。このとき、図10に示すように、まず、コンテナ201内にある複数の対象部品のうち、取り出すべき1つの部品を特定する(ステップS32)。そして、作業可能か否かを判断する(ステップS33)。このとき、図11に示すように、複数の対象部品(図示では部品C1)のすべてが重なっている場合には、作業不可能と判断する。
作業不可能と判断した場合(ステップS33のNO)、対象部品の状態を変更する(ステップS34)。このとき、図12に示すように、ハンド12を用いて、複数の対象部品が重ならないように、複数の対象部品の状態を変更する。ここで、例えば、ハンド12をその中心軸方向b1および幅方向b2のうちの少なくとも一方に動かして、少なくとも1つの対象部品に対し、つつく、転がす、均す等の作業を行う。このようなステップS34を作業可能と判断するまで繰り返す(ステップS35のNO)。
作業可能と判断した場合(ステップS33、S35のYES)、対象部品を取り出す作業を実施する(ステップS36)。このとき、メモリー62に記憶されている形状情報(部品C1、C2、C3のうち対象部品の形状情報)と、物体認識センサー5の認識結果とを照合することにより、特定した1つの対象部品の位置および姿勢を把握する。そして、その位置および姿勢に基づいて、ロボットアーム10およびハンド12を動作させて、対象部品をハンド12で把持して載置部7上に載置する。なお、ロボットアーム10の駆動中(作業中)は、自動搬送装置2の駆動を停止することが好ましい(後述する載せ換え作業も同様)。これにより、作業精度を高めることができる。
このような取り出し作業を、取り出した部品個数が設定数(本実施形態の場合3つ)となるまで繰り返す(ステップS18のNO)。このように取り出し作業を繰り返すことで、図13に示すように、載置部7上の各トレイTR上に対象部品(図示では部品C1)が載置される。そして、取り出した部品個数が設定数となった場合、部品キットCKの作成が完了したか否かを判断する(ステップS19)。このとき、各トレイTR上に載置されている部品が部品C1、C2、C3のうちの1つ(図13参照)または2つ(図14参照)であるとき、部品キットCKの作成が完了していない判断し(ステップS19のNO)、対象部品を変更する(ステップS20)。このとき、例えば、図13に示す場合、対象部品を部品C2に変更し、図14に示す場合、対象部品をC3に変更する。そして、前述したステップS12に移行する。
図15に示すように各トレイTR上に部品C1、C2、C3のすべてが載置されているとき、部品キットCKの作成が完了したと判断し(ステップS19のYES)、部品キット作成モード(図8に示すステップS1)を終了し、部品キット載せ換えモード(図8に示すステップS2)に移行する。
(部品キット載せ換えモード)
部品キット載せ換えモードでは、図16に示すように、まず、載せ換え先が設定される(ステップS21)。この載せ換え先は、作業台300である。
部品キット載せ換えモードでは、図16に示すように、まず、載せ換え先が設定される(ステップS21)。この載せ換え先は、作業台300である。
次に、環境認識センサー4の認識結果に基づくロボット1(より具体的には自動搬送装置2)の位置が停止位置か否かを判断する(ステップS22)。このとき、メモリー62に記憶されている地図情報(特に作業台300の位置情報)と、環境認識センサー4の認識結果とを照合することにより、自動搬送装置2の現在位置を把握する。そして、その現在位置と地図情報内の作業台300の位置とを比較し、その現在位置が停止位置であるか否かを判断する。この停止位置は、ロボットアーム10が部品キットCKを載置部301に載置可能な位置(作業位置)、または、物体認識センサー5が作業台300の載置部301を認識可能な位置である。
環境認識センサー4の認識結果に基づく自動搬送装置2の現在位置が停止位置でない場合(ステップS22のNO)、環境認識センサー4の認識結果に基づいて、自動搬送装置2を停止位置まで移動させる(ステップS23)。このとき、前述したステップS22で比較した結果を用いて、自動搬送装置2の停止位置までの走行ルートを決定し、その走行ルートに基づいて自動搬送装置2の駆動を制御してもよいし、メモリー62に記憶されている地図情報と、環境認識センサー4の認識結果とを照合しながら、自動搬送装置2の現在位置が停止位置に一致するように、自動搬送装置2の駆動を制御してもよい。このようなステップS23の後、後述するステップS24に移行する。
一方、環境認識センサー4の認識結果に基づく自動搬送装置2の現在位置が停止位置である場合(ステップS22のYES)、物体認識センサー5の認識結果に基づくロボット1(より具体的には自動搬送装置2)の位置が停止位置か否かを判断する(ステップS24)。このとき、メモリー62に記憶されている地図情報(特に作業台300の形状情報)と、物体認識センサー5の認識結果とを照合することにより、自動搬送装置2の現在位置を把握する。そして、その現在位置と地図情報内の作業台300の作業位置(例えば載置部301の位置)とを比較し、その現在位置が停止位置であるか否かを判断する。この停止位置は、ロボットアーム10が部品キットCKを載置部301に載置可能な位置である。
物体認識センサー5の認識結果に基づく自動搬送装置2の現在位置が停止位置でない場合(ステップS24のNO)、物体認識センサー5の認識結果に基づいて、自動搬送装置2を停止位置まで移動させる(ステップS25)。これにより、自動搬送装置2の位置の微調整を行うことができる。このとき、前述したステップS24で比較した結果を用いて、自動搬送装置2の停止位置までの走行ルートを決定し、その走行ルートに基づいて自動搬送装置2の駆動を制御してもよいし、メモリー62に記憶されている地図情報と、物体認識センサー5の認識結果とを照合しながら、自動搬送装置2の現在位置が停止位置に一致するように、自動搬送装置2の駆動を制御してもよい。このようなステップS25の後、後述するステップS26に移行する。
一方、物体認識センサー5の認識結果に基づく自動搬送装置2の現在位置が停止位置である場合(ステップS24のYES)、物体認識センサー5の認識結果に基づいて、載せ換え先である載置部301を認識する(ステップS26)。このとき、メモリー62に記憶されている情報(作業台300の形状情報)と、物体認識センサー5の認識結果とを照合することにより、載置部301の位置および姿勢を把握する。
次に、部品キットCKの載せ換え作業を行う(ステップS27)。このとき、トレイTRをハンド12で把持して、部品キットCKをトレイTRごと載置部7から載置部301へ載せ換える。そして、部品キットCKの載せ換えが完了したか否かを判断する(ステップS28)。部品キットCKの載せ換えが完了していない判断し(ステップS28のNO)、載せ換え先を必要に応じて変更する(ステップS29)。そして、前述したステップS22に移行する。これにより、図17に示すように、載置部301上にすべての部品キットCKを載せ換えることができる。
部品キットCKの載せ換えが完了したと判断し(ステップS28のYES)、部品キット載せ換えモード(図8に示すステップS2)を終了する。
以上のようなロボットシステム100は、対象物(部品C1、C2、C3等)に対して作業を行う1つのロボットアーム10と、ロボットアーム10に配置され、対象物の形状を測定する形状測定部である物体認識センサー5と、物体認識センサー5が測定(認識)した結果を元にロボットアーム10の制御を行う制御部である制御装置6と、を備える。物体認識センサー5は、対象物に対して縞状のパターン光LPを投影する投影部51と、パターン光LPを撮像する撮像部52と、撮像部52が撮像した結果に基づいて対象物の形状を算出する算出部534と、を有する。投影部51は、ライン状のレーザーである光LLを出射する光源部511と、光源部511からの光LLを対象物に向けて反射させて走査することでパターン光LPを生成する光スキャナー512と、光スキャナー512を非共振駆動する駆動信号を出力するスキャナー駆動部532と、を有する。
このようなロボットシステム100によれば、光スキャナー512を非共振駆動させるため、温度変化が生じても、安定した振幅および周波数で光スキャナー512の駆動を行うことができる。そのため、温度変化による特性変化を低減するための回路が不要となり、物体認識センサー5の小型化を図ることができる。さらに、一般的には共振駆動の方が省電力ではあるが、このようなロボットシステム100では、物体認識センサー5への電源供給はロボットアーム10、自動搬送装置2、または制御装置6から受けることができるため、光スキャナー512が非共振駆動でありながら、バッテリーを持つ必要もないので、小型化に大いに貢献する。
ここで、スキャナー駆動部532が出力する駆動信号の波形は、正弦波状である(図6参照)。これにより、駆動信号の生成が容易となる。また、駆動信号の周波数成分に光スキャナー512の駆動周波数以外の周波数が含まれることを低減し、光スキャナー512の非共振駆動を安定して行うことができる。
また、スキャナー駆動部532が出力する駆動信号の周波数は、100Hz以上4kHz以下の範囲内にあることが好ましい。これにより、物体認識センサー5の測定精度を優れたものとしつつ、光スキャナー512の非共振駆動を容易に実現することができる。
さらに、ロボットシステム100(より具体的には物体認識センサー5)は、光源部511を駆動する変調信号を出力する光源駆動部531を備え、その変調信号の波形は、正弦波状(図7の上段に示す形状)とは異なる波形(図7の下段に示す形状)である。具体的には、可動ミラー部5121の振れ角をθ、駆動周波数をf、最大振幅(機械角)をθmax、MEMSミラーと投影面との距離をh、時間をt、輝度レンジをA、および輝度オフセットをBとしたとき、レーザー輝度は下記式(1)で表される。
これにより、光スキャナー512の振れ角の速度が一定でなくても、輝度値の明暗で正弦波を表した縞状のパターン光LPを描画範囲内で輝度ムラなく描画することができる。
このようなロボットシステム100において、スキャナー駆動部532は、ロボットアーム10の動作により移動したときに、駆動信号の出力を停止することが好ましい。これにより、ロボットアーム10の動作中における衝突等の衝撃を受けて光スキャナー512が損傷することを低減することができる。
また、物体認識センサー5は、光スキャナー512の故障を検知する故障検知部54を備える。これにより、光スキャナー512が故障しているか否かを把握することができる。そのため、例えば、光スキャナー512が故障した場合、光源部511の駆動を停止させることで、停止した状態の光スキャナー512からの高強度の光が人に当たることを防止し、安全性を高めることができる。
ここで、光スキャナー512は、可動ミラー部5121と、可動ミラー部5121を揺動可能に支持している1対の軸部5122と、を有し、故障検知部54は、軸部5122に設けられている歪センサー5126を有する。このような歪センサー5126は、半導体製造技術を用いて容易に製造することができる。また、光学式センサー等の他の故障検知のためのセンサーに比べて、故障検知部54の小型化を図ることができる。
また、ロボットシステム100は、ロボットアーム10を搭載し、無軌道で走行可能な自動搬送装置2を備える。これにより、ロボットアーム10を移動させることができ、広範囲に作業を行うことができる。また、自動搬送装置2が無軌道で走行可能であるため、自動搬送装置2の走行を案内するためのレール等の設備が不要または簡素となるため、設備費を安価にすることができる。
さらに、ロボットシステム100は、自動搬送装置2が移動する方向の環境を認識する環境認識センサー4を備え、自動搬送装置2は、環境認識センサー4の認識結果に基づいて走行可能である。これにより、自動搬送装置2の走行を案内するためのマーカー等の設備が不要または簡素となるため、設備費を安価にすることができる。なお、作業範囲がロボットアーム10の可動範囲内にある場合は、自動搬送装置2を省略することができる。この場合、ロボット本体3の基台30を床等に固定すればよい。
<第2実施形態>
図18は、本発明の第2実施形態に係るロボットシステムに用いるロボットを示す斜視図である。
図18は、本発明の第2実施形態に係るロボットシステムに用いるロボットを示す斜視図である。
本実施形態は、双腕ロボットに本発明を適用した以外は、前述した第1実施形態と同様である。以下、第2実施形態について、前述した実施形態との相違点を中心に説明し、同様の事項については、その説明を省略する。
ロボットシステム100Aは、自動搬送装置2Aと、自動搬送装置2Aに搭載されている2本のロボットアーム10Aを有するロボット本体3Aと、自動搬送装置2Aに配置されている環境認識センサー4と、自動搬送装置2Aおよび各ロボットアーム10Aにそれぞれ配置されている物体認識センサー5(形状測定部)と、自動搬送装置2Aおよび各ロボットアーム10Aの動作を制御する制御装置6A(制御部)と、自動搬送装置2Aに配置されている載置部7Aと、を備え、これらが走行可能なロボット1Aを構成している。
自動搬送装置2Aは、車体211と、車体211に取り付けられた1対の前輪22Aおよび1対の後輪23Aと、車体211に立設されている柱部212と、1対の前輪21Aの舵角を変更可能な操舵機構(図示せず)と、1対の後輪23Aを駆動可能な駆動部(図示せず)と、を備えている。ここで、柱部212には、前述した第1実施形態の複数の部品キットCKを載置可能な載置部7Aが取り付けられている。
ロボット本体3Aは、複腕ロボットであり、自動搬送装置2Aの柱部212の上部に接続されている基台30A(胴部)と、基台30Aの左右に回動可能に連結されている2つのロボットアーム10Aと、を有する。また、各ロボットアーム10Aには、力検出センサー11Aを介してハンド12Aが接続されている。ここで、基台30Aには、環境認識センサー4および物体認識センサー5が配置されている。なお、基台30Aは、自動搬送装置2Aに対して固定的に設置されており、自動搬送装置2Aの一部であるともいえる。
各ロボットアーム10Aは、アーム31A(第1アーム)と、アーム32A(第2アーム)と、アーム33A(第3アーム)と、アーム34A(第4アーム)と、アーム35A(第5アーム)と、アーム36A(第6アーム)と、アーム37A(第7アーム)とを有する。これらアーム31A〜37Aは、基端側から先端側に向かってこの順に連結されている。各アーム31A〜37Aは、隣り合う2つのアーム同士が互いに回動可能になっている。ここで、各ロボットアーム10Aのアーム37Aには、物体認識センサー5が配置されている。
制御装置6A(制御部)は、環境認識センサー4および物体認識センサー5の認識結果に基づいて、自動搬送装置2Aおよびロボットアーム10Aの駆動を制御する機能を有する。
より具体的には、制御装置6Aは、環境認識センサー4の認識結果に基づいて、各ロボットアーム10Aが前述した第1実施形態の部品収納部200または作業台300に対する作業可能な位置となるように自動搬送装置2Aを移動させることが可能である。また、制御装置6Aは、ロボット本体3A(ロボットアーム10A)が部品収納部200に対する作業可能な位置にあるとき、物体認識センサー5の認識結果に基づいて、載置部7A上に複数の部品キットCKを作成するようにロボット本体3Aを駆動させることが可能である。また、制御装置6Aは、ロボット本体3Aが作業台300に対する作業可能な位置にあるとき、物体認識センサー5の認識結果に基づいて、載置部7A上から作業台300へ複数の部品キットCKを載せ換えるようにロボット本体3Aを駆動させることが可能である。また、物体認識センサー5は基台30Aおよび各ロボットアーム10Aの全てに配置されていなくとも、いずれか一つ、または二つに配置されていてもよい。
以上説明したような第2実施形態によっても、前述した第1実施形態と同様の効果を奏することができる。また、本実施形態のロボットシステム100Aは、ロボットアーム10Aの数が2つである。これにより、作業効率を高めたり、より複雑な作業を行ったりすることができる。また、載置部7A上に部品キットCKを作成するだけでなく、その部品キットCKの組立等の作業を載置部7A上で行うこともできる。
以上、本発明のロボットシステムを、図示の実施形態に基づいて説明したが、本発明はこれに限定されるものではなく、各部の構成は、同様の機能を有する任意の構成のものに置換することができる。また、本発明に、他の任意の構成物が付加されていてもよい。
また、本発明は、前述した実施形態のうちの、任意の2以上の構成(特徴)を組み合わせたものであってもよい。
前述した実施形態では、3種の部品C1、C2、C3を1つずつ含む部品キットCKを作成する場合を例に説明したが、部品キットCKを構成する部品の数および種類は、これに限定されず、例えば、部品キットCKが含む部品の数が2つまたは4つ以上であってもよいし、部品キットCKが同種の部品を複数含んでいてもよい。
また、ロボットアームが有するアームの数(関節の数)は、前述した実施形態の数(6つまたは7つ)に限定されず、1つ以上5つ以下または8つ以上であってもよい。
また、前述した実施形態では、物体認識センサーに用いる光スキャナーがムービングマグネット方式である場合を例に説明したが、光スキャナーの駆動方式は、これに限定されず、ムービングコイル方式、静電駆動方式、圧電駆動方式等であってもよい。
また、前述した実施形態では、ロボットアームを搭載した自動搬送装置が環境認識センサー等の認識結果に基づいて走行する場合を例に説明したが、自動搬送装置の走行は、これに限定されず、予め設定されたプログラムに従って行ってもよいし、操作者の遠隔操作により行ってもよい。
1…ロボット、1A…ロボット、2…自動搬送装置、2A…自動搬送装置、3…ロボット本体、3A…ロボット本体、4…環境認識センサー、4a…環境認識センサー、4b…環境認識センサー、5…物体認識センサー(形状測定部)、6…制御装置、6A…制御装置、7…載置部、7A…載置部、10…ロボットアーム、10A…ロボットアーム、11…力検出センサー、11A…力検出センサー、12…ハンド、12A…ハンド、13…アーム駆動部、14…角度センサー、21…車体、21A…前輪、22…前輪、22A…前輪、23…後輪、23A…後輪、24…操舵機構、25…駆動部、30…基台、30A…基台、31…アーム、31A…アーム、32…アーム、32A…アーム、33…アーム、33A…アーム、34…アーム、34A…アーム、35…アーム、35A…アーム、36…アーム、36A…アーム、37A…アーム、51…投影部、52…撮像部、53…回路部、54…故障検知部、55…投影面、61…プロセッサー、62…メモリー、100…ロボットシステム、100A…ロボットシステム、200…部品収納部、201…コンテナ、211…車体、212…柱部、300…作業台、301…載置部、511…光源部、512…光スキャナー、521…撮像素子、522…結像光学系、531…光源駆動部、532…スキャナー駆動部、533…故障判断部、534…算出部、5111…光源、5112…レンズ、5113…レンズ、5121…可動ミラー部、5122…軸部、5123…支持部、5124…永久磁石、5125…コイル、5126…歪センサー、5221…レンズ、5222…レンズ、C1…部品、C2…部品、C3…部品、CK…部品キット、LL…光(ライン状のレーザー)、LP…パターン光、S1…ステップ、S11…ステップ、S12…ステップ、S13…ステップ、S14…ステップ、S15…ステップ、S16…ステップ、S17…ステップ、S18…ステップ、S19…ステップ、S2…ステップ、S20…ステップ、S21…ステップ、S22…ステップ、S23…ステップ、S24…ステップ、S25…ステップ、S26…ステップ、S27…ステップ、S28…ステップ、S29…ステップ、S32…ステップ、S33…ステップ、S34…ステップ、S35…ステップ、S36…ステップ、T…周期、TR…トレイ、a…中心軸、a1…中心軸、a2…光軸、as…揺動軸、b1…中心軸方向、b2…幅方向
Claims (10)
- 対象物に対して作業を行うロボットアームと、
前記ロボットアームに配置され、前記対象物の形状を測定する形状測定部と、
前記形状測定部が測定した結果に基づいて前記ロボットアームを制御する制御部と、を備え、
前記形状測定部は、
前記対象物に対して縞状のパターン光を投影する投影部と、
前記対象物に投影された前記パターン光を撮像する撮像部と、
前記撮像部が撮像した結果に基づいて前記対象物の形状を算出する算出部と、を有し、
前記投影部は、
ライン状のレーザーを出射する光源部と、
前記光源部から出射されたレーザーを反射させて前記対象物を走査することで前記パターン光を生成する光スキャナーと、
前記光スキャナーを非共振駆動する駆動信号を出力するスキャナー駆動部と、を有することを特徴とするロボットシステム。 - 前記駆動信号の波形は、正弦波状である請求項1に記載のロボットシステム。
- 前記光源部を駆動する変調信号を出力する光源駆動部を備え、
前記対象物に対して投影される前記縞状のパターン光は輝度値の明暗で正弦波状となる縞パターンであり、
前記変調信号の波形は、正弦波状とは異なる形状である請求項2に記載のロボットシステム。 - 前記ロボットアームを搭載し、無軌道で移動可能な自動搬送装置を備える請求項1ないし3のいずれか1項に記載のロボットシステム。
- 前記自動搬送装置が移動する方向の環境を認識する環境認識センサーを備え、
前記自動搬送装置は、前記環境認識センサーの認識結果に基づいて移動可能である請求項4に記載のロボットシステム。 - 前記スキャナー駆動部は、前記ロボットアームの動作により移動しているときに、前記駆動信号の出力を停止する請求項1ないし5のいずれか1項に記載のロボットシステム。
- 前記光スキャナーの故障を検知する故障検知部を備える請求項1ないし6のいずれか1項に記載のロボットシステム。
- 前記光スキャナーは、
可動ミラー部と、
前記可動ミラー部を揺動可能に支持している1対の軸部と、を有し、
前記故障検知部は、前記軸部に設けられている歪センサーを有する請求項7に記載のロボットシステム。 - 前記駆動信号の周波数が100Hz以上4kHz以下の範囲内にある請求項1ないし8のいずれか1項に記載のロボットシステム。
- 前記ロボットアームとは別のロボットアームを有する請求項1ないし9のいずれか1項に記載のロボットシステム。
Priority Applications (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017186529A JP2019058993A (ja) | 2017-09-27 | 2017-09-27 | ロボットシステム |
CN201811109907.6A CN109551472B (zh) | 2017-09-27 | 2018-09-21 | 机器人*** |
US16/140,744 US10753738B2 (en) | 2017-09-27 | 2018-09-25 | Robot system |
EP18196510.4A EP3474099B1 (en) | 2017-09-27 | 2018-09-25 | Robot system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017186529A JP2019058993A (ja) | 2017-09-27 | 2017-09-27 | ロボットシステム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2019058993A true JP2019058993A (ja) | 2019-04-18 |
Family
ID=63683721
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017186529A Withdrawn JP2019058993A (ja) | 2017-09-27 | 2017-09-27 | ロボットシステム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10753738B2 (ja) |
EP (1) | EP3474099B1 (ja) |
JP (1) | JP2019058993A (ja) |
CN (1) | CN109551472B (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021091028A (ja) * | 2019-12-09 | 2021-06-17 | トヨタ自動車株式会社 | 搬送ロボットシステム及び搬送ロボットの制御方法 |
JP2021091027A (ja) * | 2019-12-09 | 2021-06-17 | トヨタ自動車株式会社 | 搬送ロボットシステム及び搬送ロボットの制御方法 |
JP2021091029A (ja) * | 2019-12-09 | 2021-06-17 | トヨタ自動車株式会社 | 搬送ロボットシステム |
Families Citing this family (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN110340863B (zh) * | 2018-04-08 | 2023-02-17 | AIrobot株式会社 | 自主移动搬运机器人 |
US11040452B2 (en) * | 2018-05-29 | 2021-06-22 | Abb Schweiz Ag | Depth sensing robotic hand-eye camera using structured light |
US11745354B2 (en) * | 2018-08-16 | 2023-09-05 | Mitutoyo Corporation | Supplementary metrology position coordinates determination system including an alignment sensor for use with a robot |
JP7286963B2 (ja) * | 2018-12-26 | 2023-06-06 | セイコーエプソン株式会社 | ロボットシステムおよびロボット制御方法 |
KR20210125067A (ko) | 2019-02-08 | 2021-10-15 | 야스카와 아메리카 인코포레이티드 | 관통 빔 자동 티칭 |
US11527867B2 (en) * | 2019-03-20 | 2022-12-13 | Ricoh Company, Ltd. | Surface emitting laser element, illumination device, projection device, measurement device, robot, electronic apparatus, mobile body, and modeling device |
JP7279469B2 (ja) * | 2019-03-28 | 2023-05-23 | セイコーエプソン株式会社 | 三次元計測装置およびロボットシステム |
CN110480631A (zh) * | 2019-07-19 | 2019-11-22 | 五邑大学 | 一种应用于搬运机器人的目标搬运方法及其搬运机器人 |
CN110672037A (zh) * | 2019-09-02 | 2020-01-10 | 南京理工大学 | 基于相移法的线性光源光栅投影三维测量***及方法 |
US11478936B2 (en) * | 2019-10-09 | 2022-10-25 | Canon Kabushiki Kaisha | Image processing apparatus that processes image picked up by image pickup apparatus attached to robot, control method therefor, and storage medium storing control program therefor |
JP2021089405A (ja) * | 2019-12-06 | 2021-06-10 | セイコーエプソン株式会社 | 光走査装置、三次元計測装置、及び、ロボットシステム |
WO2021141039A1 (ja) * | 2020-01-09 | 2021-07-15 | ファナック株式会社 | ワーク搬送システム |
JP2021171874A (ja) * | 2020-04-24 | 2021-11-01 | セイコーエプソン株式会社 | ワーク処理方法 |
US11318501B1 (en) * | 2020-05-15 | 2022-05-03 | Amazon Technologies, Inc. | Mesh flaps for container capacity detection in sortation systems |
CN111775155A (zh) * | 2020-07-22 | 2020-10-16 | 河南工业职业技术学院 | 一种数控机床维修智能机器人 |
CN112605999B (zh) * | 2020-12-22 | 2022-01-18 | 杭州北冥星眸科技有限公司 | 基于红外线深度摄像头技术的机器人障碍检测方法及*** |
CN115488611B (zh) * | 2022-10-25 | 2023-03-07 | 宁波世裕五金电器有限公司 | 膨胀螺丝装配机械装配时长解析*** |
Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3058643U (ja) * | 1998-10-22 | 1999-06-22 | ダイトーエムイー株式会社 | 形状測定装置 |
JP2005169553A (ja) * | 2003-12-10 | 2005-06-30 | Canon Inc | マイクロアクチュエータ |
JP2010210410A (ja) * | 2009-03-10 | 2010-09-24 | Saitama Medical Univ | 三次元形状測定装置 |
JP2011121156A (ja) * | 2009-12-14 | 2011-06-23 | Nippon Signal Co Ltd:The | プレーナ型アクチュエータ |
JP2011215323A (ja) * | 2010-03-31 | 2011-10-27 | Brother Industries Ltd | 光走査装置及び画像表示装置 |
JP2013057819A (ja) * | 2011-09-08 | 2013-03-28 | Fujifilm Corp | ミラー駆動装置及びその駆動方法並びに製造方法 |
JP2013078830A (ja) * | 2011-10-04 | 2013-05-02 | Yaskawa Electric Corp | ロボットシステムおよび被加工物の製造方法 |
JP2014089062A (ja) * | 2012-10-29 | 2014-05-15 | Nikon Corp | 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、及び形状測定プログラム |
JP2015102485A (ja) * | 2013-11-27 | 2015-06-04 | 株式会社ニコン | 形状測定装置、光走査装置、構造物製造システム、形状測定方法、構造物製造方法、及び形状測定プログラム |
WO2016142981A1 (ja) * | 2015-03-06 | 2016-09-15 | 株式会社日立製作所 | 作業ロボット及びグリッパ |
JP2017110991A (ja) * | 2015-12-16 | 2017-06-22 | セイコーエプソン株式会社 | 計測システム、計測方法、ロボット制御方法、ロボット、ロボットシステムおよびピッキング装置 |
Family Cites Families (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP0812662B1 (en) | 1995-12-27 | 2008-01-23 | Fanuc Ltd | Composite sensor robot system |
JP2000135689A (ja) * | 1998-10-30 | 2000-05-16 | Fanuc Ltd | ロボット用画像処理装置 |
JP3703411B2 (ja) * | 2001-07-19 | 2005-10-05 | ファナック株式会社 | ワーク取り出し装置 |
JP2005515910A (ja) * | 2002-01-31 | 2005-06-02 | ブレインテック カナダ インコーポレイテッド | シングルカメラ3dビジョンガイドロボティクスの方法および装置 |
US7442918B2 (en) | 2004-05-14 | 2008-10-28 | Microvision, Inc. | MEMS device having simplified drive |
WO2006043396A1 (ja) | 2004-10-19 | 2006-04-27 | Matsushita Electric Industrial Co., Ltd. | ロボット装置 |
US7724379B2 (en) * | 2005-05-12 | 2010-05-25 | Technodream21, Inc. | 3-Dimensional shape measuring method and device thereof |
JP2007078865A (ja) * | 2005-09-12 | 2007-03-29 | Fuji Xerox Co Ltd | 光走査装置および画像記録装置 |
US20070115484A1 (en) * | 2005-10-24 | 2007-05-24 | Peisen Huang | 3d shape measurement system and method including fast three-step phase shifting, error compensation and calibration |
WO2008036354A1 (en) * | 2006-09-19 | 2008-03-27 | Braintech Canada, Inc. | System and method of determining object pose |
US7957583B2 (en) * | 2007-08-02 | 2011-06-07 | Roboticvisiontech Llc | System and method of three-dimensional pose estimation |
WO2009119510A1 (ja) * | 2008-03-28 | 2009-10-01 | 本田技研工業株式会社 | ワーク測定方法、サスペンションアッセンブリ取り付け方法、およびサスペンションアッセンブリ取り付け装置 |
JP2010089211A (ja) * | 2008-10-08 | 2010-04-22 | Panasonic Corp | 組立部品供給システム |
CN102483326B (zh) * | 2009-07-03 | 2015-01-21 | 莱卡地球***公开股份有限公司 | 用于生成对象的三维图像的设备 |
JP4763074B2 (ja) * | 2009-08-03 | 2011-08-31 | ファナック株式会社 | ロボットのツール先端点の位置の計測装置および計測方法 |
JP2011039005A (ja) * | 2009-08-18 | 2011-02-24 | Topcon Corp | 測定装置 |
US9879976B2 (en) | 2010-01-20 | 2018-01-30 | Faro Technologies, Inc. | Articulated arm coordinate measurement machine that uses a 2D camera to determine 3D coordinates of smoothly continuous edge features |
WO2012176262A1 (ja) * | 2011-06-20 | 2012-12-27 | 株式会社安川電機 | 3次元形状計測装置およびロボットシステム |
US20140104416A1 (en) * | 2012-10-16 | 2014-04-17 | Hand Held Products, Inc. | Dimensioning system |
US9228816B2 (en) * | 2013-03-15 | 2016-01-05 | Faro Technologies, Inc. | Method of determining a common coordinate system for an articulated arm coordinate measurement machine and a scanner |
US9238304B1 (en) * | 2013-03-15 | 2016-01-19 | Industrial Perception, Inc. | Continuous updating of plan for robotic object manipulation based on received sensor data |
JP6188440B2 (ja) * | 2013-06-17 | 2017-08-30 | キヤノン株式会社 | ロボット装置及びロボット制御方法 |
JP6168353B2 (ja) * | 2013-09-13 | 2017-07-26 | 株式会社リコー | 光偏向装置、画像形成装置、車両、光偏向装置の制御方法、及び光偏向装置の調整方法 |
JP6253368B2 (ja) * | 2013-11-25 | 2017-12-27 | キヤノン株式会社 | 三次元形状計測装置およびその制御方法 |
JP6347113B2 (ja) * | 2014-02-10 | 2018-06-27 | セイコーエプソン株式会社 | アクチュエーター、光スキャナー、画像表示装置およびヘッドマウントディスプレイ |
JP2015184056A (ja) * | 2014-03-20 | 2015-10-22 | 株式会社東芝 | 計測装置、方法及びプログラム |
JP6357949B2 (ja) * | 2014-07-29 | 2018-07-18 | セイコーエプソン株式会社 | 制御システム、ロボットシステム、及び制御方法 |
US9561587B2 (en) * | 2014-12-16 | 2017-02-07 | Amazon Technologies, Inc. | Robotic grasping of items in inventory system |
JP6348097B2 (ja) * | 2015-11-30 | 2018-06-27 | ファナック株式会社 | ワーク位置姿勢算出装置およびハンドリングシステム |
JP6598673B2 (ja) * | 2015-12-24 | 2019-10-30 | キヤノン株式会社 | データ処理装置およびその方法 |
JP6708428B2 (ja) * | 2016-02-12 | 2020-06-10 | キヤノン株式会社 | ロボット装置、制御方法、製造方法、プログラム、及び記録媒体 |
US10841548B2 (en) * | 2016-03-01 | 2020-11-17 | Funai Electric Co., Ltd. | Oscillating mirror element and projector |
JP6970551B2 (ja) * | 2017-07-31 | 2021-11-24 | 株式会社キーエンス | 形状測定装置及び形状測定方法 |
US10020216B1 (en) * | 2017-09-08 | 2018-07-10 | Kawasaki Jukogyo Kabushiki Kaisha | Robot diagnosing method |
US20190077013A1 (en) * | 2017-09-08 | 2019-03-14 | Kawasaki Jukogyo Kabushiki Kaisha | Robot Diagnosing Method |
JP2019159872A (ja) * | 2018-03-14 | 2019-09-19 | セイコーエプソン株式会社 | 演算装置、演算装置の制御方法、および、コンピュータープログラム |
JP7135495B2 (ja) * | 2018-06-26 | 2022-09-13 | セイコーエプソン株式会社 | 三次元計測装置、制御装置およびロボットシステム |
JP7155660B2 (ja) * | 2018-06-26 | 2022-10-19 | セイコーエプソン株式会社 | ロボット制御装置およびロボットシステム |
-
2017
- 2017-09-27 JP JP2017186529A patent/JP2019058993A/ja not_active Withdrawn
-
2018
- 2018-09-21 CN CN201811109907.6A patent/CN109551472B/zh active Active
- 2018-09-25 US US16/140,744 patent/US10753738B2/en active Active
- 2018-09-25 EP EP18196510.4A patent/EP3474099B1/en active Active
Patent Citations (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3058643U (ja) * | 1998-10-22 | 1999-06-22 | ダイトーエムイー株式会社 | 形状測定装置 |
JP2005169553A (ja) * | 2003-12-10 | 2005-06-30 | Canon Inc | マイクロアクチュエータ |
JP2010210410A (ja) * | 2009-03-10 | 2010-09-24 | Saitama Medical Univ | 三次元形状測定装置 |
JP2011121156A (ja) * | 2009-12-14 | 2011-06-23 | Nippon Signal Co Ltd:The | プレーナ型アクチュエータ |
JP2011215323A (ja) * | 2010-03-31 | 2011-10-27 | Brother Industries Ltd | 光走査装置及び画像表示装置 |
JP2013057819A (ja) * | 2011-09-08 | 2013-03-28 | Fujifilm Corp | ミラー駆動装置及びその駆動方法並びに製造方法 |
JP2013078830A (ja) * | 2011-10-04 | 2013-05-02 | Yaskawa Electric Corp | ロボットシステムおよび被加工物の製造方法 |
JP2014089062A (ja) * | 2012-10-29 | 2014-05-15 | Nikon Corp | 形状測定装置、構造物製造システム、形状測定方法、構造物製造方法、及び形状測定プログラム |
JP2015102485A (ja) * | 2013-11-27 | 2015-06-04 | 株式会社ニコン | 形状測定装置、光走査装置、構造物製造システム、形状測定方法、構造物製造方法、及び形状測定プログラム |
WO2016142981A1 (ja) * | 2015-03-06 | 2016-09-15 | 株式会社日立製作所 | 作業ロボット及びグリッパ |
JP2017110991A (ja) * | 2015-12-16 | 2017-06-22 | セイコーエプソン株式会社 | 計測システム、計測方法、ロボット制御方法、ロボット、ロボットシステムおよびピッキング装置 |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2021091028A (ja) * | 2019-12-09 | 2021-06-17 | トヨタ自動車株式会社 | 搬送ロボットシステム及び搬送ロボットの制御方法 |
JP2021091027A (ja) * | 2019-12-09 | 2021-06-17 | トヨタ自動車株式会社 | 搬送ロボットシステム及び搬送ロボットの制御方法 |
JP2021091029A (ja) * | 2019-12-09 | 2021-06-17 | トヨタ自動車株式会社 | 搬送ロボットシステム |
JP7243604B2 (ja) | 2019-12-09 | 2023-03-22 | トヨタ自動車株式会社 | 搬送ロボットシステム及び搬送ロボットの制御方法 |
JP7243603B2 (ja) | 2019-12-09 | 2023-03-22 | トヨタ自動車株式会社 | 搬送ロボットシステム |
JP7243605B2 (ja) | 2019-12-09 | 2023-03-22 | トヨタ自動車株式会社 | 搬送ロボットシステム |
US11642782B2 (en) | 2019-12-09 | 2023-05-09 | Toyota Jidosha Kabushiki Kaisha | Conveyance robot system, method for controlling conveyance robot and non-transitory computer readable storage medium storing a robot control program |
Also Published As
Publication number | Publication date |
---|---|
EP3474099A3 (en) | 2019-05-15 |
EP3474099B1 (en) | 2023-03-15 |
US10753738B2 (en) | 2020-08-25 |
CN109551472A (zh) | 2019-04-02 |
CN109551472B (zh) | 2023-06-27 |
US20190094017A1 (en) | 2019-03-28 |
EP3474099A2 (en) | 2019-04-24 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2019058993A (ja) | ロボットシステム | |
CN109571461B (zh) | 机器人*** | |
JP3263724B2 (ja) | 2次元レーザパターンによる形状特徴抽出装置 | |
JP5382621B2 (ja) | 移載装置 | |
CN102528810B (zh) | 形状计测装置、机器人***及形状计测方法 | |
TWI637830B (zh) | 自走式關節機器人 | |
US8798794B2 (en) | Method and system for highly precisely positioning at least one object in an end position in space | |
US10107618B2 (en) | Coordinate measuring machine | |
JP5292998B2 (ja) | ロボット装置の制御方法及びロボット装置 | |
JP2011507714A (ja) | 空間内において少なくとも1つのオブジェクトを最終姿勢に高精度で位置決めするための方法およびシステム | |
JP7155660B2 (ja) | ロボット制御装置およびロボットシステム | |
CN112428248B (zh) | 机器人***及控制方法 | |
JP3754402B2 (ja) | 産業用ロボットの制御方法および制御装置 | |
KR20200012298A (ko) | 오토 포지셔닝 기술을 이용한 무인이송대차 | |
JP2014159989A (ja) | 物体検出装置及びロボットシステム | |
JP2018185203A (ja) | 移動ロボット | |
US20220026538A1 (en) | Distance Measuring Device And Robot | |
JP2008264901A (ja) | 移動ロボット及びその自動連結方法、並びにパラレルリンク機構の駆動制御方法 | |
CN116512239A (zh) | 机器人***及机器人的控制方法 | |
JP7310481B2 (ja) | 深度センサーの制御方法、深度センサーおよびロボットシステム | |
US20240123606A1 (en) | Teaching point generation device that generates teaching points on basis of output of sensor, and teaching point generation method | |
JP2727375B2 (ja) | 移動車の停止位置検出装置 | |
JP2727376B2 (ja) | 移動車の停止位置検出装置 | |
JP2751960B2 (ja) | 停止位置検出用表示装置 | |
JP2021148670A (ja) | 測定方法、光学装置、計測装置、移動体、ロボット、電子機器及び造形装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200828 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210430 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210511 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20210625 |