JP6322959B2 - ロボット、ロボットシステム、及びロボット制御装置 - Google Patents

ロボット、ロボットシステム、及びロボット制御装置 Download PDF

Info

Publication number
JP6322959B2
JP6322959B2 JP2013229064A JP2013229064A JP6322959B2 JP 6322959 B2 JP6322959 B2 JP 6322959B2 JP 2013229064 A JP2013229064 A JP 2013229064A JP 2013229064 A JP2013229064 A JP 2013229064A JP 6322959 B2 JP6322959 B2 JP 6322959B2
Authority
JP
Japan
Prior art keywords
robot
arm
screw
control unit
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2013229064A
Other languages
English (en)
Other versions
JP2015089579A (ja
Inventor
如洋 山口
如洋 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2013229064A priority Critical patent/JP6322959B2/ja
Priority to CN201410599083.0A priority patent/CN104608153B/zh
Priority to EP14191446.5A priority patent/EP2921266B1/en
Priority to US14/532,412 priority patent/US9561594B2/en
Publication of JP2015089579A publication Critical patent/JP2015089579A/ja
Application granted granted Critical
Publication of JP6322959B2 publication Critical patent/JP6322959B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B25HAND TOOLS; PORTABLE POWER-DRIVEN TOOLS; MANIPULATORS
    • B25JMANIPULATORS; CHAMBERS PROVIDED WITH MANIPULATION DEVICES
    • B25J9/00Programme-controlled manipulators
    • B25J9/16Programme controls
    • B25J9/1694Programme controls characterised by use of sensors other than normal servo-feedback from position, speed or acceleration sensors, perception control, multi-sensor controlled systems, sensor fusion
    • B25J9/1697Vision controlled systems
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37208Vision, visual inspection of workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/37Measurements
    • G05B2219/37555Camera detects orientation, position workpiece, points of workpiece
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39107Pick up article, object, measure, test it during motion path, place it
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/39Robotics, robotics to robotics hand
    • G05B2219/39109Dual arm, multiarm manipulation, object handled in cooperation
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40072Exert a screwing motion
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40087Align hand on workpiece to pick up workpiece, peg and hole
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40609Camera to monitor end effector as well as object to be handled
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/40Robotics, robotics mapping to robotics vision
    • G05B2219/40615Integrate sensor placement, configuration with vision tracking
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B2219/00Program-control systems
    • G05B2219/30Nc systems
    • G05B2219/45Nc applications
    • G05B2219/45203Screwing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/02Arm motion controller
    • Y10S901/09Closed loop, sensor feedback controls arm movement
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/30End effector
    • Y10S901/41Tool
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Robotics (AREA)
  • Mechanical Engineering (AREA)
  • Manipulator (AREA)

Description

本発明は、ロボット、ロボットシステム、及びロボット制御装置に関するものである。
近年、製造現場等では、スカラロボットや多軸ロボット等が製品の組立てや検査等に用いられている。製品の組立てや検査を行うときに物体を運搬する場合、ロボットは、物体を吸着したり、アームにより把持したりする。
このような産業用ロボットにおいては、自動組立その他の作業工程において、不特定で多様な姿勢をとる対象物を所定の姿勢で効率的に掴み取ることが要求されている。このような産業用ロボットは、ロボットのエンドエフェクターにドライバーを取り付け、人間に代わって、産業用ロボットがねじ締めを自動的に行っている。その際、ねじの位置及び形状を画像処理にて認識している。
例えば、物体を加工し、切り粉等が発生する環境下で、テレビカメラ等により物体を撮像し、物体の位置及び形状を画像処理にて認識する画像処理装置が開示されている(例えば、特許文献1参照)。
特開平6−288740号公報
しかしながら、特許文献1では、画像処理における物体の背景になる部分に容器部を設け、この容器部に画像処理にて物体との識別可能な色をした不透明な液体を溜め、その不透明な液体の液面を物体の背景としていた。このため、作業環境における汚れ、さび、及びウェットでの使用、また撮像方向が重力方向の1方向のみであり、汎用性に欠ける。
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態又は適用例として実現することが可能である。
[適用例1]本適用例に係るロボットは、物体を保持する保持部と、撮像部と、ロボットの予め定められた第1の部分と、を含み、前記撮像部は、前記第1の部分を背景として前記保持部及び前記物体を撮像することを特徴とする。
本適用例によれば、予め定められた第1の部分を保持部の撮影の背景とするため、複雑なアルゴリズムを用いることなく画像処理ができる。これにより、画像処理が正確で速くなる。その結果、画像検査においてロボットの筐体を背景とすることで、汎用的で安定した検査を実現できる。
[適用例2]上記適用例に記載のロボットにおいて、前記第1の部分は、予め定められた色であることを特徴とする。
本適用例によれば、予め定められた色であることから、さらに複雑なアルゴリズムを用いることなく画像処理ができる。
[適用例3]上記適用例に記載のロボットにおいて、前記第1の部分は、コントラストが均一であることを特徴とする。
本適用例によれば、コントラストが均一であることから、さらに複雑なアルゴリズムを用いることなく画像処理ができる。
[適用例4]上記適用例に記載のロボットにおいて、前記第1の部分は、前記ロボットの胴体部であることを特徴とする。
本適用例によれば、容易に安定した検査を実現できる。
[適用例5]上記適用例に記載のロボットにおいて、前記撮像部は、前記撮像とは前記保持部に対する撮像方向が異なり、前記ロボットの第2の部分を背景として前記保持部及び前記物体を撮像することを特徴とする。
本適用例によれば、保持部に保持されている物体を撮像部で撮影する際に、第1の部分を背景とする撮像とは保持部に対する撮像方向が異なる第2の部分を背景として撮像することで、これらの幾何学的な関係が二極化され、画像処理を明確に行うことが可能となる。
[適用例6]上記適用例に記載のロボットにおいて、前記撮像方向は、前記物体に対して90度の関係にある2方向が撮像されることを特徴とする。
本適用例によれば、真横からも撮像することで、物体のずれ方向がより正確に認識できる。
[適用例7]上記適用例に記載のロボットにおいて、前記第2の部分は、予め定められた色であることを特徴とする。
本適用例によれば、予め定められた色であることから、さらに複雑なアルゴリズムを用いることなく画像処理ができる。
[適用例8]上記適用例に記載のロボットにおいて、前記第2の部分は、コントラストが均一であることを特徴とする。
本適用例によれば、コントラストが均一であることから、さらに複雑なアルゴリズムを用いることなく画像処理ができる。
[適用例9]上記適用例に記載のロボットにおいて、前記第2の部分は、前記ロボットのアームであることを特徴とする。
本適用例によれば、容易に安定した検査を実現できる。
[適用例10]上記適用例に記載のロボットにおいて、前記物体は、ねじが吸着されたドライバーであることを特徴とする。
本適用例によれば、ドライバーに吸着されたねじの安定した検査を実現できる。
[適用例11]上記適用例に記載のロボットにおいて、前記保持部は、回動することを特徴とする。
本適用例によれば、容易に第1の部分を背景とする撮像とは保持部に対する撮像方向が異なる第2の部分を背景として撮像できる。
[適用例12]本適用例に係るロボットシステムは、上記のいずれか一項に記載のロボットと、ロボット制御装置と、を含み、前記ロボット制御装置は、前記撮像部で、前記第1の部分を背景として前記保持部及び前記物体を撮像する制御部を含むことを特徴とする。
本適用例によれば、予め定められた第1の部分を保持部の撮影の背景とするため、複雑なアルゴリズムを用いることなく画像処理ができる。これにより、画像処理が正確で速くなる。その結果、画像検査においてロボットの筐体を背景とすることで、汎用的で安定した検査を実現できる。
[適用例13]本適用例に係るロボット制御装置は、保持部と、撮像部と、ロボットの予め定められた第1の部分と、を含むロボットを制御するロボット制御装置であって、前記撮像部で、前記第1の部分を背景として前記保持部及び前記物体を撮像する制御部を含むことを特徴とする。
本適用例によれば、予め定められた第1の部分を保持部の撮影の背景とするため、複雑なアルゴリズムを用いることなく画像処理ができる。これにより、画像処理が正確で速くなる。その結果、画像検査においてロボットの筐体を背景とすることで、汎用的で安定した検査を実現できる。
本実施形態に係るロボットの一例を示す正面斜視図。 ロボットの一例を示す背面斜視図。 アーム及びハンドの詳細を示す図。 ロボットの機能構成の一例を示す図。 ロボットが行う第一の作業例を説明する図。 電動ドライバーの先端にねじを吸着し、ねじ締めを行うまでの動作のフローチャート。 電動ドライバーの係合部にねじが嵌合している一例を説明する図、(A)は係合部にねじが正しく嵌合している図、(B)は係合部にねじが正しく嵌合していない図。 ロボットが行う2視点の画像検査を説明する図、(A)は一視点の画像検査を説明する図、(B)は他視点の画像検査を説明する図。
本発明の実施形態について、図面を参照しながら説明する。
図1は、本発明の実施形態に係るロボット1の一例を示す正面斜視図である。図2は、ロボット1の一例を示す背面斜視図である。
ロボット1は、胴部(胴体部)10と、アーム11と、タッチパネルモニター12と、脚部13と、搬送用ハンドル14と、カメラ15と、信号灯16と、電源スイッチ17と、外部インターフェイス(I/F)部18と、昇降ハンドル19と、を備える。ロボット1は、人間型双腕ロボットであり、制御部20(図4参照)の制御に従って動作する。このロボット1は、例えばプリンターのような精密機器等を組み立てる製造工程で用いることができるものである。なお、この製造作業は、通常、作業台(図示せず)上で行われる。
胴部10は、脚部13のフレーム上に設けられる。なお、脚部13はロボット1の基台であり、胴部10はロボット1の胴体である。胴部10は、ロボット本体と呼ぶこともできる。なお、胴部10のみでなく、脚部13を含めてロボット本体としてもよい。
胴部10は、上側の肩領域10Aと、下側の胴部本体10Bとを有する。肩領域10Aには、その両側面に、それぞれ正面側に突出したアーム11(「マニピュレーター」ともいう。)が設けられる。
アーム11の先端には、作業の対象物(「ワーク」ともいう。)や道具を保持(掴む、把持を含む広い概念)するハンド111(「エンドエフェクター」ともいう。)が設けられる。また、アーム11には、作業台の上に載置されたワーク等を撮影するハンドアイカメラ(撮像部)11Gが設けられる。アーム11及びハンド111の詳細については、後に詳述する。
ハンドアイカメラ11Gは、例えばCCD(Charge Coupled Device)カメラである。ハンドアイカメラ11Gは、電動ドライバー(保持部)A30(図5参照)に吸着(保持)されたねじ(物体)A20を撮影し、撮影したアナログ値の画像データを制御部20に出力する。なお、ハンドアイカメラ11Gは、ロボット1の胴部10を背景とする撮像とはハンド111に対する撮像方向が異なり、ロボット1のアーム11を背景として電動ドライバーA30及びねじA20を撮像してもよい。これによれば、ハンド111に保持されている電動ドライバーA30をハンドアイカメラ11Gで撮像する際に、胴部10を背景とする撮像とはハンド111に対する撮像方向が異なるアーム11を背景として撮像することで、これらの幾何学的な関係が二極化され、画像処理を明確に行うことが可能となる。なお、背景は複雑なアルゴリズムを用いることなく画像処理ができる状態のものであればよく、例えば、ロボット1の胴部10あるいはアーム11を背景の一部として電動ドライバーA30及びねじA20を撮像してもよい。
胴部10の肩領域10Aから正面側に斜め上方向突出する、ロボット1の頭部に当たる部分には、2台のカメラ15と、信号灯16とが設けられる。
カメラ15は、例えば、CCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等を有し、作業台等を撮像することができる。信号灯16は、例えば、赤色の光、黄色の光、青色の光をそれぞれ発するLEDを有し、ロボット1の現在の状態に応じて適宜選択されたLEDを発光させる。
脚部13の内部には、ロボット1自身を制御する制御部20等が設けられる。脚部13及び胴部本体10Bの内部にはロボット1に対して上下方向に伸びる回転軸が設けられ、この回転軸には胴部10の肩領域10Aが設けられる。肩領域10Aは、回転軸周りに回転移動させることができる。すなわち、胴部本体10Bより上側の部材は、回転軸周りに一体的に任意の方向に向けることが可能である。
脚部13の背面には、電源スイッチ17と、制御部20と外部のPC等を接続する外部接続端子である外部I/F部18とが設けられる。電源スイッチ17は、ロボット1の電源を投入する電源ONスイッチ17aと、ロボット1の電源を遮断する電源OFFスイッチ17bとを有する。
また、脚部13の最下部には、図示しない複数のキャスターが水平方向に間隔をおいて設置されている。これにより、作業者が搬送用ハンドル14を押すこと等によりロボット1を移動搬送することができる。
胴部10の背面には、昇降ハンドル19が設けられる。昇降ハンドル19は、胴部10の上部にある肩領域10Aを、胴部本体10Bに対して上下方向に移動させる。これにより、様々な高さの作業台に対応することができる。
また、胴部10の背面側には、ロボット1の背面側から視認可能なタッチパネルモニター12が配置されている。モニターは、例えば、液晶ディスプレイなどであり、ロボット1の現在の状態などを表示することができる。また、タッチパネルは、例えば静電式や圧電式のタッチパネルであり、ロボット1に対する動作の設定などを行うユーザーインターフェイス部として用いられる。
図3は、アーム11及びハンド111の詳細を示す図である。
アーム11は、胴部10側から順に、アーム部材(「マニピュレーター部材」ともいう。)11A,11B,11C,11D,11Eがジョイント(図示せず)により連結されて構成される。ジョイントには、それらを動作させるためのアクチュエーター(図示せず)が設けられる。
アーム11は、7個の回動軸を有する7軸アームである。7個の回動軸J1,J2,J3,J4,J5,J6,J7は、それぞれ、ジョイントに設けられたアクチュエーターの回転軸である。アーム部材11A,11B,11C,11D,11E及びハンド111は、回動軸J1,J2,J3,J4,J5,J6,J7周りに独立して回動することができる。
アクチュエーターは、例えば、サーボモーターやエンコーダー11a(図4参照)などを備える。エンコーダーが出力するエンコーダー値は、制御部20によるロボット1のフィードバック制御などに使用される。また、アクチュエーターには、回転軸を固定する電磁ブレーキが設けられる。
各回転軸を連動させることにより、アーム11の先端部などに設定された注目位置(「エンドポイント」ともいう。)を、所定の可動範囲内で自在に移動させたり自由な方向へ向けたりすることができる。なお、エンドポイントの位置は、アームの先端部に限定されず、例えば、エンドエフェクターの先端部などに設定されてもよい。
アーム部材11Eの先端(アーム11の手首部分に相当)には、力覚センサー(図示せず)が設けられている。力覚センサーは、ロボット1が出している力に対する反力として受けている力や、モーメントを検出するセンサーである。力覚センサーとしては、例えば、並進3軸方向の力成分と、回転3軸周りのモーメント成分の6成分を同時に検出することができる6軸力覚センサーを用いることができる。なお、力覚センサーは、6軸に限らず、例えば3軸でもよい。力覚センサーにより、ハンド等にかかる力やモーメントを検出することができる。
なお、ハンド等に加わる力やモーメントを検出する方法は力覚センサーを用いるものに限られない。例えば、アーム11の各軸トルク値からハンドに及ぼす外力を推定することもできる。したがって、直接又は間接的にハンドに加わる力やモーメントを取得する手段を、アーム11が有していればよい。
また、アーム部材11Eの先端には、ハンド111を着脱自在に設けるための着脱部材112を介して、ハンド111が設けられる。
ハンド111は、本体部111Aと、本体部111Aの先端側に配置された複数本(例えば、2本〜4本の任意の数)のフィンガー111Bとを有する。本体部111Aは、外形形状がほぼ直方体状をなし、その内部に各フィンガー111Bを駆動させる駆動機構(図示せず)が設けられる。駆動機構によりフィンガー111B同士を互いに接近させることにより、これらの間で部品等の対象物を挟持することができる。また、駆動機構によりこの挟持状態からフィンガー111B同士を互いに離間させることにより、対象物を解放することができる。
なお、アーム11は、マニピュレーターの一種ということができる。マニピュレーターは、エンドポイントの位置を移動させる機構であり、アームに限らず様々な形態をとることができる。例えば、一以上のジョイントとリンクとにより構成され、ジョイントを動かすことで全体が動くマニピュレーターであれば、どのような形態でもよい。また、ロボット1に設けられるマニピュレーターの数も2本に限らず、1本あるいは3本以上であってもよい。
なお、ハンド111は、エンドエフェクターの一種ということができる。エンドエフェクターは、対象物を把持したり、押し付けたり、持ち上げたり、吊り上げたり、吸着したり、ワークを加工したりするための部材である。エンドエフェクターは、ハンド、フック、吸盤など、様々な形態をとることができる。また、エンドエフェクターは、一本のアームに対して複数設けるようにしてもよい。
上記のような構成を有することにより、ロボット1は、制御部20の制御の下、例えば、ハンド111でワークを把持したり、ハンド111をワークに接触させたりすることができる。また、ロボット1は、例えば、ハンド111で、ワークに対して様々な方向の力を加えて押し付けたり、ワークに対して様々なモーメントを加えたりすることができる。
上記のロボット1の構成は、本実施形態の特徴を説明するにあたって主要構成を説明したのであって、図示した構成例に限らない。また、一般的なロボットが備える構成を排除するものではない。例えば、ジョイントの数(「軸数」ともいう。)やリンクの数を増減させてもよい。また、ジョイント、リンク、ハンド等の各種部材の形状、大きさ、配置、構造等も適宜変更してよい。
また、例えば、制御部20は、当該制御部20の機能を実現するロボット制御装置としてロボット1の外部に設けるようにしてもよい。この場合、当該ロボット制御装置は、通信I/Fなどを介してロボット1に接続される。ロボット制御装置とロボットを備えるシステムを、ロボットシステムと呼ぶこともできる。
図4は、ロボット1の機能構成の一例を示す図である。
制御部20は、入出力制御部21と、カメラ制御部22と、エンコーダー制御部23と、力覚センサー制御部24と、軌道生成部25と、アーム制御部26と、ハンド制御部27と、を備える。アーム11は、エンコーダー11aと、力覚センサー11bと、を備える。
制御部20は、ロボット1のアーム11、ハンド111を後述するように制御する。また、制御部20は、ハンドアイカメラ11Gが出力した画像データに基づき、後述するように電動ドライバーA30に吸着されたねじA20が正しく嵌合しているか否かを判別する。制御部20は、判別結果に基づき、電動ドライバーA30に吸着されたねじA20が正しく嵌合している場合、ねじA20を、ねじ締めを行う対象物のねじ穴に締め付けるように電動ドライバーA30を制御する。
入出力制御部21は、タッチパネルモニター12への出力、タッチパネルモニター12からの入力を制御する。例えば、入出力制御部21は、ロボット1の状態、カメラ15で撮像された画像などを、タッチパネルモニター12に表示させる。また、例えば、入出力制御部21は、タッチパネルモニター12に対するユーザーの操作を受け付ける。
カメラ制御部22は、カメラ15やハンドアイカメラ11Gを制御して撮像を行うとともに、撮像した画像を取得する。また、カメラ制御部22は、取得した画像からワークを抽出する等の画像処理を行う。
エンコーダー制御部23は、エンコーダー11aからエンコーダーの角度等の情報を取得し、アーム制御部26等に出力する。
力覚センサー制御部24は、力覚センサー11bで計測された値、例えば力の方向、力の大きさ、モーメントの方向、モーメントの大きさ等の情報を取得する。
軌道生成部25は、エンドポイントの軌道を生成する。例えば、軌道生成部25は、カメラ制御部22が取得した撮像画像に基づいて、エンドポイントの軌道を生成する。具体的には、軌道生成部25は、カメラ制御部22が取得した画像からワークの位置を認識し、ワークの位置をロボット座標に置き換える。そして、軌道生成部25は、現在のエンドポイントのロボット座標を、ワークのロボット座標まで移動させる軌道を生成する。もちろん、ユーザーにより設定された軌道を用いるようにしてもよい。なお、軌道を生成する処理は、一般的な技術を採用することができるため、詳細な説明を省略する。
アーム制御部26は、軌道生成部25が生成した軌道と、エンコーダー制御部23が取得したエンコーダー11aの情報と、に基づいてアーム11を制御する(位置制御)。例えば、アーム制御部26は、ジョイントの回転角度を示す移動指令をアクチュエーターに出力し、アクチュエーターを駆動する。
また、アーム制御部26は、力覚センサー制御部24が取得した力覚センサー11bの情報に基づいてアーム11を制御する(インピーダンス制御などの力制御)。例えば、アーム制御部26は、力覚センサー11bにより検出される特定方向の力の大きさが、目標の大きさとなるようにエンドポイントの位置や姿勢を調整する。また、例えば、アーム制御部26は、力覚センサー11bにより検出される特定のモーメントの大きさが、目標の大きさとなるようにエンドポイントの位置や姿勢を調整する。これにより、ハンド111をワークに押し付けるロボット1の動作が実現できる。なお、位置制御や力制御などの処理は、一般的な技術を採用することができるため、詳細な説明を省略する。アーム制御部26は、位置制御の代わりに、ビジュアルサーボ等を用いてエンドポイントの位置を移動させてもよい。
後に具体例を用いて詳述するが、本実施形態では、例えば、ロボット1は、ある部品にネジ締め作業を行う場合に、当該部品を、位置決め部が設けられたジグ(又は他の部品)の上に載置する。そして、ロボット1は、当該部品をジグ(又は他の部品)に対して、ネジ締め作業時に力を加える方向(ネジを挿入する方向)に垂直な平面方向に押し付けるとともに、ネジ締め作業時に力を加える方向に押し付ける。これにより、より確実に部品が動かないようにする。
ハンド制御部27は、ハンド111を制御する。例えば、ハンド制御部27は、エンドポイントがワークを把持可能な目標位置に到達した場合に、各フィンガーを互いに接近させる指令値を生成し、ハンド111の駆動機構に出力する。
上記の制御部20は、例えば、CPU(Central Processing Unit)等の演算装置と、RAM(Random Access Memory)などの主記憶装置と、HDD(Hard Disk Drive)等の補助記憶装置と、有線又は無線により通信ネットワークと接続するための通信インターフェイス(I/F)と、タッチパネルなどの入力装置と接続する入力I/Fと、表示装置と接続する出力I/Fと、持ち運び可能な記憶媒体に対する情報の読み書きを行う読み書き装置と、を備えるコンピューターで実現することができる。ロボット専用のASIC(Application Specific Integrated Circuit)により実現されてもよい。また、制御部20は、例えば、演算装置、記憶装置、処理回路、駆動回路などを備えるコントローラー基板等により実現されてもよい。
例えば、制御部20の各機能は、補助記憶装置などから主記憶装置にロードされた所定のプログラムを演算装置が実行することで実現される。上記の所定のプログラムは、例えば、読み書き装置により読み取られた記憶媒体からインストールされてもよいし、通信I/Fを介してネットワークからインストールされてもよい。
上述したロボット1の機能構成は、ロボット1の構成を理解容易にするために、主な処理内容に応じて分類したものである。構成要素の分類の仕方や名称によって、本願発明が制限されることはない。ロボット1の構成は、処理内容に応じて、さらに多くの構成要素に分類することもできる。また、1つの構成要素がさらに多くの処理を実行するように分類することもできる。また、各構成要素の処理は、1つのハードウェアで実行されてもよいし、複数のハードウェアで実行されてもよい。
また、制御部20と他の構成(アームやハンドなど)との機能及び処理の分担は、図示した例に限らない。例えば、制御部20の少なくとも一部の機能は、他の構成により実現されてもよい。また、例えば、他の構成の少なくとも一部の機能は、制御部20により実現されてもよい。
図5は、ロボット1が行う第一の作業例を説明する図である。第一の作業例は、ワークA10に形成されたネジ穴に、ねじA20を挿入してネジ締めを行うものである。ワークA10は、直方体状である。ねじA20のネジ締めには、例えば人間も使用することができる電動ドライバーA30が使用される。ねじA20は、鉄などの金属を含んで構成され、電動ドライバーA30のドライバービットは磁性を帯びている。したがって、電動ドライバーA30のドライバービットにねじA20をセットした状態で、ねじA20を移動させることができる。
次に、電動ドライバーA30にねじA20を吸着し、ねじ締めを行うまでの動作を、図を用いて説明する。
図6は、電動ドライバーA30の先端にねじA20を吸着し、ねじ締めを行うまでの動作のフローチャートである。図7は、電動ドライバーA30の係合部A45にねじA20が嵌合している一例を説明する図である。
ねじ締めをする際に、ねじ自動供給機(図示せず)を使い電動ドライバーA30の係合部A45にねじA20を吸着する。その際に、係合部A45にねじA20が正しく吸着されたかを画像により検査する。係合部A45は磁化されているため、係合部A45にねじA20が正しくセットされない場合、図7(B)に示すように、係合部A45にねじA20がぶら下がるというNGが発生する。図7(A)は、電動ドライバーA30の係合部A45と、ねじA20が正しく嵌合している状態を示している。
画像検査では、検査対象物(ねじA20)を正確に認識することが必要であるため、検査対象物形状に近い形状があるような複雑な背景で対象物を認識することは困難である。しかし、ロボット1の周りは、人が移動したり、様々な装置が配置されていたりと、複雑な背景となってしまう。そこで、本実施形態ではロボット1を背景として画像検査を実施することで、ロボット周囲が複雑な背景であったとしても、安定した検査を行うことを可能にする。
まず、ステップS10において、制御部20は、アーム11を制御して、ねじA20をねじ自動供給機の取り出し部のレールから引き抜く。この動作により、ねじA20は、ねじ自動供給機の取り出し部のレールから抜けて自由な状態になる。ステップS10終了後、ステップS20に進む。
次に、ステップS20において、制御部20は、電動ドライバーA30を、撮像位置で停止させ、ハンドアイカメラ11Gを用いて電動ドライバーA30のビットA46及び係合部A45に吸着されたねじA20を撮像する。ステップS20終了後、ステップS30に進む。
図8は、ロボット1が行う2視点の画像検査を説明する図である。図8(A)は一視点の画像検査を説明する図、図8(B)は他視点の画像検査を説明する図である。
制御部20は、ロボット1を背景にして、ハンドアイカメラ11Gで撮像するねじA20の画像検査では、以下の2視点(方向)で画像検査している。
例えば、制御部20は、ねじA20を90度ずらした2視点から画像検査する。具体的には、一視点では、図8(A)に示すように、制御部20は、ロボット1の胴部10を背景としてねじA20の面A41を画像検査する。他視点では、図8(B)に示すように、制御部20は、上記の一視点の状態から、ハンド111を45度回転(図8の紙面に向かって左周り)、ハンドアイカメラ11Gを45度移動(図8の紙面に向かって右周り)させ、ロボット1のアーム11を背景としてねじA20の面A42を画像検査する。
これにより、制御部20は、図8(C)に示すように、ねじA20を90度ずらした2視点(面A41、面A42)から画像検査することができる。これによれば、真横からも撮像することで、ねじA20のずれ方向がより正確に認識できる。
なお、他視点では、ビットA46(図7参照)を45度回転(図8の紙面に向かって左周り)、ハンドアイカメラ11Gを45度移動(図8の紙面に向かって右周り)させ、ロボット1のアーム11を背景としてねじA20の面A42を画像検査してもよい。また、ビットA46を90度回転(図8の紙面に向かって左周り)させ、ハンドアイカメラ11Gは一視点の状態でロボット1の胴部10を背景として画像検査してもよい。
また、それぞれの胴部10及びアーム11は、面内において予め定められた色であってもよい。例えば、ブルーバックとよばれる青系の色調などが適応可能である。これによれば、予め定められた色であることから、さらに複雑なアルゴリズムを用いることなく画像処理ができる。
また、それぞれの胴部10及びアーム11は、面内においてコントラストが均一であってもよい。これによれば、コントラストが均一であることから、さらに複雑なアルゴリズムを用いることなく画像処理ができる。
次に、ステップS30において、制御部20のカメラ制御部22は、ハンドアイカメラ11Gが出力した画像データを取得し、取得した画像データをデジタルデータに変換する。
制御部20は、ハンドアイカメラ11Gが出力する画像データから、公知のテンプレートマッチングなどにより、電動ドライバーA30の係合部A45に、ねじA20が正しい姿勢で吸着されているか否かを判別する。ねじA20が正しい姿勢で吸着されている場合(ステップS30;Yes)、ステップS40に進む。ねじA20が正しい姿勢で吸着されていない場合(ステップS30;No)、ステップS60に進む。
例えば、予め電動ドライバーA30の係合部A45にねじA20を正しく吸着して撮影した画像データをテンプレート画像データとして、ロボット1の設計者かロボット1の制御情報の設計者が、予め記憶部に記憶させておく。そして、制御部20は、テンプレートマッチング法により、記憶されているテンプレート画像データと、ハンドアイカメラ11Gが出力した画像データとの類似度を算出する。制御部20は、算出した類似度の値の大小に応じて、電動ドライバーA30の係合部A45に、ねじA20が正しい姿勢で嵌合しているか否かを判別する。
制御部20は、電動ドライバーA30の係合部A45とねじA20とのずれ量が、ねじ締めにおいて許容される程度のずれである場合の類似度を予め実験的に求めて、その値をしきい値として設定しておく。そして、制御部20は、算出した類似度が、予め設定されているしきい値以上である場合は良、それ未満である場合は否と判別する。
このように、電動ドライバーA30の係合部A45に嵌合しているねじA20を、ハンドアイカメラ11Gで撮影する場合、ロボット1を背景として画像検査を実施することで、ロボット周囲が複雑な背景であったとしても、安定した検査を行うことを可能にする。
次に、ステップS40において、電動ドライバーA30を、ねじ締めを行う位置に進め停止させる。ステップS40終了後、ステップS50に進む。
次に、ステップS50において、制御部20は、アーム11が把持する電動ドライバーA30を移動させて、ねじA20を、ねじ締めを行う対象物のねじ穴A47(図5参照)に押し付ける。押しつけることで、電動ドライバーA30の係合部A45を回転させるトルクが発生する。このため、制御部20は、電動ドライバーA30の係合部A45に嵌合しているねじA20をねじ穴A47に押しつけることで、ねじ締めを行う。
次に、ステップS60において、ステップS30でねじA20が電動ドライバーA30の係合部A45と正しく嵌合していない場合、制御部20は、電動ドライバーA30の係合部A45よりも大きな磁力を発生させる物体に吸着されているねじA20を近づけて、ねじA20を取り外す。ねじA20を取り外した後、ステップS10に戻る。
また、ねじA20を取り外す方法は上述の方法に限られるものではなく、例えばアーム11の先端を急加速又は急減速させて、ねじA20にはたらく慣性力が、ねじA20と電動ドライバーA30との間にはたらく摩擦力よりも大きくすることで、ねじA20を取り外してもよい。あるいは、制御部20は、ステップS10〜S50の間、電動ドライバーA30の係合部A45を磁化し、ステップS60のとき、電動ドライバーA30の係合部A45を消磁することで、ねじA20を取り外すようにしてもよい。
本実施形態では、予め定められた胴部10をハンド111の撮影の背景とするため、複雑なアルゴリズムを用いることなく画像処理ができる。これにより、画像処理が正確で速くなる。その結果、画像検査においてロボット筐体を背景とすることで、汎用的で安定した検査を実現できる。
なお、上記した実施形態において、撮像部はハンドアイカメラ11Gに限定されず、例えば、ロボット1の外部に設けるようにしてもよい。
以上、本発明について実施形態を用いて説明したが、本発明の技術的範囲は上記実施形態に記載の範囲には限定されない。上記実施形態に多様な変更又は改良を加えることが可能であることが当業者には明らかである。また、そのような変更又は改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。本発明は、ロボットとロボット制御装置(制御部)とを別個に有するロボットシステムとして提供してもよいし、当該ロボットシステムのロボット及びロボット制御装置として提供してもよい。また、本発明は、ロボット等を制御する方法、ロボット等を制御するプログラム、当該プログラムを記憶した記憶媒体として提供することもできる。
1…ロボット 10…胴部 10A…肩領域 10B…胴部本体 11…アーム 11A,11B,11C,11D,11E…アーム部材 11G…ハンドアイカメラ(撮像部) 11a…エンコーダー 11b…力覚センサー 12…タッチパネルモニター 13…脚部 14…搬送用ハンドル 15…カメラ 16…信号灯 17…電源スイッチ 17a…電源ONスイッチ 17b…電源OFFスイッチ 18…外部I/F部 19…昇降ハンドル 20…制御部 21…入出力制御部 22…カメラ制御部 23…エンコーダー制御部 24…力覚センサー制御部 25…軌道生成部 26…アーム制御部 27…ハンド制御部 111…ハンド 111A…本体部 111B…フィンガー 112…着脱部材 A10…ワーク A20…ねじ(物体) A30…電動ドライバー(保持部) A41…面 A42…面 A45…係合部 A46…ビット A47…ねじ穴 J1,J2,J3,J4,J5,J6,J7…回動軸。

Claims (11)

  1. 物体を保持する保持部が配置された第1アームと、
    撮像部が配置された第2アームと、
    前記第1アームと前記第2アームが接続された胴部と、
    を含み、
    前記第2アームは、前記胴部を背景として前記保持部及び前記物体を撮像可能な位置に前記撮像部を移動させ、
    前記撮像部は、前記撮像可能な位置から前記保持部及び前記物体を撮像することを特徴とするロボット。
  2. 請求項1に記載のロボットにおいて、
    前記胴部は、予め定められた色であることを特徴とするロボット。
  3. 請求項1又は2に記載のロボットにおいて、
    前記胴部は、コントラストが均一であることを特徴とするロボット。
  4. 請求項1〜のいずれか一項に記載のロボットにおいて、
    前記撮像部は、前記撮像とは前記保持部に対する撮像方向が異なり、前記ロボットの前記第1アームを背景として前記保持部及び前記物体を撮像することを特徴とするロボット。
  5. 請求項に記載のロボットにおいて、
    前記撮像方向は、前記物体に対して90度の関係にある2方向が撮像されることを特徴とするロボット。
  6. 請求項又はに記載のロボットにおいて、
    前記第1アームは、予め定められた色であることを特徴とするロボット。
  7. 請求項のいずれか一項に記載のロボットにおいて、
    前記第1アームは、コントラストが均一であることを特徴とするロボット。
  8. 請求項1〜のいずれか一項に記載のロボットにおいて、
    前記保持部は、回動することを特徴とするロボット。
  9. 請求項に記載のロボットにおいて、
    前記保持部は、ドライバーであり、
    前記物体は、前記ドライバーに吸着されたねじであることを特徴とするロボット。
  10. 請求項1〜のいずれか一項に記載のロボットと、
    ロボット制御装置と、
    を含み、
    前記ロボット制御装置は、
    前記撮像部で、前記胴部を背景として前記保持部及び前記物体を撮像する制御部を含むことを特徴とするロボットシステム。
  11. 物体を保持する保持部が配置された第1アームと、撮像部が配置された第2アームと、前記第1アームと前記第2アームが接続された胴部と、を含むロボットを制御するロボット制御装置であって、
    前記第2アームで、前記胴部を背景として前記保持部及び前記物体を撮像可能な位置に前記撮像部を移動させ、前記撮像部で、前記撮像可能な位置から前記保持部及び前記物体を撮像させる制御部を含むことを特徴とするロボット制御装置。
JP2013229064A 2013-11-05 2013-11-05 ロボット、ロボットシステム、及びロボット制御装置 Expired - Fee Related JP6322959B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2013229064A JP6322959B2 (ja) 2013-11-05 2013-11-05 ロボット、ロボットシステム、及びロボット制御装置
CN201410599083.0A CN104608153B (zh) 2013-11-05 2014-10-30 机器人、机器人***、以及机器人控制装置
EP14191446.5A EP2921266B1 (en) 2013-11-05 2014-11-03 Robot, robot system,robot control apparatus, and method of controlling the operation of a robot
US14/532,412 US9561594B2 (en) 2013-11-05 2014-11-04 Robot, robot system, and robot control apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013229064A JP6322959B2 (ja) 2013-11-05 2013-11-05 ロボット、ロボットシステム、及びロボット制御装置

Publications (2)

Publication Number Publication Date
JP2015089579A JP2015089579A (ja) 2015-05-11
JP6322959B2 true JP6322959B2 (ja) 2018-05-16

Family

ID=51868811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013229064A Expired - Fee Related JP6322959B2 (ja) 2013-11-05 2013-11-05 ロボット、ロボットシステム、及びロボット制御装置

Country Status (4)

Country Link
US (1) US9561594B2 (ja)
EP (1) EP2921266B1 (ja)
JP (1) JP6322959B2 (ja)
CN (1) CN104608153B (ja)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6660157B2 (ja) 2015-11-16 2020-03-11 川崎重工業株式会社 ロボット及びロボットによる作業方法
JP2017196705A (ja) * 2016-04-28 2017-11-02 セイコーエプソン株式会社 ロボット、及びロボットシステム
SG10201608757PA (en) * 2016-10-19 2018-05-30 Component Aerospace Singapore Pte Ltd Method and apparatus for facilitating part verification
JP6850639B2 (ja) * 2017-03-09 2021-03-31 本田技研工業株式会社 ロボット
US10349986B2 (en) 2017-04-20 2019-07-16 Warsaw Orthopedic, Inc. Spinal implant system and method
DE102017118985B4 (de) 2017-04-23 2019-10-02 Franka Emika Gmbh Schraubvorrichtung
JP6897396B2 (ja) * 2017-07-28 2021-06-30 セイコーエプソン株式会社 制御装置、ロボットシステムおよび制御方法
US11458632B2 (en) * 2017-08-23 2022-10-04 Sony Corporation Robot having reduced vibration generation in in arm portion
US20190249486A1 (en) * 2018-02-13 2019-08-15 Ged Integrated Solutions, Inc. Insulating glass unit plug and installation method
JP7163115B2 (ja) 2018-09-12 2022-10-31 キヤノン株式会社 ロボットシステム、ロボットシステムの制御方法、物品の製造方法、制御装置、操作装置、撮像装置、制御プログラム及び記録媒体
JP7305950B2 (ja) 2018-11-30 2023-07-11 ブラザー工業株式会社 更新方法、コンピュータプログラム、及び制御システム

Family Cites Families (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3240739B2 (ja) 1993-03-30 2001-12-25 豊田工機株式会社 撮像装置
US6008636A (en) * 1997-09-30 1999-12-28 Motorola, Inc. Test system with robot arm for delivering a device under test
JP2000084876A (ja) 1998-09-17 2000-03-28 Nippon Telegr & Teleph Corp <Ntt> ロボットアーム視覚追跡方法及びシステム装置
JP2003229700A (ja) 2002-01-31 2003-08-15 Fuji Mach Mfg Co Ltd 吸着管部の吸着端面とそれに保持された電子回路部品との撮像方法
JP3876234B2 (ja) * 2003-06-17 2007-01-31 ファナック株式会社 コネクタ把持装置、同装置を備えたコネクタ検査システム及びコネクタ接続システム
JP2006007390A (ja) * 2004-06-29 2006-01-12 Sharp Corp 撮像装置、撮像方法、撮像プログラム、撮像プログラムを記録したコンピュータ読取可能な記録媒体
CN1984756B (zh) * 2004-07-13 2011-12-07 松下电器产业株式会社 物品保持***、机器人以及机器人控制方法
JP4844453B2 (ja) * 2007-04-09 2011-12-28 株式会社デンソーウェーブ ロボットの教示装置及び教示方法
JP2009148845A (ja) * 2007-12-19 2009-07-09 Olympus Corp 小型生産設備
JP4909933B2 (ja) * 2008-03-31 2012-04-04 本田技研工業株式会社 サスペンションアッセンブリ取り付け装置
US8600552B2 (en) * 2009-10-30 2013-12-03 Honda Motor Co., Ltd. Information processing method, apparatus, and computer readable medium
JP5471355B2 (ja) * 2009-11-24 2014-04-16 オムロン株式会社 3次元視覚センサ
JP2011115877A (ja) * 2009-12-02 2011-06-16 Canon Inc 双腕ロボット
US8941726B2 (en) * 2009-12-10 2015-01-27 Mitsubishi Electric Research Laboratories, Inc. Method and system for segmenting moving objects from images using foreground extraction
JP5218470B2 (ja) * 2010-04-28 2013-06-26 株式会社安川電機 ロボットの作業成否判定装置、および方法
FI20106090A0 (fi) * 2010-10-21 2010-10-21 Zenrobotics Oy Menetelmä kohdeobjektin kuvien suodattamiseksi robottijärjestelmässä
US9020636B2 (en) * 2010-12-16 2015-04-28 Saied Tadayon Robot for solar farms
JP5895346B2 (ja) * 2011-02-04 2016-03-30 セイコーエプソン株式会社 ロボット、ロボット制御装置、ロボット制御方法、およびロボット制御プログラム
JP5744587B2 (ja) * 2011-03-24 2015-07-08 キヤノン株式会社 ロボット制御装置、ロボット制御方法、プログラム及び記録媒体
JP2013066954A (ja) * 2011-09-21 2013-04-18 Seiko Epson Corp ロボット及びロボットの制御方法
JP5899951B2 (ja) * 2012-01-18 2016-04-06 セイコーエプソン株式会社 ロボット装置および位置姿勢検出方法
US9434072B2 (en) * 2012-06-21 2016-09-06 Rethink Robotics, Inc. Vision-guided robots and methods of training them
KR102056664B1 (ko) * 2012-10-04 2019-12-17 한국전자통신연구원 센서를 이용한 작업 방법 및 이를 수행하는 작업 시스템

Also Published As

Publication number Publication date
EP2921266A2 (en) 2015-09-23
US9561594B2 (en) 2017-02-07
JP2015089579A (ja) 2015-05-11
US20150127160A1 (en) 2015-05-07
CN104608153B (zh) 2019-01-01
EP2921266A3 (en) 2015-11-04
CN104608153A (zh) 2015-05-13
EP2921266B1 (en) 2017-09-06

Similar Documents

Publication Publication Date Title
JP6322959B2 (ja) ロボット、ロボットシステム、及びロボット制御装置
JP6450960B2 (ja) ロボット、ロボットシステム及び教示方法
JP6379687B2 (ja) ロボット、ロボットシステム、制御装置、及び制御方法
US20170312921A1 (en) Robot and robot system
US10618181B2 (en) Robot control device, robot, and robot system
JP6454960B2 (ja) ロボット、ロボットシステム、ロボット制御装置
JP2015085479A (ja) ロボット、制御装置、ロボットシステム、及びロボット制御方法
US20150127141A1 (en) Robot, control device, robot system and robot control method
JP6741222B2 (ja) ロボットのワーク移送方法及びワーク移送装置
JP6459227B2 (ja) ロボットシステム
US20170203434A1 (en) Robot and robot system
CN107009358A (zh) 一种基于单相机的机器人无序抓取装置及方法
JP5535884B2 (ja) ワーク取り出し方法
CN111618845B (zh) 机器人***
US20160306340A1 (en) Robot and control device
CN115194752A (zh) 用于训练神经网络以控制***任务的机器人的设备和方法
JP2015226963A (ja) ロボット、ロボットシステム、制御装置、及び制御方法
JP2015182212A (ja) ロボットシステム、ロボット、制御装置、及び制御方法
JP2010058243A (ja) ピッキング装置
JP2015085481A (ja) ロボット、ロボットシステム、ロボット制御部及び把持方法
JP2015085480A (ja) ロボット、制御装置、ロボットシステム、ロボット制御方法、及びプログラム
JP2017170586A (ja) エンドエフェクター、ロボット、およびロボット制御装置
JP6314431B2 (ja) ロボットシステム、制御装置、ロボット、及び駆動方法
CN115194754A (zh) 用于训练神经网络以控制***任务的机器人的设备和方法
JP2004160614A (ja) 自動作業教示システム

Legal Events

Date Code Title Description
RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160617

RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20160627

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161005

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20170821

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170829

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171027

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180313

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180326

R150 Certificate of patent or registration of utility model

Ref document number: 6322959

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees