JP2012125871A - ロボット制御設定支援装置 - Google Patents

ロボット制御設定支援装置 Download PDF

Info

Publication number
JP2012125871A
JP2012125871A JP2010278981A JP2010278981A JP2012125871A JP 2012125871 A JP2012125871 A JP 2012125871A JP 2010278981 A JP2010278981 A JP 2010278981A JP 2010278981 A JP2010278981 A JP 2010278981A JP 2012125871 A JP2012125871 A JP 2012125871A
Authority
JP
Japan
Prior art keywords
robot
processing
dimensional
input
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010278981A
Other languages
English (en)
Other versions
JP5586445B2 (ja
Inventor
Haruhisa Okuda
晴久 奥田
Yasuo Kitaaki
靖雄 北明
Yukiyasu Domae
幸康 堂前
Yasushi Kage
裕史 鹿毛
Kazuhiko Washimi
和彦 鷲見
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2010278981A priority Critical patent/JP5586445B2/ja
Publication of JP2012125871A publication Critical patent/JP2012125871A/ja
Application granted granted Critical
Publication of JP5586445B2 publication Critical patent/JP5586445B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y02TECHNOLOGIES OR APPLICATIONS FOR MITIGATION OR ADAPTATION AGAINST CLIMATE CHANGE
    • Y02PCLIMATE CHANGE MITIGATION TECHNOLOGIES IN THE PRODUCTION OR PROCESSING OF GOODS
    • Y02P90/00Enabling technologies with a potential contribution to greenhouse gas [GHG] emissions mitigation
    • Y02P90/02Total factory control, e.g. smart factories, flexible manufacturing systems [FMS] or integrated manufacturing systems [IMS]

Landscapes

  • Numerical Control (AREA)
  • Manipulator (AREA)

Abstract

【課題】対象ワークのCADモデルや作業内容雛形が不要で、ロボット動作の制約事項を考慮してロボット動作教示とその際の画像処理を支援する装置を提供する。
【解決手段】教示作業者との対話的な処理を行い、2次元画像・3次元データ処理部が表示した対象ワークに係る2次元画像と3次元データに対し入力に従い対象ワーク位置姿勢に対するロボット目標位置姿勢を決める画像処理を行い、制約条件算出・評価処理部が画像処理結果のロボット目標位置姿勢に従い操作されたロボットの動作の制約条件の算出評価を行い承諾入力がなければあるまで新たな入力に従い目標位置姿勢を決定する画像処理を行わせ新たな目標位置姿勢に従いロボット動作の制約条件算出評価を行い、ロボット動作モニタ部が承諾条件でのロボット動作手順を記録し、処理手順解析・再構成処理部が記録された一連の処理内容を表示し入力に従い冗長処理の統合、削除を行い再記録する。
【選択図】図1

Description

この発明は、3次元計測装置を備えたロボットシステムにおけるロボット動作教示と画像処理手順の迅速な立ち上げを支援するロボット制御設定支援装置に関するものである。
従来のロボットへの3次元作業経路教示並びに3次元画像処理の処理手順の教示には、専門的な知識を要するとともに多くの作業手順を必要とするものであった。例えば、下記特許文献1では、シミュレーションを行って対象物の計測条件を決定することで、画像処理手順の設定作業の簡易化を図っている。また、下記特許文献2では、ロボットの作業教示及び画像処理の処理手順の設定作業を簡易化するために、予め用意しておいた作業の雛形および認識用モデルを呼び出し、これを修正利用している。
特許第4266946号公報 特開2009−214212号公報
しかしながら、従来の技術ではいずれも事前にCADモデルや作業内容の雛形を必ず用意しておく必要があり、新規に対応すべき認識対象物や作業内容などに対しては使用できないという問題点があり、画像処理手順の迅速な立ち上げにおいて問題があった。
また、実機で動作させる際にロボット手先のハンドで対象ワークを把持する際の種々の制約事項が考慮されておらず、作業実現時に所望の性能を十分に実現できないという問題点があった。例えば、組付け或いは整列位置へ搬送する経路での衝突回避、目的達成までの動作時間、搬送中における安定把持の維持などの制約が考慮されておらず、作業実現時の性能が十分でないといった問題があった。このため、所望のロボット動作実現のための教示調整に時間を要するため、迅速な立ち上げが困難であるという問題があった。
この発明は上記のような課題を解消するためになされたもので、事前に対象ワークのCADモデルや作業内容の雛形を必要とせず、さらに実際に動作させる際のロボットの動作の制約事項を考慮してロボット動作教示とその際の画像処理を迅速に行うロボット制御設定支援装置を得ることを目的とする。
この発明は、対象ワークを把持するハンドを有するアーム型ロボットへのロボット動作教示を支援する表示装置と入力装置を備え教示作業者との対話的な処理を行うロボット制御設定支援装置であって、2次元画像および2次元の各点での距離を示す3次元データを計測する3次元計測装置と、前記3次元計測装置により対象ワークを含む計測領域の2次元画像と3次元データを計測する2次元画像・3次元データ計測手段、および計測した2次元画像と3次元データを前記表示装置に表示し、表示に対する教示作業者の入力装置への入力に従い、対象ワークの位置姿勢に対応するロボットの目標位置姿勢を決定するための画像処理を行い、ロボットの目標位置姿勢を含む画像処理結果を表示し、入力装置から承諾入力を受けた画像処理結果を画像処理内容データ記憶部に格納する2次元画像・3次元データ処理手段を含む2次元画像・3次元データ処理部と、前記画像処理結果のロボットの目標位置姿勢に基づき操作されたロボットの動作に関し制約条件の算出と評価をおこなった結果を表示装置に表示し、入力装置から承諾入力を受け、承諾入力が受けられない場合には、教示作業者の入力装置への新たな入力に従い、前記2次元画像・3次元データ処理手段に目標位置姿勢を決定するための画像処理を行わせ、新たなロボットの目標位置姿勢に基づくロボットの動作に関し制約条件の算出と評価をおこなった結果を表示装置に表示し、入力装置から承諾入力を受けるまで繰り返す制約条件算出・評価処理部と、前記制約条件算出・評価処理部で承諾された条件で動作されたロボット実行内容をロボット動作手順データとしてロボットから入力してロボット動作手順データ記憶部に記録するロボット動作モニタ部と、前記画像処理内容データ記憶部およびロボット動作手順データ記憶部に記録された一連の処理内容を教示作業者による入力装置への入力指示に従って表示装置に表示し、教示作業者による入力指示に従って冗長な処理の統合、削除可能な処理の削除を行い、処理手順を再構成し、再構成された処理内容を、入力装置への確認入力の後各記憶部に再構成処理記録として格納する処理手順解析・再構成処理部と、を備えたことを特徴とするロボット制御設定支援装置にある。
この発明では、事前に対象ワークのCADモデルや作業内容の雛形を必要とせず、さらに実際に動作させる際のロボットの動作の制約事項を考慮してロボット動作教示とその際の画像処理を迅速に行うロボット制御設定支援装置を提供できる。
ロボットを含むこの発明の実施の形態1によるロボット制御設定支援装置の構成図である。 ロボットの周辺の構成の一例を示す図である。 この発明の実施の形態1によるロボット制御設定支援装置に係る動作フローチャートである。 図1の2次元画像・3次元データ処理手段の動作を説明するための図である。 図1の制約条件算出・評価処理部のより詳細な構成を示す図である。 ロボットを含むこの発明の実施の形態2によるロボット制御設定支援装置の構成図である。
以下、この発明によるロボット制御設定支援装置を各実施の形態に従って図面を用いて説明する。なお、各実施の形態において、同一もしくは相当部分は同一符号で示し、重複する説明は省略する。
実施の形態1.
図1はロボットを含むこの発明の実施の形態1によるロボット制御設定支援装置の構成を示す図である。図2はロボットの周辺の構成の一例を示す図である。図1,2において、ロボット制御設定支援装置の主構成要素であるコンピュータで構成される情報処理装置130は、アーム型ロボット104に接続されて制御設定支援を行う。アーム型ロボット104は例えば対象ワーク201を把持するハンド103を有し、またロボットへの操作入力を行うロボット操作盤105が接続されている。
情報処理装置130はそれぞれ機能ブロックで示された、2次元画像・3次元データ計測手段131aと2次元画像・3次元データ処理手段131bを含む2次元画像・3次元データ処理部131、制約条件算出・評価処理部132、ロボット動作モニタ部133、処理手順解析・再構成処理部134を含む。また情報処理装置130は、2次元画像および2次元の各点での距離データである3次元データを計測する3次元計測装置101、一連の処理結果を表示する表示装置106、情報処理装置130への操作入力を行う入力装置107、後述するロボットの移動に関する必要な制約条件のチェック、評価値の計算等を行う3次元ロボットシミュレータ108、そして計測データ記憶部121、画像処理内容データ記憶部122、ロボット動作手順データ記憶部123、制約条件算出・評価処理用データ記憶部124の各データを格納する記憶部が接続されている。
図3は図1のロボット制御設定支援装置に係る動作フローチャートの一例を示し、以下これに従って動作を説明する。なお以下の動作はロボット制御設定支援装置と教示作業者の間で対話的に行われる。最初に2次元画像・3次元データ計測手段131aは、3次元計測装置101を使用して対象ワーク201を含む計測領域202(図2参照)の2次元画像および上述の2次元の各点での距離データである3次元データを計測し(S101)、2次元画像と3次元データを計測データ記憶部121に記録する(S102)。
次に、2次元画像・3次元データ処理手段131bは、2次元画像および3次元データを読み出し、コンピュータディスプレイ等からなる表示装置106上に表示する(S103)。表示したデータに対して教示作業者が対象ワークの位置姿勢、さらにはこれに対するロボットの目標位置姿勢を決定するために必要な計測指示や処理領域を入力装置107から指示・入力すると(S104)、計測指示や処理領域に対応した画像処理を実施する(S105)。この際に実施する画像処理としては以下のものがある。3次元データ計測処理では、平均距離値、最近・最遠距離値算出、平均法線方向算出などの3次元データに対する基本的な計算処理を選択して実施できる。これらの計算処理を通じて、3次元目標位置や姿勢を算出し、ロボットへの目標位置姿勢を得ることができる。また、2次元画像計測処理では、領域重心位置、平行輪郭部の中心線、同一平面の領域分割、テンプレートマッチング(対象ワークの2次元画像パターン等をいずれか記憶部に予め記憶しておく)等の2次元画像に対する基本的な画像処理を選択して実施する。これらの画像処理を通じて、対象ワーク面内における3次元目標位置や姿勢を算出し、ロボットへの目標位置姿勢を得ることができる。
次に、2次元画像・3次元データ処理手段131bは、表示装置106に対象ワークの位置姿勢に対するロボットの目標位置姿勢を含む画像処理結果を表示し、これに対する教示作業者の確認(承諾)入力により処理結果承諾を確認し(S106)、該画像処理内容を画像処理内容データ記憶部122に一旦記録する(S107)。
そして表示装置106に表示された目標位置姿勢へのロボット移動を行うために、教示作業者がロボット操作盤105を用いてロボット操作入力を行う(S108)。ロボット操作盤105への操作指示としては、上述のロボット目標位置姿勢値を用いる。
この操作に先立って、制約条件算出・評価処理部132は、3次元ロボットシミュレータ108を用いて、ロボットの移動に関する必要な制約条件のチェック、評価値の計算を実施する。例えば、ロボット動作実行時の周辺との干渉の有無といった制約条件算出と評価は、作業エリア内に存在する干渉対象物体を多数の円柱、球体の集合として近似すれば、それらの占有領域とロボットの各軸の中心軸との距離を元に行うことができる。さらに経路の長短といった動作時間評価に関わる項目の経路動作時間算出も、3次元ロボットシミュレータ108を通じて得ることは容易である。さらにロボットのハンドの対象ワークの把持状態算出・評価は、計測された対象ワーク位置姿勢とハンドの相対位置から求めることが可能であり、立体形状から推定される重心位置とハンドの目標把持中心との相対距離が近いほど評価値を高めるなどの評価指標を用いることができる。これらの制約条件および評価結果は例えば表示装置106に表示され、教示操作者により確認して確認(承諾)入力が行われる(S110)。ここで問題があれば、ステップS104に戻り、再度ロボットの目標位置姿勢の算出処理が実行され、適切な結果が得られるまで処理を繰り返す。
次に、ステップS110で確認(承諾)した際のステップS108でのロボット操作入力に基づくロボット動作内容がロボット操作盤105で教示作業者により確認され(S111)、ロボット動作が実行される(S112)。ロボット動作モニタ部133は、ロボット実行内容をロボット動作手順データとしてロボットから入力してロボット動作手順データ記憶部123に記録する(S113)。
次に、処理手順解析・再構成処理部134は、計測データ記憶部121、画像処理内容データ記憶部122、ロボット動作手順データ記憶部123に記録された一連の処理内容を、ロボット動作経路の類似度比較を通じて冗長と考えられる作業内容を自動的に解析した結果を表示装置106に表示し、教示作業者による入力指示に従って冗長な処理の統合、削除可能な処理の削除などを行い、処理手順を再構成する(S114)。この際、ロボット動作と関連する画像処理内容を必要に応じて削除する。あるいはこれらの冗長処理の判断は教示作業者自身によって判断し、統合、削除の指示入力をおこなってもよい。そして再構成された処理内容を、教示作業者による入力装置107への確認(承諾)入力の後(S115)、各記憶部に再構成処理記録する(S116)。
なお、上記ステップS101〜S116の動作はロボットの1動作に対するもので、複数の動作について上記処理を行う場合には、上記ステップS101からステップS116までの処理が回数分繰り返される。また例えば、処理手順解析・再構成処理部134に関するステップS114からステップS116までの処理は、ステップS101からステップS113までの処理が複数回行われた後、バッチ的に処理を行ってもよい。
以上の情報処理は、情報処理装置130で行われる。なお、表示装置106と入力装置107については、タッチパネル付ディスプレイを設けたロボット操作専用端末で構成してもよい。これにより、より直感的な操作を迅速に行えることで教示時間を短縮することが可能である。
2次元画像・3次元データ処理手段131bに係る上述の3次元計測データ処理および2次元画像処理結果を組み合わせることで、例えば距離値によるスケール補正、平面領域の抽出、領域内の代表法線の算出などが可能となり、ロボットの目標位置姿勢値が決定される。
図4に3次元計測データ処理と2次元画像処理結果を組み合わせた処理の一例を示す。まず、図4は大きく分けて(a)から(d)の4つの図領域から構成されるが、それぞれの図領域では2次元濃淡画像とそれに対応する距離画像を小枠内に表示している。ここで、距離画像とは距離の違いを濃淡表示に変換したものであり、図中では近い部分が明るく表示されている。図4では、処理が左上、右上、左下、右下の(a)から(d)に進む様子を示しているが、(a)は初期計測状態である。(b)に処理領域の指示の様子を太い枠線で示しているが、表示装置106である画面上に入力装置107であるマウス等で領域形状を指示入力することが可能なインターフェース構成とした例である。もちろん、タッチパネル付ディスプレイ等を供えた教示装置からより直感的に指示入力することも可能である。この時の指示領域内の距離値分布から平均距離、法線方向を算出し、処理領域に対して法線方向に沿った視線方向、指示距離となるようにロボットへの動作指示を生成し、教示作業者が確認後にロボット動作を実行する。この操作の結果、ロボットは対象ワークに正対した姿勢、目標とする距離に位置することとなり、ワーク面に平行な面内の水平移動、回転のズレを残すのみとなる。この操作後に再度計測を行ったものが図4の(c)に示す計測結果画像である。
この計測結果画像に対して、平面内角度算出の基準となる情報、例えば対象ワーク下部の大円まわりの小円の位置をシステムで提供されている2次元画像処理を用いて検出し、小円相互の相対位置から定義される方向と画面上下垂直線の相対角度を用いて平面内角度算出を行う。これ以外にも提供されている画像処理手段(2次元画像・3次元データ処理手段131b)を用いて対象ワーク長手方向の輪郭線方向を検出し、画面上下垂直線との相対角度を算出した結果などを用いることができる。
これらの処理に必要な画像処理内容、処理領域、処理結果を用いたロボット動作の定義などを入力可能なようにインターフェースを構成しておく。また、処理結果が不十分である場合には先のステップに戻って処理を再試行することも可能である。処理結果が確定すれば、ロボット動作を実施するかどうかを決定してロボットを動作させる。この操作の結果、ロボットは対象ワーク面に平行な面内の水平移動、回転のズレ量が補正され、把持動作前の最終的な目標位置姿勢となる。図4の(d)では、対象物が画面上下に沿う姿勢で観測された結果を示している。この後、計測結果からロボットの把持箇所を画面上で指示して対象ワークが把持されることを確認すれば基本的な教示作業は完了となる。
なお、制約条件算出・評価処理部132に関し、より詳細な構成を図5に示す。図5において制約条件算出・評価処理部132は干渉条件算出・評価処理手段132a、経路動作時間算出・表示処理手段132b、把持状態算出・評価処理手段132cを含む。制約条件算出・評価処理部132はこれらの少なくとも1つの手段を備えればよい。
上記の一連の作業を実施する際にロボット経路に関する評価指標を計算することで、所望の性能を満たしたロボット教示を実現することができる。この際の評価指標としては、種々のものが設定可能である。干渉条件算出・評価処理手段132aは、干渉有無をチェックするもので、3次元ロボットシミュレータ108を用いて、作業領域内の3次元計測結果とロボットのハンド(手先)及び中間軸の経路の干渉をチェックする。干渉の有無を判定し、干渉が起こる経路となっている場合は、表示装置106に表示して回避ポイントの入力を教示作業者に促し、教示作業者は回避ポイントを設定後、再びチェックを実施する。
作業領域内の3次元計測結果は、2次元画像、3次元データの計測領域202を作業領域とすることで得られ、ロボットのハンド(手先)経路は、ロボット104側から動作データとして得る。
また経路動作時間算出・表示処理手段132bは、経路動作時間を評価するもので、蓄積された一連の動作時間を算出し、算出した見積もり時間と目標時間との差異を表示装置106で教示作業者に示す。教示作業者はこの結果から、処理時間短縮(又は延長)が可能な経路を設定して再び評価を行い、処理時間を短縮(又は延長)していく。
動作時間は、例えば、3次元ロボットシミュレータ108を用いて算出することができる。目標時間は制約条件算出・評価処理用データ記憶部124に制約条件算出・評価基準データとして予め記憶させておくこともできるし、その場で教示作業者が入力することも可能である。
また把持状態算出・評価処理手段132cは、安定把持指標を評価するもので、対象ワーク201の2次元画像・3次元データ処理部131における計測結果から推定される対象ワーク領域の重心位置と把持位置の距離をもとに把持安定性を評価して教示作業者に表示装置106で結果を提示し、教示作業者は把持ポイントの修正指示入力を行う。
例えば対象ワークの長さ又は幅に対する重心位置と把持位置の間の距離との比を把持安定性の評価基準値として制約条件算出・評価処理用データ記憶部124に予め格納しておき、評価基準値との比較で判断、評価する。
上記の処理を通じて、処理手順解析・再構成処理部134では、画像処理内容データ記憶部122、ロボット動作手順データ記憶部123等に記録されたロボット動作などの一連の処理内容に関し、冗長な処理の統合、削除可能な処理の削除などが行われて、再構成される。この際、教示作業者による対話的な統合処理を行うこともできる。再構成された処理内容が最終的に各記憶部に記録される。
処理手順解析・再構成処理部134では、例えばロボット動作手順データ記憶部123のロボット動作手順データ中の同じ経路の動作部分を抽出して教示作業者に対して表示装置106に表示し、統合や削除の検討を促し、教示作業者の表示装置106への入力指示に従ってロボット動作手順データを変更する。またこれに伴い、画像処理内容データ記憶部122の画像処理内容データ中の対応する部分の変更、削除を行う。
以上この発明によれば、予めロボット制御設定支援装置に用意されている基本的な画像処理手順とロボット動作を教示作業者が画面に表示される内容を確認しながら順次組み合わせて実行して、複雑な画像処理手順を比較的容易に実現することができ、その結果を画像処理内容データ記憶部に記録しておくことで、事前にCADモデルや作業内容の雛形を必ず用意しておかなくても必要な画像処理内容をロボットに教えることができる。
また、この際のロボット操作履歴をロボット動作手順データ記憶部に記録しておき、処理手順を解析・再構成する処理手順解析・再構成処理部を利用することで、冗長要素を排除したロボット軌跡の教示が同時に実現できる。
また、干渉の有無、動作時間、把持安定性等の動作制約条件を評価する制約条件算出・評価処理部を設けたことにより、ロボット教示直後に所望の性能を満たす、もしくは近い性能を実現することができ、教示後の調整時間を短縮し、迅速な立ち上げが実現されるという効果が得られる。
実施の形態2.
図6はロボットを含むこの発明の実施の形態1によるロボット制御設定支援装置の構成を示す図である。図6のロボット制御設定支援装置では、情報処理装置130内に外部事例参照部135を設けた。この外部事例参照部135は、外部ネットワークNTを介して通信可能な通信部109により、外部ネットワークNTに接続された他の拠点のロボット制御設定の実施履歴を格納した1つまたは複数の外部事例蓄積装置140に接続されている。これにより、2次元画像・3次元データ処理部131における処理内容を所望のものに更新することが可能となる。また、制約条件算出・評価処理部132、処理手順解析・再構成処理部134での処理においても、外部事例を参照することで、より多くの事例や最新事例に基づいた適切な処理を実施することができる。
以上の構成により、複数拠点の実施履歴を参照する外部事例参照部を備えたことにより、該当拠点だけでなく、広い範囲での過去事例を参照できるため、多くの画像処理内容の選択や多数事例に基づいた処理手順の適切な再構成が行われる。これにより、過去の事例のデータを使用することで教示時間がさらに短縮可能になる。
103 ハンド、104 アーム型ロボット、105 ロボット操作盤、106 表示装置、107 入力装置、108 3次元ロボットシミュレータ、109 通信部、121 計測データ記憶部、122 画像処理内容データ記憶部、123 ロボット動作手順データ記憶部、124 制約条件算出・評価処理用データ記憶部、130 情報処理装置、131 2次元画像・3次元データ処理部、131a 2次元画像・3次元データ計測手段、131b 2次元画像・3次元データ処理手段、132 制約条件算出・評価処理部、132a 干渉条件算出・評価処理手段、132b 経路動作時間算出・表示処理手段、132c 把持状態算出・評価処理手段、133 ロボット動作モニタ部、134 処理手順解析・再構成処理部、135 外部事例参照部、140 外部事例蓄積装置、201 対象ワーク、202 計測領域、NT 外部ネットワーク。

Claims (3)

  1. 対象ワークを把持するハンドを有するアーム型ロボットへのロボット動作教示を支援する表示装置と入力装置を備え教示作業者との対話的な処理を行うロボット制御設定支援装置であって、
    2次元画像および2次元の各点での距離を示す3次元データを計測する3次元計測装置と、
    前記3次元計測装置により対象ワークを含む計測領域の2次元画像と3次元データを計測する2次元画像・3次元データ計測手段、および
    計測した2次元画像と3次元データを前記表示装置に表示し、表示に対する教示作業者の入力装置への入力に従い、対象ワークの位置姿勢に対応するロボットの目標位置姿勢を決定するための画像処理を行い、ロボットの目標位置姿勢を含む画像処理結果を表示し、入力装置から承諾入力を受けた画像処理結果を画像処理内容データ記憶部に格納する2次元画像・3次元データ処理手段を含む2次元画像・3次元データ処理部と、
    前記画像処理結果のロボットの目標位置姿勢に基づき操作されたロボットの動作に関し制約条件の算出と評価をおこなった結果を表示装置に表示し、入力装置から承諾入力を受け、承諾入力が受けられない場合には、教示作業者の入力装置への新たな入力に従い、前記2次元画像・3次元データ処理手段に目標位置姿勢を決定するための画像処理を行わせ、新たなロボットの目標位置姿勢に基づくロボットの動作に関し制約条件の算出と評価をおこなった結果を表示装置に表示し、入力装置から承諾入力を受けるまで繰り返す制約条件算出・評価処理部と、
    前記制約条件算出・評価処理部で承諾された条件で動作されたロボット実行内容をロボット動作手順データとしてロボットから入力してロボット動作手順データ記憶部に記録するロボット動作モニタ部と、
    前記画像処理内容データ記憶部およびロボット動作手順データ記憶部に記録された一連の処理内容を教示作業者による入力装置への入力指示に従って表示装置に表示し、教示作業者による入力指示に従って冗長な処理の統合、削除可能な処理の削除を行い、処理手順を再構成し、再構成された処理内容を、入力装置への確認入力の後各記憶部に再構成処理記録として格納する処理手順解析・再構成処理部と、
    を備えたことを特徴とするロボット制御設定支援装置。
  2. ロボット制御設定の実施履歴を格納した外部拠点にある外部事例蓄積装置と外部ネットワークを介して通信可能な通信部と、
    前記通信部により前記外部事例蓄積装置の実施履歴を前記外部ネットワークを介して入力する外部事例参照部と、
    をさらに備えたことを特徴とする請求項1に記載のロボット制御設定支援装置。
  3. 表示装置と入力装置がタッチパネル付ディスプレイを設けたロボット操作専用端末からなることを特徴とする請求項1または2に記載のロボット制御設定支援装置。
JP2010278981A 2010-12-15 2010-12-15 ロボット制御設定支援装置 Active JP5586445B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010278981A JP5586445B2 (ja) 2010-12-15 2010-12-15 ロボット制御設定支援装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010278981A JP5586445B2 (ja) 2010-12-15 2010-12-15 ロボット制御設定支援装置

Publications (2)

Publication Number Publication Date
JP2012125871A true JP2012125871A (ja) 2012-07-05
JP5586445B2 JP5586445B2 (ja) 2014-09-10

Family

ID=46643517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010278981A Active JP5586445B2 (ja) 2010-12-15 2010-12-15 ロボット制御設定支援装置

Country Status (1)

Country Link
JP (1) JP5586445B2 (ja)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014240110A (ja) * 2013-06-12 2014-12-25 三菱電機株式会社 ビンピッキング性能評価装置及び方法
JP2017148909A (ja) * 2016-02-25 2017-08-31 セイコーエプソン株式会社 制御装置、ロボット、及びロボットシステム
CN107995096A (zh) * 2017-11-14 2018-05-04 奕甲智能技术(上海)有限公司 一种动态图文交互方法、装置和***
JP2018089719A (ja) * 2016-11-30 2018-06-14 株式会社東芝 ロボットハンド
WO2021038842A1 (ja) * 2019-08-30 2021-03-04 日本電気株式会社 情報処理装置、制御方法及び記憶媒体
WO2021038844A1 (ja) * 2019-08-30 2021-03-04 日本電気株式会社 情報処理装置、制御方法及び記憶媒体
JP2021058990A (ja) * 2019-10-09 2021-04-15 キヤノン株式会社 画像処理装置、制御方法およびプログラム
CN112936342A (zh) * 2021-02-02 2021-06-11 福建天晴数码有限公司 基于人体姿态识别算法的实体机器人动作评测***及方法
JP7483455B2 (ja) 2020-03-26 2024-05-15 キヤノン株式会社 画像処理装置、画像処理装置の制御方法およびプログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63280308A (ja) * 1987-05-13 1988-11-17 Hitachi Ltd ロボツト支援システム
JPH08276388A (ja) * 1995-04-05 1996-10-22 Nippon Telegr & Teleph Corp <Ntt> ロボット教示装置
JP2001121458A (ja) * 1999-10-22 2001-05-08 Denso Corp ロボットコントローラ
JP2006289531A (ja) * 2005-04-07 2006-10-26 Seiko Epson Corp ロボット位置教示のための移動制御装置、ロボットの位置教示装置、ロボット位置教示のための移動制御方法、ロボットの位置教示方法及びロボット位置教示のための移動制御プログラム
JP2009181526A (ja) * 2008-02-01 2009-08-13 Panasonic Corp ロボットシステム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63280308A (ja) * 1987-05-13 1988-11-17 Hitachi Ltd ロボツト支援システム
JPH08276388A (ja) * 1995-04-05 1996-10-22 Nippon Telegr & Teleph Corp <Ntt> ロボット教示装置
JP2001121458A (ja) * 1999-10-22 2001-05-08 Denso Corp ロボットコントローラ
JP2006289531A (ja) * 2005-04-07 2006-10-26 Seiko Epson Corp ロボット位置教示のための移動制御装置、ロボットの位置教示装置、ロボット位置教示のための移動制御方法、ロボットの位置教示方法及びロボット位置教示のための移動制御プログラム
JP2009181526A (ja) * 2008-02-01 2009-08-13 Panasonic Corp ロボットシステム

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014240110A (ja) * 2013-06-12 2014-12-25 三菱電機株式会社 ビンピッキング性能評価装置及び方法
JP2017148909A (ja) * 2016-02-25 2017-08-31 セイコーエプソン株式会社 制御装置、ロボット、及びロボットシステム
JP2018089719A (ja) * 2016-11-30 2018-06-14 株式会社東芝 ロボットハンド
CN107995096A (zh) * 2017-11-14 2018-05-04 奕甲智能技术(上海)有限公司 一种动态图文交互方法、装置和***
JPWO2021038844A1 (ja) * 2019-08-30 2021-03-04
WO2021038844A1 (ja) * 2019-08-30 2021-03-04 日本電気株式会社 情報処理装置、制御方法及び記憶媒体
WO2021038842A1 (ja) * 2019-08-30 2021-03-04 日本電気株式会社 情報処理装置、制御方法及び記憶媒体
JPWO2021038842A1 (ja) * 2019-08-30 2021-03-04
JP7264253B2 (ja) 2019-08-30 2023-04-25 日本電気株式会社 情報処理装置、制御方法及びプログラム
JP7276466B2 (ja) 2019-08-30 2023-05-18 日本電気株式会社 情報処理装置、制御方法及びプログラム
JP2021058990A (ja) * 2019-10-09 2021-04-15 キヤノン株式会社 画像処理装置、制御方法およびプログラム
JP7401250B2 (ja) 2019-10-09 2023-12-19 キヤノン株式会社 画像処理装置、制御方法およびプログラム
JP7483455B2 (ja) 2020-03-26 2024-05-15 キヤノン株式会社 画像処理装置、画像処理装置の制御方法およびプログラム
CN112936342A (zh) * 2021-02-02 2021-06-11 福建天晴数码有限公司 基于人体姿态识别算法的实体机器人动作评测***及方法
CN112936342B (zh) * 2021-02-02 2023-04-28 福建天晴数码有限公司 基于人体姿态识别算法的实体机器人动作评测***及方法

Also Published As

Publication number Publication date
JP5586445B2 (ja) 2014-09-10

Similar Documents

Publication Publication Date Title
JP5586445B2 (ja) ロボット制御設定支援装置
JP4347386B2 (ja) 加工用ロボットプラグラムの作成装置
JP4171488B2 (ja) オフラインプログラミング装置
JP3732494B2 (ja) シミュレーション装置
JP6080407B2 (ja) 3次元計測装置及びロボット装置
US8565515B2 (en) Three-dimensional recognition result displaying method and three-dimensional visual sensor
US9008371B2 (en) Method and system for ascertaining the position and orientation of a camera relative to a real object
JP4763074B2 (ja) ロボットのツール先端点の位置の計測装置および計測方法
US20100231690A1 (en) Model display method for three-dimensional optical sensor and three-dimensional optical sensor
US20110218776A1 (en) Model producing apparatus, model producing method, and computer-readable recording medium in which model producing program is stored
EP1315056A2 (en) Simulation apparatus for working machine
US20070282485A1 (en) Robot simulation apparatus
CN103630071A (zh) 检测工件的方法和***
CN112683215A (zh) 生成关于坐标测量机的传感器链的信息的方法
EP2634530A1 (en) Shape measuring device, shape measuring method, structure manufacturing method, and program
EP1703349A2 (en) Off-line teaching device
JP2010210458A (ja) 3次元視覚センサによる認識結果の表示方法および3次元視覚センサ
US7684897B2 (en) Robot program generating device and robot program analyzing device
US20240019241A1 (en) System and method for measuring using multiple modalities
EP1400881A2 (en) Method and apparatus for supporting measurement of object to be measured
JP6465729B2 (ja) 鉄道車両の製造方法、計測装置及び計測方法
US7877225B2 (en) Method for determining measuring points
JP2015222196A (ja) 三次元測定機、及びこれを用いた形状測定方法
JP3563927B2 (ja) 仮置き位置決定装置および仮置き位置決定プログラムを記録した記録媒体
JP6799614B2 (ja) 情報処理装置及び情報作成方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130304

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20140624

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140722

R150 Certificate of patent or registration of utility model

Ref document number: 5586445

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250