DE102010018438B4 - Verfahren und Vorrichtung zur automatischen Steuerung eines humanoiden Roboters - Google Patents

Verfahren und Vorrichtung zur automatischen Steuerung eines humanoiden Roboters Download PDF

Info

Publication number
DE102010018438B4
DE102010018438B4 DE102010018438.1A DE102010018438A DE102010018438B4 DE 102010018438 B4 DE102010018438 B4 DE 102010018438B4 DE 102010018438 A DE102010018438 A DE 102010018438A DE 102010018438 B4 DE102010018438 B4 DE 102010018438B4
Authority
DE
Germany
Prior art keywords
control
gui
controller
force
robot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE102010018438.1A
Other languages
English (en)
Other versions
DE102010018438A1 (de
Inventor
Muhammad E. Abdallah
Robert Platt
Charles W. Wampler II
Matthew J. Reiland
Adam M. Sanders
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
THE U.S.A. AS REPRESENTED BY THE ADMINISTRATOR, US
GM Global Technology Operations LLC
Original Assignee
GM Global Technology Operations LLC
National Aeronautics and Space Administration NASA
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GM Global Technology Operations LLC, National Aeronautics and Space Administration NASA filed Critical GM Global Technology Operations LLC
Publication of DE102010018438A1 publication Critical patent/DE102010018438A1/de
Application granted granted Critical
Publication of DE102010018438B4 publication Critical patent/DE102010018438B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01RELECTRICALLY-CONDUCTIVE CONNECTIONS; STRUCTURAL ASSOCIATIONS OF A PLURALITY OF MUTUALLY-INSULATED ELECTRICAL CONNECTING ELEMENTS; COUPLING DEVICES; CURRENT COLLECTORS
    • H01R13/00Details of coupling devices of the kinds covered by groups H01R12/70 or H01R24/00 - H01R33/00
    • H01R13/02Contact members
    • H01R13/15Pins, blades or sockets having separate spring member for producing or increasing contact pressure
    • H01R13/17Pins, blades or sockets having separate spring member for producing or increasing contact pressure with spring member on the pin
    • HELECTRICITY
    • H01ELECTRIC ELEMENTS
    • H01RELECTRICALLY-CONDUCTIVE CONNECTIONS; STRUCTURAL ASSOCIATIONS OF A PLURALITY OF MUTUALLY-INSULATED ELECTRICAL CONNECTING ELEMENTS; COUPLING DEVICES; CURRENT COLLECTORS
    • H01R13/00Details of coupling devices of the kinds covered by groups H01R12/70 or H01R24/00 - H01R33/00
    • H01R13/02Contact members
    • H01R13/04Pins or blades for co-operation with sockets
    • H01R13/05Resilient pins or blades
    • H01R13/052Resilient pins or blades co-operating with sockets having a circular transverse section
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10TTECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
    • Y10T29/00Metal working
    • Y10T29/49Method of mechanical manufacture
    • Y10T29/49002Electrical device making
    • Y10T29/49117Conductor or circuit manufacturing

Landscapes

  • Manipulator (AREA)
  • Connector Housings Or Holding Contact Members (AREA)
  • Details Of Connecting Devices For Male And Female Coupling (AREA)

Abstract

Robotersystem (11), das umfasst: einen humanoiden Roboter (10) mit einer Vielzahl von Robotergelenken (A, B, C, D, E, F), die zum Ausüben einer Kraft auf ein Objekt (20) ausgelegt sind, wobei der humanoide Roboter (10) über mindestens ein Greiforgan (18) verfügt; eine graphische Benutzerschnittstelle (GUI) (24), die zum Empfangen eines Eingabesignals (iC) von einem Benutzer ausgelegt ist, welches zumindest eine externe Referenzkraft in der Form einer gewünschten Eingabekraft beschreibt, die auf das Objekt (20) ausgeübt werden soll, wobei die GUI (24) Eingaben zu einem kartesischen Raum (30A) oder Eingaben zu einem Gelenkraum (30B) aufnehmen kann; und einen Controller (22), der mit der GUI (24) elektrisch verbunden ist, wobei die GUI (24) dem Benutzer einen Programmierzugriff auf den Controller (22) bereitstellt; wobei der Controller (22) ausgelegt ist, um die Vielzahl von Robotergelenken (A, B, C, D, E, F) unter Verwendung einer impedanzbasierten Steuerungsgrundstruktur zu steuern, wobei die Grundstruktur eine Steuerung des humanoiden Roboters (10) auf Objektebene und/oder auf Greiforganebene und/oder auf Gelenkraumebene in Ansprechen auf das Eingabesignal (iC) bereitstellt; und wobei der Controller (22) ferner ausgelegt ist, um zwischen einem Positionssteuerungsmodus und einem Kraftsteuerungsmodus, wenn der Benutzer die externe Referenzkraft über die GUI (24) bereitstellt, und zwischen dem Anwenden einer Impedanzsteuerung auf der Objektebene oder der Greiforganebene oder der Gelenkebene umzuschalten, wenn der Benutzer eine gewünschte Kombination von Greiforganen über die GUI (24) wählt.

Description

  • AUSSAGE HINSICHTLICH VON DER REGIERUNG GEFÖRDERTER FORSCHUNG ODER ENTWICKLUNG
  • Diese Erfindung wurde mit Regierungsunterstützung unter dem NASA Space Act Agreement Nummer SAA-AT-07-003 durchgeführt. Der Regierung können einige Rechte an der Erfindung gehören.
  • QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
  • Die vorliegende Anmeldung beansprucht den Nutzen und die Priorität der provisorischen US-Anmeldung mit der Nr. 61/174,316, die am 30. April 2009 eingereicht wurde.
  • TECHNISCHES GEBIET
  • Die vorliegende Erfindung betrifft ein System und ein Verfahren zum Steuern eines humanoiden Roboters, der eine Vielzahl von Gelenken und mehrere Freiheitsgrade aufweist.
  • HINTERGRUND DER ERFINDUNG
  • Roboter sind automatisierte Einrichtungen, die zum Manipulieren von Objekten unter Verwendung einer Reihe von Gliedern, welche wiederum über Robotergelenke miteinander verbunden sind, in der Lage sind. Jedes Gelenk in einem typischen Roboter stellt mindestens eine unabhängige Steuerungsvariable, d. h. einen Freiheitsgrad (DOF) bereit. Greiforgane sind die speziellen Glieder, die zum Ausführen einer vorliegenden Aufgabe verwendet werden, z. B. dem Greifen eines Arbeitswerkzeugs oder eines Objekts. Eine präzise Bewegungssteuerung des Roboters kann daher durch die Ebene der Taskspezifikation organisiert werden: eine Steuerung auf Objektebene, welche die Fähigkeit zur Steuerung des Verhaltens eines Objekts beschreibt, das in einem Einzel- oder zusammenwirkenden Griff eines Roboters gehalten wird, eine Greiforgansteuerung und eine Steuerung auf Gelenkebene. Die verschiedenen Steuerungsebenen erreichen gemeinsam die benötigte Mobilität, Geschicklichkeit und arbeitsaufgabenbezogene Funktionalität des Roboters.
  • Humanoide Roboter sind ein spezieller Robotertyp, der eine annähernd menschliche Struktur oder eine annähernd menschliche Erscheinung aufweist, sei es als ein voller Körper, ein Torso und/oder eine Gliedmaße, wobei die strukturelle Komplexität des humanoiden Roboters zum Großteil von der Natur der Arbeitsaufgabe abhängt, die ausgeführt wird. Die Verwendung humanoider Roboter kann dort bevorzugt sein, wo eine direkte Interaktion mit Einrichtungen oder Systemen benötigt wird, die speziell für den menschlichen Gebrauch gemacht sind. Die Verwendung humanoider Roboter kann auch dort bevorzugt sein, wo eine Interaktion mit Menschen benötigt wird, da die Bewegung programmiert werden kann, um eine menschliche Bewegung derart anzunähern, dass die Aufgabenabfolgen von dem mitarbeitenden menschlichen Partner verstanden werden.
  • Aufgrund des weiten Spektrums von Arbeitsaufgaben, die von einem humanoider Roboter möglicherweise erwartet werden, können verschiedene Steuerungsmodi gleichzeitig erforderlich sein. Zum Beispiel muss eine präzise Steuerung innerhalb der verschiedenen vorstehend angeführten Steuerungsräume angewendet werden, sowie eine Steuerung über das angewendete Drehmoment oder die angewendete Kraft eines gegebenen motorgetriebenen Gelenks, einer Gelenkbewegung und der verschiedenen Robotergrifftypen.
  • Die DE 103 54 642 A1 offenbart eine Vorrichtung und ein Verfahren zum Programmieren eines Industrieroboters, der eine Vielzahl von Robotergelenken aufweist, die zum Ausüben einer Kraft auf ein Objekt ausgelegt sind, mit einer graphischen Benutzerschnittstelle und einem Controller, der mit der graphischen Benutzerschnittstelle elektrisch verbunden und ausgelegt ist, um die Vielzahl von Robotergelenken unter Verwendung einer impedanzbasierten Steuerungsgrundstruktur zu steuern. Die graphische Benutzerschnittstelle kann die auf das Objekt auszuübende Kraft als Eingabesignal von einem Benutzer empfangen und die Steuerungsgrundstruktur stellt eine Steuerung des Roboters in der Gelenkraumebene in Ansprechen auf das Eingabesignal bereit.
  • In der US 2007/0 010 913 A1 sind eine Vorrichtung und ein Verfahren offenbart, bei denen Bewegungsdaten, die Bewegungen eines Robotergreiforgans definieren, mit Hilfe eines Bewegungseditierungsumfelds durch manuelle Benutzereingaben einfach erzeugt werden können. Die auszuführenden Bewegungen werden von einem Benutzer mit einer Maus oder eines Tablets eingegeben.
  • Die US 7 113 849 B2 offenbart eine Vorrichtung und ein Verfahren zum Steuern des aufrechten Gangs eines humanoiden Roboters, um eine stabile Haltung zu erreichen, falls die Stabilität im Verlauf einer Bewegung der oberen Glieder des Roboters verloren gegangen ist. Dabei bestimmt der Roboter die geeignete Gangart der Beine automatisch.
  • In der US 2005/0 125 099 A1 ist eine Vorrichtung und ein Verfahren zum Editieren von Bewegungen eines humanoiden Roboters offenbart, um dynamische, elegante Bewegungen des Roboters zu erzeugen. Bevor die editierten Bewegungen tatsächlich von dem Roboter ausgeführt werden, können sie an einem 3D-Betrachter korrigiert und stabilisiert werden.
  • Die US 6 918 622 B2 offenbart eine Roboterhand und Finger der Roboterhand, mit denen die Greifstärke der Roboterhand verändert werden kann und die mit einer verringerten Anzahl von Antriebseinheiten bewegt werden können.
  • In der US 7 747 351 B2 ist eine Vorrichtung und ein Verfahren zum Steuern eines Roboterarms offenbart, die verwendet werden, wenn ein Mensch und ein Roboter eine Aufgabe gemeinsam ausführen. Dabei werden Informationen über den Menschen gespeichert, der mit dem Roboterarm zusammenarbeitet, und Impedanzeinstellungen des Roboterarms vorgenommen, um diesen an den Menschen anzupassen.
  • Die Aufgabe der Erfindung besteht darin, eine vielseitige Steuerung mit verschiedenen Steuermodi in unterschiedlichen Steuerungsräumen für einen humanoiden Roboter bereitzustellen.
  • Diese Aufgabe wird durch die Gegenstände der unabhängigen Ansprüche gelöst.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Entsprechend werden ein Robotersteuerungssystem und -verfahren hier bereitgestellt, um einen humanoiden Roboter über eine impedanzbasierte Steuerungsgrundstruktur zu steuern, wie nachstehend im Detail offen gelegt ist. Die Grundstruktur ermöglicht, dass eine funktionsbasierte graphische Benutzerschnittstelle (GUI) die Implementierung unzähliger Betriebsmodi des Roboters vereinfacht. Eine komplexe Steuerung eines Roboters, der mehrere DOF aufweist, bei einer speziellen Ausführungsform beispielsweise über 42 DOF, kann über eine einzige GUI bereitgestellt werden. Die GUI kann verwendet werden, um einen Algorithmus eines Controllers anzusteuern, um dadurch eine facettenreiche Steuerung über die vielen unabhängig bewegbaren und voneinander abhängig bewegbaren Robotergelenke mit einer Steuerungslogikschicht bereitzustellen, die verschiedene Betriebsmodi aktiviert.
  • Interne Kräfte auf ein ergriffenes Objekt werden bei der Steuerung auf Objektebene automatisch parametriert, was mehrere Robotergrifftypen in Echtzeit ermöglicht. Bei der Verwendung der Grundstruktur stellt ein Benutzer funktionsbasierte Eingaben durch die GUI bereit und dann entschlüsseln die Steuerung und eine Logikzwischenschicht die Eingabe in die GUI, indem die korrekten Steuerungszielvorgaben und der korrekte Betriebsmodus angewendet werden. Dadurch, dass beispielsweise eine gewünschte Kraft gewählt wird, die auf das Objekt aufgebracht werden soll, wendet der Controller automatisch ein hybrides Positions/Kraft-Steuerungsschema in entkoppelten Räumen an.
  • Im Umfang der Erfindung verwendet die Grundstruktur ein auf der Objektimpedanz basierendes Steuerungsgesetz mit einem hierarchischen Multitasking, um eine Objektsteuerung, eine Greiforgansteuerung und/oder eine Steuerung auf Gelenkebene des Roboters bereitzustellen. Dadurch, dass ein Benutzer über die Möglichkeit verfügt, in Echtzeit sowohl die aktivierten Knoten als auch den Robotergrifftyp zu wählen, d. h. starrer Kontakt, Punktkontakt, usw., bestimmt eine vorbestimmte oder kalibrierte Impedanzbeziehung die Objekt-, Greiforgan- und Gelenkräume. Die Gelenkraumimpedanz wird automatisch in den Nullraum verschoben, wenn Objekt- oder Greiforganknoten aktiviert werden, wobei der Gelenkraum andernfalls den gesamten Steuerungsraum bestimmt, wie hier offen gelegt ist.
  • Insbesondere umfasst ein Robotersystem einen humanoiden Roboter mit einer Vielzahl von Gelenken, die zum Ausüben einer Kraftsteuerung ausgelegt sind, und einen Controller mit einer intuitiven GUI, die zum Empfangen von Eingabesignalen von einem Benutzer, von einer vorprogrammierten Automatisierung oder von einer Netzwerkverbindung oder einer anderen externen Steuerungsvorrichtung ausgelegt ist. Der Controller ist mit der GUI elektrisch verbunden, welche dem Benutzer einen intuitiven oder graphischen Programmierzugang zu dem Controller bereitstellt. Der Controller ist ausgelegt, um die Vielzahl von Gelenken unter Verwendung einer impedanzbasierten Steuerungsgrundstruktur zu steuern, welche wiederum eine Steuerung auf Objektebene, auf Greiforganebene und/oder auf Gelenkraumebene des humanoiden Roboters in Ansprechen auf das Eingabesignal in die GUI bereitstellt.
  • Ein Verfahren zum Steuern eines Robotersystems, das den humanoiden Roboter, den Controller und die GUI wie oben erwähnt aufweist, umfasst, dass das Eingabesignal von dem Benutzer unter Verwendung der GUI empfangen wird und dann das Eingabesignal unter Verwendung einer Hostmaschine verarbeitet wird, um die Vielzahl von Gelenken über eine impedanzbasierte Steuerungsgrundstruktur zu steuern. Die Grundstruktur stellt eine Steuerung auf Objektebene, Greiforganebene und/oder Gelenkraumebene des humanoiden Roboters bereit.
  • Die vorstehenden Merkmale und Vorteile und andere Merkmale und Vorteile der vorliegenden Erfindung ergeben sich leicht aus der folgenden genauen Beschreibung der besten Art zum Ausführen der Erfindung, wenn sie in Verbindung mit den beiliegenden Zeichnungen gelesen wird.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist eine schematische Veranschaulichung eines Robotersystems mit einem humanoiden Roboter, der erfindungsgemäß unter Verwendung einer objektimpedanzbasierten Steuerungsgrundstruktur steuerbar ist;
  • 2 ist eine schematische Veranschaulichung von Kräften und Koordinaten mit Bezug auf ein Objekt, auf das durch den in 1 gezeigten Roboter eingewirkt werden kann;
  • 3 ist eine Tabelle, die Untermatrizen in Übereinstimmung mit dem speziellen Kontakttyp beschreibt, der mit dem in 1 gezeigten Roboter verwendet wird;
  • 4 ist eine Tabelle, die Eingaben für eine graphische Benutzeroberfläche (GUI) schreibt;
  • 5A ist eine schematische Veranschaulichung einer GUI gemäß einer Ausführungsform, die mit dem System von 1 verwendet werden kann; und
  • 5B ist eine schematische Veranschaulichung einer GUI gemäß einer weiteren Ausführungsform.
  • BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORM
  • Mit Bezug auf die Zeichnungen, in denen gleiche Bezugszeichen in den mehreren Ansichten gleiche oder ähnliche Komponenten bezeichnen und mit 1 beginnend, ist ein Robotersystem 11 gezeigt, das einen Roboter 10, der hier als ein geschickter Humanoide gezeigt ist, aufweist, der über ein Steuerungssystem oder einen Controller (C) 22 gesteuert wird. Der Controller 22 stellt eine Bewegungssteuerung über den Roboter 10 mit Hilfe eines Algorithmus 100 bereit, d. h. einer impedanzbasierten Steuerungsgrundstruktur, die nachstehend beschrieben wird.
  • Der Roboter 10 ist ausgelegt, um eine oder mehrere automatisierte Aufgaben mit mehreren Freiheitsgraden (DOF) auszuführen, und um andere interaktive Aufgaben auszuführen oder andere integrierte Systemkomponenten zu steuern, z. B. Einspannen, Beleuchten, Relais, usw. Gemäß einer Ausführungsform ist der Roboter 10 mit einer Vielzahl unabhängig und voneinander abhängig bewegbarer Robotergelenke ausgestaltet, wie etwa aber ohne Einschränkung einem Schultergelenk, dessen Position durch einen Pfeil A allgemein angezeigt ist, ein Ellbogengelenk, das allgemein (Pfeil B) ist, ein Handgelenk (Pfeil C), ein Halsgelenk (Pfeil D) und ein Taillengelenk (Pfeil E) sowie die verschiedenen Fingergelenke (Pfeil F), die zwischen den Fingergliedern jedes Roboterfingers 19 positioniert sind.
  • Jedes Robotergelenk kann einen oder mehrere DOF aufweisen. Zum Beispiel können einige konforme Gelenke, wie etwa das Schultergelenk (Pfeil A) und das Ellbogengelenk (Pfeil B) mindestens zwei DOF in der Form von Nicken und Rollen aufweisen. Gleichermaßen kann das Halsgelenk (Pfeil D) mindestens drei DOF aufweisen, während die Taille und das Handgelenk (Pfeile E bzw. C) einen oder mehrere DOF aufweisen können. In Abhängigkeit von der Komplexität der Aufgabe kann sich der Roboter 10 mit über 42 DOF bewegen. Jedes Robotergelenk enthält ein oder mehrere Stellglieder und wird durch diese intern angetrieben, z. B. Gelenkmotoren, lineare Stellglieder, rotatorische Stellglieder und dergleichen.
  • Der Roboter 10 kann Komponenten, wie etwa einen Kopf 12, einen Torso 14, eine Taille 15, Arme 16, Hände 18, Finger 19, und Daumen 21 umfassen, wobei die vorstehend erwähnten verschiedenen Gelenke innerhalb oder zwischen diesen Komponenten angeordnet sind. Der Roboter 10 kann auch eine für die Aufgabe geeignete Halterung oder Basis (nicht gezeigt) umfassen, wie etwa Beine, Laufflächen oder eine andere bewegliche oder starre Basis in Abhängigkeit von der speziellen Anwendung oder der beabsichtigten Verwendung des Roboters. Eine Leistungsversorgung 13 kann an den Roboter 10 angebaut sein, z. B. ein wiederaufladbarer Batteriestapel, der an der Rückseite des Torsos 14 getragen oder angelegt wird, oder eine andere geeignete Energieversorgung, oder die durch ein Verbindungskabel abgesetzt angebracht sein kann, um ausreichend elektrische Energie an die verschiedenen Gelenke zur Bewegung derselben zu liefern.
  • Der Controller 22 stellt eine präzise Bewegungssteuerung des Roboters 10 bereit, die eine Steuerung der feinen und groben Bewegungen umfasst, die zum Manipulieren eines Objekts 20 benötigt werden, das von den Fingern 19 und dem Daumen 21 von einer oder mehreren Händen 18 ergriffen werden kann. Der Controller 22 ist in der Lage, jedes Robotergelenk und andere integrierte Systemkomponenten isoliert von den anderen Gelenken und Systemkomponenten unabhängig zu steuern sowie eine Anzahl der Gelenke voneinander abhängig zu steuern, um die Aktionen der mehreren Gelenke bei der Ausführung einer relativ komplexen Arbeitsaufgabe vollständig zu koordinieren.
  • Noch mit Bezug auf 1 kann der Controller 22 mehrere digitale Computer oder Datenverarbeitungseinrichtungen umfassen, die jeweils einen oder mehrere Mikroprozessoren oder zentrale Verarbeitungseinheiten (CPU), Festwertspeicher (ROM), Speicher mit wahlfreiem Zugriff (RAM), elektrisch programmierbarer löschbarer Festwertspeicher (EEPROM), einen Hochgeschwindigkeitstaktgeber, Analog/Digital-Schaltungen (A/D-Schaltungen), Digital/Analog-Schaltungen (D/A-Schaltungen) und beliebige benötigte Eingabe/Ausgabe-Schaltungen (E/A-Schaltungen) und Einrichtungen sowie eine Signalaufbereitungs- und Pufferelektronik, aufweisen. Einzelne Steuerungsalgorithmen, die im Controller 22 vorhanden sind oder für diesen leicht zugänglich sind, können im ROM gespeichert sein und bei einer oder mehreren verschiedenen Steuerungsebenen automatisch ausgeführt werden, um die jeweilige Steuerungsfunktionalität bereitzustellen.
  • Der Controller 22 kann einen Server oder eine Hostmaschine 17 umfassen, die als ein verteiltes oder ein zentrales Steuerungsmodul ausgestaltet ist und Steuerungsmodule und Fähigkeiten derart aufweist, wie es zur Ausführung sämtlicher benötigter Steuerungsfunktionalität des Roboters 10 auf die gewünschte Weise notwendig sein kann. Zudem kann der Controller 22 als ein universaler Digitalcomputer ausgestaltet sein, der allgemein einen Mikroprozessor oder eine zentrale Verarbeitungseinheit, Festwertspeicher (ROM), Speicher mit wahlfreiem Zugriff (RAM), elektrisch löschbaren programmierbaren Festwertspeicher (EEPROM), einen Hochgeschwindigkeitstaktgeber, Analog/Digital-Schaltungen (A/D-Schaltungen) und Digital/Analog-Schaltungen (D/A-Schaltungen) und Eingabe/Ausgabe-Schaltungen und Einrichtungen (E/A), sowie geeignete Signalaufbereitungs- und Pufferschaltungen umfasst. Beliebige im Controller 22 vorhandene oder für diesen zugängliche Algorithmen, welche den Algorithmus 100 zum Ausführen der nachstehend im Detail beschriebenen Grundstruktur umfassen, können im ROM gespeichert sein und ausgeführt werden, um die jeweilige Funktionalität bereitzustellen.
  • Der Controller 22 ist mit einer graphischen Benutzerschnittstelle (GUI) 24, die einen Benutzerzugriff auf den Controller bereitstellt, elektrisch verbunden. Die GUI 24 stellt eine Benutzersteuerung eines breiten Spektrums von Aufgaben bereit, d. h. die Fähigkeit zur Bewegungssteuerung in den Objekt-, Greiforgan- und/oder Gelenkräumen oder Ebenen des Roboters 10. Die GUI 24 ist vereinfacht und intuitiv, um es einem Benutzer durch einfache Eingaben zu ermöglichen, die Arme und die Finger in verschiedenen intuitiven Modi zu steuern, indem ein Eingabesignal (Pfeil iC) eingegeben wird, z. B. eine gewünschte auf das Objekt 20 aufgebrachte Kraft. Die GUI 24 ist auch zum Speichern von Modusänderungen in der Lage, so dass sie zu einem späteren Zeitpunkt in einer Sequenz ausgeführt werden können. Die GUI 24 kann auch externe Steuerungsauslösesignale akzeptieren, um eine Modusänderung zu verarbeiten, z. B. über ein Programmierhandgerät, das extern angebracht ist, oder über einen PLC, welcher den Automationsfluss durch eine Netzwerkverbindung steuert. Verschiedene Ausführungsformen der GUI 24 sind im Umfang der Erfindung möglich, wobei zwei mögliche Ausführungsformen mit Bezug auf 5A und 5B nachstehend beschrieben werden.
  • Um einen Bereich von Manipulationsaufgaben unter Verwendung des Roboters 10 auszuführen, ist ein weiter Bereich an funktionaler Steuerung des Roboters notwendig. Diese Funktionalität umfasst eine hybride Kraft/Positionssteuerung, eine Impedanzsteuerung, eine kooperative Objektsteuerung mit facettenreichen Grifftypen, eine Greiforgansteuerung im kartesischen Raum, d. h. eine Steuerung im XYZ-Koordinatenraum, und eine Gelenkraummanipulatorsteuerung, und mit einer hierarchischen Priorisierung der mehreren Steuerungsaufgaben. Folglich wendet die vorliegende Erfindung ein Arbeitsraumimpedanzgesetz und eine entkoppelte Kraft und Position auf die Steuerung der Greiforgane des Roboters 10 und die Steuerung des Objekts 20 an, wenn es von einem oder mehreren Greiforganen des Roboters, wie etwa der Hand 18, ergriffen, kontaktiert oder anderweitig darauf eingewirkt wird. Die Erfindung stellt einen parametrierten Raum von internen Kräften zur Steuerung eines derartigen Griffs bereit. Sie stellt auch eine sekundäre Gelenkraumimpedanzbeziehung bereit, die im Nullraum des Objekts 20 arbeitet, wie nachstehend offen gelegt wird.
  • Noch mit Bezug auf 1 bietet der Controller 22 Platz für mindestens zwei Grifftypen, d. h. starre Kontakte und Punktkontakte, und lässt auch gemischte Grifftypen zu. Starre Kontakte werden durch die Übertragung willkürlicher Kräfte und Momente beschrieben, wie etwa ein Griff mit geschlossener Hand. Punktkontakte, z. B. eine Fingerspitze, übertragen nur eine Kraft. Das gewünschte Regelkreisverhalten des Objekts 20 kann durch die folgende Impedanzbeziehung definiert werden:
    Figure DE102010018438B4_0002
    wobei Mo, Bo und Ko die Matrizen der befohlenen Trägheit, Dämpfung bzw. Steifigkeit sind. Die Variable p ist die Position des Objektreferenzpunkts, ω ist die Winkelgeschwindigkeit des Objekts, Fe und F * / e stellen die tatsächliche und gewünschte externe Verwindung an dem Objekt 20 dar. Δy ist der Positionsfehler (y – y*). NFT ist die Nullraumprojektionsmatrix für Vektor F * / eT und kann wie folgt beschrieben werden:
    Figure DE102010018438B4_0003
  • Bei der vorstehenden Gleichung zeigt die Hochstellung (+) die Pseudoinverse der jeweiligen Matrix an und I ist die Identitätsmatrix. NFT hält die Positions- und Kraftsteuerung automatisch entkoppelt, indem der Steifigkeitsausdruck in den Raum orthogonal zu der befohlenen Kraft projiziert wird, mit der Annahme, dass die Kraftsteuerungsrichtung aus einem DOF besteht. Um die Dynamiken mit höherer Ordnung ebenfalls zu entkoppeln, müssen Mo und Bo in dem Referenzrahmen der Kraft diagonal gewählt werden. Dies bietet sich an, um die Fähigkeit zur Steuerung von Kräften in mehr als eine Richtung einzuschließen.
  • Diese Regelkreisbeziehung verwendete ein ”hybrides” Kraft- und Bewegungssteuerungsschema in den orthogonalen Richtungen. Das Impedanzgesetz wendet eine Positionsnachführeinrichtung zweiter Ordnung auf die Bewegungssteuerungspositionsrichtungen an, während es eine Kraftnachführeinrichtung zweiter Ordnung auf die Kraftsteuerungsrichtungen anwendet, und sollte unter Voraussetzung positiver bestimmter Werte für die Matrizen stabil sein. Die Formulierung entkoppelt die Kraft- und Positionssteuerungsrichtungen automatisch. Der Benutzer gibt einfach eine gewünschte Kraft, d. h. F * / e ein, und die Positionssteuerung wird orthogonal in den Nullraum projiziert. Wenn eine gewünschte Kraft von Null eingegeben wird, überspannt die Positionssteuerung den vollen Raum.
  • Mit Bezug auf 2 sind eine baustatische Skizze 25 des Objekts 20 von 1 und ein Koordinatensystem gezeigt. N und B stellen die Bezugsrahmen von Masse bzw. Körper dar. ri ist der Positionsvektor vom Schwerpunkt zu einem Kontaktpunkt i, wobei i = 1, ..., n. wi = (fi, ni) stellt die Kontaktverwindung vom Kontaktpunkt i dar, wobei fi und ni die Kraft bzw. das Moment sind. Die Geschwindigkeit und Beschleunigung des Kontaktpunkts i kann durch die folgenden kinematischen Standardbeziehungen dargestellt werden:
    Figure DE102010018438B4_0004
    wobei νi die Geschwindigkeit des Kontaktpunkts darstellt und ωi die Winkelgeschwindigkeit des Greiforgans i darstellt. νrel und arel sind als die erste bzw. zweite Ableitung von ri im B-Rahmen definiert.
  • Figure DE102010018438B4_0005
  • Mit anderen Worten stellen sie die Bewegung des Punkts relativ zum Körper dar. Die Ausdrücke werden Null, wenn der Punkt im Körper starr ist.
  • Greiforgankoordinaten: die Grundstruktur der vorliegenden Erfindung ist entworfen, um für mindestens zwei Grifftypen, die vorstehend beschrieben sind, d. h. starre Kontakte und Punktkontakte, Platz zu bieten. Da jeder Typ unterschiedliche Zwangsbedingungen für die DOF darstellt, hängt die Wahl von Greiforgankoordinaten für jeden Manipulator xi vom speziellen Grifftyp ab. Ein dritter Grifftyp ist derjenige ”ohne Kontakt”, der ein Greiforgan beschreibt, das mit dem Objekt 20 nicht in Kontakt steht. Dieser Grifftyp ermöglicht eine Steuerung der jeweiligen Greiforgane unabhängig von den anderen. Die Koordinaten können auf der Geschwindigkeitsebene definiert werden als:
    Figure DE102010018438B4_0006
  • Durch die in 1 gezeigte GUI 24 kann ein Benutzer das bzw. die gewünschten zu aktivierenden Greiforgane wählen, z. B. Finger 19 usw. Der Controller 22 erzeugt dann lineare und rotatorische Jacobimatrizen Jvi bzw. Jωi für jedes Greiforgan. Die endgültige Jacobimatrix für jeden Punkt Ji hängt dann vom Kontakttyp ab, so dass: χ .i = Jiq .
  • In dieser Formel ist q die Spaltenmatrix aller Gelenkkoordinaten in dem System, die gesteuert werden.
  • Matrixnotation: die zusammengesetzte Greiforgangeschwindigkeit kann definiert werden als: χ . = [χ . T / 1...χ . T / n]T, wobei n die Anzahl aktiver Greiforgane ist, z. B. ein Finger 19 des humanoiden Roboters 10, der in 1 gezeigt ist. Die Geschwindigkeit und die anschließende Beschleunigung können in einer Matrixnotation auf der Grundlage der vorstehend offen gelegten kinematischen Beziehungen ausgedrückt werden, d. h.: χ . = Gy . + χ .rel χ .. = Gy .. + Q + χ ..rel
  • G kann als die Griffmatrix bezeichnet werden und enthält die Kontaktpositionsinformation. Q ist eine Spaltenmatrix, welche die Zentrifugal- und Coriolis-Ausdrücke enthält. χ .rel und χ ..rel sind Spaltenmatrizen, welche die relativen Bewegungsausdrücke enthalten.
  • Die Struktur der Matrizen G, Q und J variiert in Übereinstimmung mit den Kontakttypen im System. Sie können aus Untermatrizen aufgebaut werden, welche jeden Manipulator i darstellen, so dass:
    Figure DE102010018438B4_0007
  • Mit Bezug auf 3 können die Untermatrizen in Übereinstimmung mit dem speziellen Kontakttyp angezeigt werden. r ^ bezeichnet das schiefsymmetrische Matrixäquivalent des Kreuzprodukts für den Vektor r. Bei Anwendungen mit niedriger Geschwindigkeit kann Q vernachlässigt werden. Es wird angemerkt, dass die Jacobimatrix für einen Punktkontakt nur die lineare Jacobimatrix enthält. Folglich wird für diesen Kontakttyp nur die Position, nicht aber die Orientierung gesteuert.
  • Der dritte Fall in der Tabelle von 3 wendet einen Proportional-Derivativ-Controller (PD-Controller), der Teil des Controllers 22 von 1 oder eine andere Einrichtung sein kann, auf die Greiforganposition an, wobei kp und kd skalare Verstärkungen sind. Dies ermöglicht, dass die Position des Greiforgans i unabhängig vom Objekt 20 von 1 gesteuert werden kann. Dies bedeutet auch, dass das jeweilige Greiforgan das kartesische Impedanzverhalten nicht beachtet.
  • Wenn sowohl χ .rel und χ ..rel gleich Null sind, erfüllen die Greiforgane die Bedingung starrer Körper auf perfekte Weise, d. h. sie erzeugen keine Veränderung an internen Kräften zwischen ihnen. χ ..rel kann verwendet werden, um die gewünschten internen Kräfte in einem ergriffenen Objekt zu steuern. Um sicherzustellen, dass χ ..rel die externen Kräfte nicht beeinflusst, muss sie in dem Raum liegen, der zu G orthogonal ist, der hier als der ”interne Raum” bezeichnet wird, d. h. der gleiche Raum, der die internen Kräfte enthält. Die Projektionsmatrix für diesen Raum oder den Nullraum GT folgt:
    Figure DE102010018438B4_0008
  • Relativbeschleunigungen können auf den internen Raum beschränkt werden:
    Figure DE102010018438B4_0009
    wobei a eine willkürliche Spaltenmatrix von internen Beschleunigungen ist.
  • Diese Bedingung stellt sicher, dass χ ..rel keinen Nettoeffekt auf die Beschleunigungen auf der Objektebene erzeugt, wodurch die externen Kräfte ungestört bleiben. Um diese Behauptung zu validieren, kann nach der Objektbeschleunigung aufgelöst werden und gezeigt werden, dass die internen Beschleunigungen einen Null-Beitrag zu y .. liefern, d. h.:
    Figure DE102010018438B4_0010
  • Interne Kräfte: Es gibt zwei Anforderungen zum Steuern der internen Kräfte innerhalb der vorstehenden Steuerungsgrundstruktur. Erstens wird der Nullraum mit physikalisch relevanten Parametern parametriert und zweitens müssen die Parameter im Nullraum von beiden Grifftypen liegen. Beide Anforderungen werden durch das Konzept der Interaktionskräfte erfüllt. Zum Verständnis können durch Ziehen einer Linie zwischen zwei Kontaktpunkten Interaktionskräfte als die Differenz zwischen den zwei Kontaktkräften definiert werden, die entlang dieser Linie projiziert sind. Es kann gezeigt werden, dass die Interaktionsverwindung, d. h. die Interaktionskräfte und -momente, ebenfalls im Nullraum des Falls mit starrem Kontakt liegt.
  • Es wird ein Vektor an einem Kontaktpunkt betrachtet, der senkrecht zu der Oberfläche verläuft und in das Objekt 20 von 1 hineinzeigt. Kräfte an Punktkontakten müssen senkrechte Komponenten aufweisen, die positiv mit einer ausreichenden Größe sind, um sowohl den Kontakt mit dem Objekt 20 aufrechtzuerhalten als auch ein Rutschen mit Bezug auf ein derartiges Objekt zu verhindern. Bei einem korrekten Griff, z. B. mit der Hand 18 von 1, werden die Interaktionskräfte niemals alle tangential zu der Oberfläche des Objekts 20 verlaufen. Deshalb existiert immer eine gewisse minimale Interaktionskraft, so dass die senkrechte Komponente größer als eine Untergrenze ist.
  • Mit Bezug auf die Interaktionsbeschleunigungen können diese definiert werden als:
    Figure DE102010018438B4_0011
    wobei die gewünschten relativen Beschleunigungen in den Interaktionsrichtungen liegen sollten. Bei der vorstehenden Gleichung kann a als die Spaltenmatrix der Interaktionsbeschleunigungen aij definiert werden, wobei aij die relative lineare Beschleunigung zwischen Punkten i und j darstellt. Deshalb ist die relative Beschleunigung vom Punkt i aus gesehen:
    Figure DE102010018438B4_0012
    wobei uij den Einheitsvektor darstellt, der längs der Achse von Punkt i zu j zeigt.
  • Figure DE102010018438B4_0013
  • Zudem ist uij = 0, wenn entweder i oder j einen Punkt ”ohne Kontakt” darstellt. Die Interaktionsbeschleunigungen werden dann verwendet, um die Interaktionskräfte unter Verwendung des nachstehenden PI-Reglers zu steuern, wobei kp und ki konstante skalare Verstärkungen sind: aij = –kp(fij – f * / ij) – ki∫(fij – f * / ij)dt wobei fij die Interaktionskraft zwischen den Punkten i und j ist. fij = (fi – fj)·uij
  • Diese Definition ermöglicht, einen Raum Nint einzuführen, der die Interaktionskomponenten parametriert. Bei der Verwendung hierin ist Nint ein Unterraum des vollen Nullraums NGT mit der Ausnahme des Falls des Punktkontakts, bei dem er den gesamten Nullraum überspannt: χ .. = Gy .. + Q + Ninta
  • Nint besteht aus den Interaktionsrichtungsvektoren (uij) und kann gebildet werden aus der Gleichung:
    Figure DE102010018438B4_0014
    Es kann gezeigt werden, dass Nint für beide Kontakttypen orthogonal zu G ist. Es wird ein Beispiel mit zwei Kontaktpunkten betrachtet. In diesem Fall:
    Figure DE102010018438B4_0015
  • Unter Beachtung, dass uij = –uji und aij = aji ergeben sich die folgenden einfachen Matrixausdrücke:
    Figure DE102010018438B4_0016
  • Der Ausdruck für einen Fall mit drei Kontakten folgt als:
    Figure DE102010018438B4_0017
  • Steuerungsgesetz – Dynamisches Modell: die folgende Gleichung modelliert das vollständige Manipulatorsystem unter der Annahme, dass externe Kräfte nur auf die Greiforgane wirken: Mq .. + c + JTw = τ wobei q die Spaltenmatrix verallgemeinerter Koordinaten ist, M die Gelenkraumsträgheitsmatrix ist, c die Spaltenmatrix der verallgemeinerten Coriolus-, Zentrifugal- und Gravitationskräfte ist, T die Spaltenmatrix von Gelenkdrehmomenten ist und w die zusammengesetzte Spaltenmatrix der Kontaktverwindungen ist.
  • Steuerungsgesetz – inverse Dynamik: das Steuerungsgesetz beruhend auf der inversen Dynamik kann formuliert werden als: τ = Mq .. + c + JTw wobei q ..* die gewünschte Lenkraumbeschleunigung ist. Sie kann aus der gewünschten Greiforganbeschleunigung (χ ..*) wie folgt abgeleitet werden:
    Figure DE102010018438B4_0018
    wobei q ..ns ein willkürlicher Vektor ist, der in den Nullraum von J projiziert ist. Er wird hier nachstehend für eine sekundäre Impedanzaufgabe verwendet. NJ bezeichnet den Nullraum-Projektionsoperator für die Matrix J.
  • Figure DE102010018438B4_0019
  • Die gewünschte Beschleunigung auf der Greiforgan- und Objektebene kann dann aus den vorherigen Gleichungen abgeleitet werden. Die Stärke dieses Verfahrens der Objektkraftverteilung besteht darin, dass es kein Modell des Objekts benötigt. Herkömmliche Verfahren können umfassen, dass die gewünschte Bewegung des Objekts in eine befohlene resultierende Kraft umgesetzt wird, ein Schritt, der ein existierendes Dynamikmodell des Objekts mit hoher Qualität benötigt. Diese resultierende Kraft wird dann unter Verwendung der Inversen von G auf die Kontakte verteilt. Die inverse Dynamik des Greiforgans erzeugt dann die befohlene Kraft und die befohlene Bewegung. Bei dem hier dargestellten Verfahren beseitigt das Einführen der erfassten Greiforgankräfte und das Ausführen der Bereitstellung im Beschleunigungsbereich die Notwendigkeit eines Modells für das Objekt.
  • Steuerungsgesetz – Schätzung: die externe Verwindung (Fe) an dem Objekt 20 von 1 kann nicht erfasst werden, jedoch kann sie aus den anderen Kräften an dem Objekt 20 geschätzt werden. Wenn das Objektmodell gut bekannt ist, kann die volle Dynamik verwendet werden, um Fe zu schätzen. Andernfalls kann eine quasi statische Approximation verwendet werden. Zusätzlich kann die Geschwindigkeit des Objekts 20 mit der folgenden Fehlerschätzung der kleinsten Quadrate des Systems als starrer Körper geschätzt werden: y . = G+χ .
  • Wenn ein Greiforgan wie oben angegeben als der Typ ”ohne Kontakt” eingeordnet wird, wird G eine Zeile von Nullen enthalten. Eine Berechnung der Pseudoinversen auf der Grundlage einer Singulärwertzerlegung (SVD) erzeugt G+, wobei die entsprechende Spalte mit Nullen gefüllt ist. Deshalb wird die Geschwindigkeit des Punkts ohne Kontakt die Schätzung nicht beeinflussen. Alternativ kann die Pseudoinverse mit einer Standardlösung mit geschlossenem Ausdruck berechnet werden. In diesem Falle müssen die Zeilen mit Nullen vor der Berechnung entfernt werden und dann als entsprechende Spalten mit Nullen wieder eingefügt werden. Das Gleiche trifft für die J-Matrix zu, welche ebenfalls Zeilen mit Nullen enthalten kann.
  • Zweites Impedanzgesetz: die Redundanz der Manipulatoren ermöglicht, dass eine sekundäre Aufgabe im Nullraum der Objektimpedanz arbeitet. Die folgende Gelenkraumimpedanzbeziehung definiert eine sekundäre Aufgabe: Mjq .. + Bjq . + KjΔq = τe wobei τe die Spaltenmatrix der Gelenkmomente darstellt, die durch externe Kräfte erzeugt werden. Sie kann aus der Bewegungsgleichung, d. h. Mq.. + c + JTw = τ, geschätzt werden, so dass: τe = Mq .. + c – τ.
  • Diese Formel wiederum diktiert die folgende gewünschte Beschleunigung für den Nullraum: q ..* = J+(χ ..* – J .q .) + NJq ..ns, d. h. q ..ns = M –1 / j(τe – Bjq . – KjΔq).
  • Es kann gezeigt werden, dass diese Implementierung die folgende Regelkreisbeziehung im Nullraum der Manipulatoren erzeugt. Es wird angemerkt, dass NJ eine orthogonale Projektionsmatrix ist, die die Projektion mit minimalem Fehler in den Nullraum findet. NJ[q .. – M –1 / j(τe – Bjq . – KjΔq)] = 0
  • Nullkraftrückkopplung: Aus den vorstehenden Gleichungen folgt:
    Figure DE102010018438B4_0020
  • Wenn in den Manipulatoren eine zuverlässige Krafterfassung nicht verfügbar ist, kann die Impedanzbeziehung so eingestellt werden, dass der Bedarf für die Erfassung beseitigt wird. Durch eine geeignete Wahl der gewünschten Impedanzträgheiten Mo und Mi können die Kraftrückkopplungsausdrücke beseitigt werden. Die geeigneten Werte können aus der vorherigen Gleichung leicht ermittelt werden.
  • Benutzerschnittstelle: durch eine einfache Benutzerschnittstelle, z. B. die GUI 24 von 1, kann der Controller 22 den humanoiden Roboter 10 im gesamten gewünschten Modusbereich betreiben. In einem Modus mit voller Funktionalität steuert der Controller 22 das Objekt 20 mit einer hybriden Impedanzbeziehung, wendet interne Kräfte zwischen den Kontakten an und implementiert eine Gelenkraumimpedanzbeziehung in dem redundanten Raum. Unter Verwendung allein einer einfachen Logik und einer intuitiven Schnittstelle kann die vorgeschlagene Grundstruktur leicht zwischen der gesamten oder einem Teil dieser Funktionalität auf der Grundlage eines Satzes von Steuerungseingaben, wie sie in 1 durch den Pfeil iC darstellt sind, umschalten.
  • Mit Bezug auf 4 sind Eingaben 30 von der GUI 24 von 1 in einer Tabelle dargestellt. Die Eingaben 30 können so kategorisiert werden, dass sie entweder zu dem kartesischen Raum, d. h. Eingaben 30A, oder zu dem Gelenkraum, d. h. Eingaben 30B, gehören. Ein Benutzer kann zwischen einer Positions- und Kraftsteuerung durch Bereitstellen einer externen Referenzkraft leicht umschalten. Der Benutzer kann das System auch zwischen dem Anwenden der Impedanzsteuerung auf die Objekt-, Greiforgan- und/oder Gelenkebenen einfach umschalten, indem er die gewünschte Kombination von Greiforganen wählt. Es folgt eine vollständigere Auflistung der Modi und wie sie aufgerufen werden:
    Kartesische Positionssteuerung: wenn F* e = 0.
    Kartesische hybride Kraft/Positions-Steuerung: wenn F*e ≠ 0. Die Kraftsteuerung wird in der Richtung von F*e angewendet und die Positionssteuerung wird in den orthogonalen Richtungen angewendet.
    Gelenkpositionssteuerung: wenn keine Greiforgane gewählt sind. Die Gelenkraumimpedanzbeziehung steuert den vollständigen Gelenkraum des Systems.
    Greiforganimpedanzsteuerung: wenn nur ein Greiforgan gewählt wird (andere können gewählt und als ”ohne Kontakt” markiert werden). Das hybride kartesische Impedanzgesetz wird auf das Greiforgan angewendet.
    Objektimpedanzsteuerung: wenn mindestens zwei Greiforgane gewählt werden (und nicht als ”ohne Kontakt” zugeordnet werden).
    Gelenkraumfingersteuerung: jedes Mal, wenn keine Fingerspitze als Greiforgan gewählt wird, wird sie durch die Gelenkraumimpedanzbeziehung gesteuert. Dies ist sogar der Fall, wenn die Handfläche gewählt wird.
    Grifftypen: starrer Kontakt (wenn Handfläche gewählt wird); Punktkontakt (wenn Finger gewählt wird).
  • Mit Bezug auf 5A mit 4 ist eine Beispiel-GUI 24A gezeigt, welche den kartesischen Raum von Eingaben 30A und den Gelenkraum von Eingaben 30B aufweist. Die GUI 24A kann Knoten der linken Seite und der rechten Seite 31 bzw. 33 zur Steuerung der linken und rechten Seite des Roboters 10 von 1 darstellen, z. B. der rechten und linken Hände 18 und Finger 19 von 1. Die Werkzeugposition auf oberster Ebene (ri), die Positionsreferenz (y*) und die Kraftreferenz (F*e) sind über die GUI 24A wählbar, wie durch die drei benachbarten Kästchen 91A, 91B und 91C angemerkt ist. Die linksseitigen Knoten 31 können die Fläche einer Hand 18 und die drei Fingerspitzen der primären Finger 19 umfassen, die als 19A, 19B und 19C dargestellt sind. Gleichermaßen können die rechtsseitigen Knoten 33 die Handfläche der rechten Hand 18 und die drei Fingerspitzen der primären Finger 119A, 119B und 119C dieser Hand umfassen.
  • Jeder primäre Finger 19R, 119R, 19L, 119L weist eine entsprechende Fingerschnittstelle auf, d. h. 34A, 134A, 34B, 134B, 34C bzw. 134C. Jede Handfläche einer Hand 18L, 18R umfasst eine Handflächenschnittstelle 34L, 34R. Schnittstellen 35, 37 bzw. 39 stellen eine Positionsreferenz, eine interne Kraftreferenz (f12, f13, f23) und eine 2. Positionsreferenz (x*) bereit. Optionen ohne Kontakt 41L, 41R sind für die linke bzw. rechte Hand bereitgestellt.
  • Die Gelenkraumsteuerung ist über Eingaben 30B bereitgestellt. Eine Gelenkposition der linken und rechten Arme 16L, 16R kann über Schnittsellen 34D, E bereitgestellt werden. Eine Gelenkposition der linken und rechten Hände 18L, 18R kann über Schnittstellen 34F, G bereitgestellt werden. Schließlich kann ein Benutzer einen qualitativen Impedanztyp oder eine qualitative Impedanzebene über eine Schnittstelle 34H wählen, d. h. weich oder steif, die wieder über die GUI 24 von 1 bereitgestellt wird, wobei der Controller 22 auf das Objekt 20 mit der gewählten qualitativen Impedanzebene einwirkt.
  • Mit Bezug auf 5B ist eine erweiterte GUI 24B gezeigt, die eine größere Flexibilität als die Ausführungsform von 5A bereitstellt. Zusätzliche Optionen umfassen, dass ermöglicht wird, dass über die Schnittstelle 34I die kartesische Impedanz nur lineare oder rotatorische Komponenten steuert, im Gegensatz dazu, dass nur beide gesteuert werden können, dass zugelassen wird, dass ein Knoten ”ohne Kontakt” mit einem Kontaktknoten an der gleichen Hand über eine Schnittstelle 34J koexistiert, und dass die Flexibilität der Wahl des Kontakttyps für jeden aktiven Knoten über eine Schnittstelle 34K hinzugefügt wird.
  • Obwohl die besten Arten zum Ausführen der Erfindung im Detail beschrieben wurden, werden Fachleute auf dem Gebiet, das diese Erfindung betrifft, verschiedene alternative Entwürfe und Ausführungsformen erkennen, um die Erfindung im Umfang der beigefügten Ansprüche auszuführen.

Claims (18)

  1. Robotersystem (11), das umfasst: einen humanoiden Roboter (10) mit einer Vielzahl von Robotergelenken (A, B, C, D, E, F), die zum Ausüben einer Kraft auf ein Objekt (20) ausgelegt sind, wobei der humanoide Roboter (10) über mindestens ein Greiforgan (18) verfügt; eine graphische Benutzerschnittstelle (GUI) (24), die zum Empfangen eines Eingabesignals (iC) von einem Benutzer ausgelegt ist, welches zumindest eine externe Referenzkraft in der Form einer gewünschten Eingabekraft beschreibt, die auf das Objekt (20) ausgeübt werden soll, wobei die GUI (24) Eingaben zu einem kartesischen Raum (30A) oder Eingaben zu einem Gelenkraum (30B) aufnehmen kann; und einen Controller (22), der mit der GUI (24) elektrisch verbunden ist, wobei die GUI (24) dem Benutzer einen Programmierzugriff auf den Controller (22) bereitstellt; wobei der Controller (22) ausgelegt ist, um die Vielzahl von Robotergelenken (A, B, C, D, E, F) unter Verwendung einer impedanzbasierten Steuerungsgrundstruktur zu steuern, wobei die Grundstruktur eine Steuerung des humanoiden Roboters (10) auf Objektebene und/oder auf Greiforganebene und/oder auf Gelenkraumebene in Ansprechen auf das Eingabesignal (iC) bereitstellt; und wobei der Controller (22) ferner ausgelegt ist, um zwischen einem Positionssteuerungsmodus und einem Kraftsteuerungsmodus, wenn der Benutzer die externe Referenzkraft über die GUI (24) bereitstellt, und zwischen dem Anwenden einer Impedanzsteuerung auf der Objektebene oder der Greiforganebene oder der Gelenkebene umzuschalten, wenn der Benutzer eine gewünschte Kombination von Greiforganen über die GUI (24) wählt.
  2. System (11) nach Anspruch 1, wobei die GUI (24) sowohl einen kartesischen Raum von Eingaben als auch einen Gelenkraum von Eingaben sowohl für einen linksseitigen Knoten als auch einen rechtsseitigen Knoten des humanoiden Roboters (10) grafisch anzeigt.
  3. System (11) nach Anspruch 1, wobei der Controller (22) ausgelegt ist, einen vorbestimmten Satz von internen Kräften des humanoiden Roboters (10) in der Steuerung auf Objektebene zu parametrieren, um dadurch mehrere Grifftypen in Echtzeit zu ermöglichen, wobei die mehreren Grifftypen zumindest einen Grifftyp mit starrem Kontakt und einen Grifftyp mit Punktkontakt umfassen.
  4. System (11) nach Anspruch 1, wobei das Eingabesignal (iC) auch eine qualitative Impedanzebene beschreibt, und wobei der Controller (22) ausgelegt ist, um die Vielzahl von Robotergelenken (A, B, C, D, E, F) mit der qualitativen Impedanzebene zu steuern.
  5. System (11) nach Anspruch 1, wobei die GUI (24) eine funktionsbasierte Einrichtung ist, die einen Satz intuitiver Eingaben und eine interpretierende Logikschicht verwendet, um alle Gelenke (A, B, C, D, E, F) in dem humanoiden Roboter (10) mit einem Satz von Impedanzbefehlen für zumindest eine der Objekt-, der Greiforgan- und der Gelenkraumebenen zu befehlen.
  6. System (11) nach Anspruch 1, wobei der Controller (22) ausgelegt ist, um eine hybride Kraft- und Positionssteuerung im kartesischen Raum auszuführen, indem er Kraft- und Positionsrichtungen in Ansprechen auf die gewünschte Eingabekraft automatisch entkoppelt.
  7. Controller (22) für ein Robotersystem (11), wobei das System (11) einen humanoiden Roboter (10) mit einer Vielzahl von Robotergelenken (A, B, C, D, E, F), die zur Kraftsteuerung mit Bezug auf ein Objekt (20), auf das von dem humanoiden Roboter (10) eingewirkt wird, und eine graphische Benutzerschnittstelle (GUI) (24) umfasst, die mit dem Controller (22) elektrisch verbunden ist, wobei die GUI (24) ausgelegt ist, um ein Eingabesignal (iC) von einem Benutzer zu empfangen, wobei der Controller (22) umfasst: eine Hostmaschine (17); und einen Algorithmus (100), der von der Hostmaschine (17) ausgeführt werden kann und ausgelegt ist, um die Vielzahl von Gelenken (A, B, C, D, E, F) unter Verwendung einer impedanzbasierten Steuerungsgrundstruktur zu steuern; wobei eine Ausführung des Algorithmus (100) eine Steuerung des humanoiden Roboters (10) auf Objektebene, auf Greiforganebene und/oder auf Gelenkraumebene in Ansprechen auf das Eingabesignal (iC) in die GUI (24) bereitstellt, wobei das Eingabesignal (iC) zumindest eine externe Referenzkraft in der Form einer gewünschten Eingabekraft umfasst, die auf das Objekt (20) ausgeübt werden soll; wobei der Controller (22) ausgelegt ist, um zwischen einem Positionssteuerungsmodus und einem Kraftsteuerungsmodus, wenn der Benutzer die externe Referenzkraft über die GUI (24) bereitstellt, und zwischen dem Anwenden einer Impedanzsteuerung auf der Objektebene oder der Greiforganebene oder der Gelenkebene umzuschalten, wenn der Benutzer eine gewünschte Kombination von Greiforganen über die GUI (24) wählt.
  8. Controller (22) nach Anspruch 7, wobei der Algorithmus (100) ausgelegt ist, um eine Logikzwischenschicht auszuführen, um das über die GUI (24) eingegebene Eingabesignal (iC) zu entschlüsseln.
  9. Controller (22) nach Anspruch 7, wobei der Algorithmus (100) ausgelegt ist, um eine Kraftrichtung von einer Positionssteuerungsrichtung des humanoiden Roboters (10) automatisch zu entkoppeln, wenn der Benutzer die gewünschte Eingabekraft eingibt, und wobei die Positionssteuerungsrichtung während einer Ausführung des Algorithmus (100) automatisch orthogonal in einen Nullraum projiziert wird.
  10. Controller (22) nach Anspruch 7, wobei der Algorithmus (100) ausgelegt ist, um einen vorbestimmten Satz interner Kräfte des humanoiden Roboters (10) bei einer Steuerung auf Objektebene zu parametrieren, um dadurch mehrere Grifftypen zu ermöglichen, wobei die mehreren Grifftypen mindestens einen Grifftyp mit starrem Kontakt und einen Grifftyp mit Punktkontakt umfassen.
  11. Controller (22) nach Anspruch 7, wobei die Hostmaschine ausgelegt ist, um eine qualitative Impedanzebene aufzuzeichnen, die von dem Benutzer in die GUI eingegeben (24) wird, und um die qualitative Impedanzebene auf die Vielzahl von Robotergelenken (A, B, C, D, E, F) anzuwenden.
  12. Controller (22) nach Anspruch 7, wobei der Controller (22) ausgelegt ist, um eine Positionsnachführeinrichtung zweiter Ordnung auf die Positionssteuerungsrichtungen anzuwenden, während er eine Kraftnachführeinrichtung zweiter Ordnung auf die Kraftsteuerungsrichtungen anwendet.
  13. Controller (22) nach Anspruch 7, wobei der Benutzer die gewünschten zu aktivierenden Greiforgane des Roboters (10) wählt, und wobei der Controller (22) eine lineare und eine rotatorische Jacobimatrix für jedes Greiforgan in Ansprechen darauf erzeugt.
  14. Verfahren zur Steuerung eines Robotersystems (11), wobei das System einen humanoiden Roboter (10) mit einer Vielzahl von Gelenken (A, B, C, D, E, F), die zum Ausüben einer Kraft auf ein Objekt (20) ausgelegt sind, einen Controller (22) und eine graphische Benutzerschnittstelle (GUI) (24) umfasst, die mit dem Controller (22) elektrisch verbunden ist und ausgelegt ist, um ein Eingabesignal (iC) zu empfangen, wobei das Verfahren umfasst, dass: das Eingabesignal (iC) über die GUI (24) empfangen wird; und das Eingabesignal (iC) unter Verwendung einer Hostmaschine (17) verarbeitet wird, um die Vielzahl von Gelenken (A, B, C, D, E, F) zu steuern; wobei das Verarbeiten des Eingabesignals (iC) umfasst, dass eine impedanzbasierte Steuerungsgrundstruktur verwendet wird, um eine Steuerung des humanoiden Roboters (10) auf Objektebene, auf Greiforganebene und auf Gelenkraumebene bereitzustellen.
  15. Verfahren nach Anspruch 14, wobei das Eingabesignal (iC) eine gewünschte auf das Objekt (20) aufgebrachte Eingabekraft ist, und wobei das Verarbeiten des Eingabesignals (iC) umfasst, dass: eine Kraftsteuerungsrichtung und eine Positionssteuerungsrichtung automatisch entkoppelt werden, wenn der Benutzer die gewünschte Eingabekraft über die GUI (24) eingibt, und die Positionssteuerungsrichtung orthogonal in einen Nullraum projiziert wird.
  16. Verfahren nach Anspruch 14, das ferner umfasst, dass: die Hostmaschine (17) verwendet wird, um eine Positionsnachführeinrichtung zweiter Ordnung auf die Positionssteuerungsrichtung und eine Kraftnachführeinrichtung zweiter Ordnung auf die Kraftsteuerungsrichtung anzuwenden.
  17. Verfahren nach Anspruch 14, das ferner umfasst, dass: ein vorbestimmter Satz interner Kräfte des humanoiden Roboters (10) bei einer Steuerung auf Objektebene parametriert wird, um dadurch mehrere Grifftypen in Echtzeit zu ermöglichen, welche zumindest einen Grifftyp mit starrem Kontakt und einen Grifftyp mit Punktkontakt umfassen.
  18. Verfahren nach Anspruch 14, das ferner umfasst, dass: automatisch zwischen einem Positionssteuerungsmodus und einem Kraftsteuerungsmodus, wenn der Benutzer die gewünschte Eingabekraft über die GUI (24) bereitstellt, und zwischen einer Impedanzsteuerung auf der Objekt- oder der Greiforgan- oder der Gelenkebene umgeschaltet wird, wenn der Benutzer eine gewünschte Kombination von Greiforganen des humanoiden Roboters (10) über die GUI (24) wählt.
DE102010018438.1A 2009-04-30 2010-04-27 Verfahren und Vorrichtung zur automatischen Steuerung eines humanoiden Roboters Active DE102010018438B4 (de)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US17431609P 2009-04-30 2009-04-30
US61/174,316 2009-04-30
US12/624,445 US8364314B2 (en) 2009-04-30 2009-11-24 Method and apparatus for automatic control of a humanoid robot
US12/624,445 2009-11-24

Publications (2)

Publication Number Publication Date
DE102010018438A1 DE102010018438A1 (de) 2011-01-13
DE102010018438B4 true DE102010018438B4 (de) 2015-06-11

Family

ID=43030719

Family Applications (5)

Application Number Title Priority Date Filing Date
DE102010018440.3A Expired - Fee Related DE102010018440B4 (de) 2009-04-30 2010-04-27 Hierarchisches Robotersteuerungssystem und -Verfahren zum Steuern ausgewählter Freiheitsgrade eines Objekts unter Verwendung mehrerer Manipulatoren
DE102010018438.1A Active DE102010018438B4 (de) 2009-04-30 2010-04-27 Verfahren und Vorrichtung zur automatischen Steuerung eines humanoiden Roboters
DE201010018759 Active DE102010018759B4 (de) 2009-04-30 2010-04-29 Spannungsverteilung in einem sehnengetriebenen Roboterfinger
DE102010018746.1A Expired - Fee Related DE102010018746B4 (de) 2009-04-30 2010-04-29 Momentensteuerung von unteraktuierten sehnengetriebenen Roboterfingern
DE102010018854.9A Expired - Fee Related DE102010018854B4 (de) 2009-04-30 2010-04-30 Elektrischer Verbinder und elektrische Verbinderbaueinheit

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE102010018440.3A Expired - Fee Related DE102010018440B4 (de) 2009-04-30 2010-04-27 Hierarchisches Robotersteuerungssystem und -Verfahren zum Steuern ausgewählter Freiheitsgrade eines Objekts unter Verwendung mehrerer Manipulatoren

Family Applications After (3)

Application Number Title Priority Date Filing Date
DE201010018759 Active DE102010018759B4 (de) 2009-04-30 2010-04-29 Spannungsverteilung in einem sehnengetriebenen Roboterfinger
DE102010018746.1A Expired - Fee Related DE102010018746B4 (de) 2009-04-30 2010-04-29 Momentensteuerung von unteraktuierten sehnengetriebenen Roboterfingern
DE102010018854.9A Expired - Fee Related DE102010018854B4 (de) 2009-04-30 2010-04-30 Elektrischer Verbinder und elektrische Verbinderbaueinheit

Country Status (4)

Country Link
US (5) US8364314B2 (de)
JP (2) JP5180989B2 (de)
CN (5) CN101947787B (de)
DE (5) DE102010018440B4 (de)

Families Citing this family (104)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9517106B2 (en) * 1999-09-17 2016-12-13 Intuitive Surgical Operations, Inc. Systems and methods for commanded reconfiguration of a surgical manipulator using the null-space
DE602005005306T2 (de) * 2005-05-31 2009-05-07 Honda Research Institute Europe Gmbh Steuerung der Bahn eines Greifers
US20090248200A1 (en) * 2007-10-22 2009-10-01 North End Technologies Method & apparatus for remotely operating a robotic device linked to a communications network
US8232888B2 (en) * 2007-10-25 2012-07-31 Strata Proximity Systems, Llc Interactive magnetic marker field for safety systems and complex proximity warning system
US8483880B2 (en) * 2009-07-22 2013-07-09 The Shadow Robot Company Limited Robotic hand
KR20110016521A (ko) * 2009-08-12 2011-02-18 삼성전자주식회사 인간형 로봇의 전신 동작 제어 장치 및 그 방법
US8412378B2 (en) * 2009-12-02 2013-04-02 GM Global Technology Operations LLC In-vivo tension calibration in tendon-driven manipulators
US8731714B2 (en) * 2010-09-22 2014-05-20 GM Global Technology Operations LLC Concurrent path planning with one or more humanoid robots
US9101379B2 (en) 2010-11-12 2015-08-11 Intuitive Surgical Operations, Inc. Tension control in actuation of multi-joint medical instruments
US9566710B2 (en) 2011-06-02 2017-02-14 Brain Corporation Apparatus and methods for operating robotic devices using selective state space training
CN102377050A (zh) * 2011-06-17 2012-03-14 西南交通大学 一种电器接插件
CN103718120A (zh) * 2011-07-27 2014-04-09 Abb技术有限公司 用于命令机器人的***
US9067319B2 (en) * 2011-08-11 2015-06-30 GM Global Technology Operations LLC Fast grasp contact computation for a serial robot
US8776632B2 (en) * 2011-08-19 2014-07-15 GM Global Technology Operations LLC Low-stroke actuation for a serial robot
US8874262B2 (en) * 2011-09-27 2014-10-28 Disney Enterprises, Inc. Operational space control of rigid-body dynamical systems including humanoid robots
KR101941844B1 (ko) * 2012-01-10 2019-04-11 삼성전자주식회사 로봇 및 그 제어방법
JP5930753B2 (ja) * 2012-02-13 2016-06-08 キヤノン株式会社 ロボット装置の制御方法及びロボット装置
US9067325B2 (en) 2012-02-29 2015-06-30 GM Global Technology Operations LLC Human grasp assist device soft goods
US8849453B2 (en) 2012-02-29 2014-09-30 GM Global Technology Operations LLC Human grasp assist device with exoskeleton
US9120220B2 (en) 2012-02-29 2015-09-01 GM Global Technology Operations LLC Control of a glove-based grasp assist device
CN102591306B (zh) * 2012-03-08 2013-07-10 南京埃斯顿机器人工程有限公司 双***组件式的工业机器人控制器
EP2854690B1 (de) 2012-06-01 2020-04-01 Intuitive Surgical Operations, Inc. Systeme zur gesteuerten rekonfiguration eines chirurgischen manipulators mit nullraumausnutzung
US9149933B2 (en) * 2013-02-07 2015-10-06 GM Global Technology Operations LLC Grasp assist device with shared tendon actuator assembly
JP5942311B2 (ja) * 2013-02-25 2016-06-29 パナソニックIpマネジメント株式会社 ロボット、ロボットの制御装置及び制御方法、並びに、ロボット用制御プログラム
US9031691B2 (en) * 2013-03-04 2015-05-12 Disney Enterprises, Inc. Systemic derivation of simplified dynamics for humanoid robots
EP2969404B1 (de) * 2013-03-15 2021-08-11 Intuitive Surgical Operations, Inc. Systeme zur verwendung des nullraums zur anisotropen betonung einer manipulatorgelenkbewegung
US9764468B2 (en) 2013-03-15 2017-09-19 Brain Corporation Adaptive predictor apparatus and methods
US9242372B2 (en) * 2013-05-31 2016-01-26 Brain Corporation Adaptive robotic interface apparatus and methods
KR20160018755A (ko) 2013-06-11 2016-02-17 소마티스 센서 솔루션즈, 엘엘씨 물체를 감지하기 위한 시스템 및 방법
US9792546B2 (en) 2013-06-14 2017-10-17 Brain Corporation Hierarchical robotic controller apparatus and methods
US9384443B2 (en) 2013-06-14 2016-07-05 Brain Corporation Robotic training apparatus and methods
US9314924B1 (en) 2013-06-14 2016-04-19 Brain Corporation Predictive robotic controller apparatus and methods
DE102013010290A1 (de) 2013-06-19 2014-12-24 Kuka Laboratories Gmbh Überwachen eines kinematisch redundanten Roboters
US9579789B2 (en) 2013-09-27 2017-02-28 Brain Corporation Apparatus and methods for training of robotic control arbitration
US9597797B2 (en) 2013-11-01 2017-03-21 Brain Corporation Apparatus and methods for haptic training of robots
CN103640639B (zh) * 2013-11-20 2015-12-02 浙江大学宁波理工学院 一种欠驱动行走机器人
KR101510009B1 (ko) * 2013-12-17 2015-04-07 현대자동차주식회사 착용식 로봇의 구동 장치
DE102013227147A1 (de) * 2013-12-23 2015-06-25 Daimler Ag Verfahren zum automatisierten Drehfügen und/oder Drehlösenvon Bauteilen, sowie zugehöriger Industrieroboter und automatisierterMontagearbeitsplatz
FR3016542B1 (fr) * 2014-01-22 2019-04-19 Aldebaran Robotics Actionnement d'une main destinee a equiper un robot a caractere humanoide
FR3016543A1 (fr) * 2014-01-22 2015-07-24 Aldebaran Robotics Main destinee a equiper un robot a caractere humanoide a doigts ameliores
US9358685B2 (en) 2014-02-03 2016-06-07 Brain Corporation Apparatus and methods for control of robot actions based on corrective user inputs
US10231859B1 (en) * 2014-05-01 2019-03-19 Boston Dynamics, Inc. Brace system
US9283676B2 (en) * 2014-06-20 2016-03-15 GM Global Technology Operations LLC Real-time robotic grasp planning
CN104139811B (zh) * 2014-07-18 2016-04-13 华中科技大学 一种欠驱动的仿生四足机器人
US9815206B2 (en) * 2014-09-25 2017-11-14 The Johns Hopkins University Surgical system user interface using cooperatively-controlled robot
US9630318B2 (en) 2014-10-02 2017-04-25 Brain Corporation Feature detection apparatus and methods for training of robotic navigation
DE102014224122B4 (de) * 2014-11-26 2018-10-25 Siemens Healthcare Gmbh Verfahren zum Betreiben eines robotischen Gerätes und robotisches Gerät
JP6630042B2 (ja) 2014-12-26 2020-01-15 川崎重工業株式会社 双腕ロボットの教示システム及び双腕ロボットの教示方法
TWI549666B (zh) * 2015-01-05 2016-09-21 國立清華大學 具有測量僵硬程度的功能之復健系統
JP6468871B2 (ja) * 2015-02-03 2019-02-13 キヤノン株式会社 ロボットハンド制御方法及びロボット装置
CN107208714B (zh) 2015-02-25 2020-04-28 索科普哈应用研究产品商业化公司基因科学Sec 具有磁流变流体离合器装置的缆绳驱动***
US9717387B1 (en) 2015-02-26 2017-08-01 Brain Corporation Apparatus and methods for programming and training of robotic household appliances
DE102015106227B3 (de) 2015-04-22 2016-05-19 Deutsches Zentrum für Luft- und Raumfahrt e.V. Steuern und/oder Regeln von Motoren eines Roboters
US9844886B2 (en) 2015-06-09 2017-12-19 Timothy R. Beevers Tendon systems for robots
WO2017052060A1 (ko) * 2015-09-21 2017-03-30 주식회사 레인보우 계층적 아키텍처를 갖는 실시간 디바이스 제어 시스템 및 이를 이용한 실시간 로봇 제어 시스템
KR102235166B1 (ko) 2015-09-21 2021-04-02 주식회사 레인보우로보틱스 실시간 로봇 시스템, 로봇 시스템 제어 장치 및 로봇 시스템 제어 방법
FR3042901B1 (fr) * 2015-10-23 2017-12-15 Commissariat Energie Atomique Dispositif de declenchement et d'insertion d'elements absorbants et/ou mitigateurs d'un reacteur nucleaire mettant en œuvre des elements flexibles et assemblage de combustible nucleaire comportant un tel dispositif
JP6348097B2 (ja) * 2015-11-30 2018-06-27 ファナック株式会社 ワーク位置姿勢算出装置およびハンドリングシステム
JP6710946B2 (ja) * 2015-12-01 2020-06-17 セイコーエプソン株式会社 制御装置、ロボットおよびロボットシステム
US9669543B1 (en) 2015-12-11 2017-06-06 Amazon Technologies, Inc. Validation of robotic item grasping
CN105690388B (zh) * 2016-04-05 2017-12-08 南京航空航天大学 一种腱驱动机械手腱张力约束阻抗控制方法及装置
US10241514B2 (en) 2016-05-11 2019-03-26 Brain Corporation Systems and methods for initializing a robot to autonomously travel a trained route
US9987752B2 (en) 2016-06-10 2018-06-05 Brain Corporation Systems and methods for automatic detection of spills
US10282849B2 (en) 2016-06-17 2019-05-07 Brain Corporation Systems and methods for predictive/reconstructive visual object tracker
US20190229461A1 (en) * 2016-06-24 2019-07-25 Molex, Llc Power connector with terminal
US10016896B2 (en) 2016-06-30 2018-07-10 Brain Corporation Systems and methods for robotic behavior around moving bodies
CN106313076A (zh) * 2016-10-31 2017-01-11 河池学院 一种可充电教育机器人
US10274325B2 (en) 2016-11-01 2019-04-30 Brain Corporation Systems and methods for robotic mapping
US10001780B2 (en) 2016-11-02 2018-06-19 Brain Corporation Systems and methods for dynamic route planning in autonomous navigation
CN106598056B (zh) * 2016-11-23 2019-05-17 中国人民解放军空军工程大学 一种提升固定翼飞机隐身性能的舵面优先级调节方法
US10723018B2 (en) 2016-11-28 2020-07-28 Brain Corporation Systems and methods for remote operating and/or monitoring of a robot
US10377040B2 (en) 2017-02-02 2019-08-13 Brain Corporation Systems and methods for assisting a robotic apparatus
US10852730B2 (en) 2017-02-08 2020-12-01 Brain Corporation Systems and methods for robotic mobile platforms
CN106826885B (zh) * 2017-03-15 2023-04-04 天津大学 一种变刚度欠驱动的机器人灵巧手手指
CN111246977A (zh) * 2017-03-30 2020-06-05 软机器人公司 用户辅助型机器人控制***
US10293485B2 (en) 2017-03-30 2019-05-21 Brain Corporation Systems and methods for robotic path planning
CN107030694A (zh) * 2017-04-20 2017-08-11 南京航空航天大学 腱驱动机械手腱张力约束末端力位操作控制方法和装置
US10406685B1 (en) * 2017-04-20 2019-09-10 X Development Llc Robot end effector control
EP3638465A4 (de) 2017-06-15 2021-07-07 OnRobot A/S Systeme, vorrichtungen und verfahren zur erfassung von orten und kräften
US10247751B2 (en) 2017-06-19 2019-04-02 GM Global Technology Operations LLC Systems, devices, and methods for calculating an internal load of a component
USD829249S1 (en) * 2017-07-11 2018-09-25 Intel Corporation Robotic finger
JP6545768B2 (ja) * 2017-10-02 2019-07-17 スキューズ株式会社 指機構、ロボットハンド及びロボットハンドの制御方法
CN107703813A (zh) * 2017-10-27 2018-02-16 安徽硕威智能科技有限公司 一种基于可编程卡片驱动的卡片机器人及其控制***
US10682774B2 (en) 2017-12-12 2020-06-16 X Development Llc Sensorized robotic gripping device
US10792809B2 (en) * 2017-12-12 2020-10-06 X Development Llc Robot grip detection using non-contact sensors
USD838759S1 (en) * 2018-02-07 2019-01-22 Mainspring Home Decor, Llc Combination robot clock and device holder
CN112823083A (zh) * 2018-11-05 2021-05-18 得麦股份有限公司 可配置和交互式的机器人***
CN109591013B (zh) * 2018-12-12 2021-02-12 山东大学 一种柔性装配仿真***及其实现方法
US11787050B1 (en) 2019-01-01 2023-10-17 Sanctuary Cognitive Systems Corporation Artificial intelligence-actuated robot
US11312012B2 (en) 2019-01-01 2022-04-26 Giant Ai, Inc. Software compensated robotics
DE102019117217B3 (de) * 2019-06-26 2020-08-20 Franka Emika Gmbh Verfahren zum Vorgeben eines Eingabewerts an einem Robotermanipulator
US11117267B2 (en) 2019-08-16 2021-09-14 Google Llc Robotic apparatus for operating on fixed frames
CN111216130B (zh) * 2020-01-10 2021-04-20 电子科技大学 一种基于变化阻抗控制的不确定机器人自适应控制方法
US11530052B1 (en) 2020-02-17 2022-12-20 Amazon Technologies, Inc. Systems and methods for automated ground handling of aerial vehicles
US11597092B1 (en) 2020-03-26 2023-03-07 Amazon Technologies, Ine. End-of-arm tool with a load cell
CN111687834B (zh) * 2020-04-30 2023-06-02 广西科技大学 移动机械手冗余机械臂逆优先级阻抗控制***及控制方法
CN111687833B (zh) * 2020-04-30 2023-06-02 广西科技大学 机械手逆优先级阻抗控制***及控制方法
CN111687832B (zh) * 2020-04-30 2023-06-02 广西科技大学 空间机械手冗余机械臂逆优先级阻抗控制***及控制方法
CN111687835B (zh) * 2020-04-30 2023-06-02 广西科技大学 水下机械手冗余机械臂逆优先级阻抗控制***及控制方法
DE112021003199A5 (de) * 2020-06-10 2023-05-11 Deutsches Zentrum für Luft- und Raumfahrt e.V. Verfahren und Computerprogrammprodukt zum Regeln eines Roboters
US11534924B1 (en) 2020-07-21 2022-12-27 Amazon Technologies, Inc. Systems and methods for generating models for automated handling of vehicles
US11534915B1 (en) 2020-08-05 2022-12-27 Amazon Technologies, Inc. Determining vehicle integrity based on observed behavior during predetermined manipulations
WO2022072887A1 (en) * 2020-10-02 2022-04-07 Building Machines, Inc. Systems and methods for precise and dynamic positioning over volumes
WO2024087108A1 (en) * 2022-10-27 2024-05-02 Shanghai Flexiv Robotics Technology Co., Ltd. Robot system and color control method

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050125099A1 (en) * 2003-10-24 2005-06-09 Tatsuo Mikami Motion editing apparatus and method for robot device, and computer program
DE10354642A1 (de) * 2003-11-22 2005-06-16 Bayerische Motoren Werke Ag Vorrichtung und Verfahren zum Programmieren eines Industrieroboters
US6918622B2 (en) * 2001-11-09 2005-07-19 Korea Institute Of Science And Technology Robot hand and robot hand finger
US7113849B2 (en) * 1999-09-20 2006-09-26 Sony Corporation Ambulation control apparatus and ambulation control method of robot
US20070010913A1 (en) * 2005-07-05 2007-01-11 Atsushi Miyamoto Motion editing apparatus and motion editing method for robot, computer program and robot apparatus
US7747351B2 (en) * 2007-06-27 2010-06-29 Panasonic Corporation Apparatus and method for controlling robot arm, and robot and program

Family Cites Families (61)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2502634A (en) * 1947-05-22 1950-04-04 Ohio Brass Co Electric connector
DE1041559B (de) 1954-08-05 1958-10-23 Max Frost Steckvorrichtung zur Verbindung elektrischer Leitungen
FR1247634A (fr) 1960-02-04 1960-12-02 Cemel Soc Contacts par pinces pour connexion électrique
US3694021A (en) * 1970-07-31 1972-09-26 James F Mullen Mechanical hand
DE2047911A1 (en) 1970-09-29 1972-04-13 Sel Annular silicone rubber spring - for electric communications plug contact
US3845459A (en) * 1973-02-27 1974-10-29 Bendix Corp Dielectric sleeve for electrically and mechanically protecting exposed female contacts of an electrical connector
US4246661A (en) * 1979-03-15 1981-01-27 The Boeing Company Digitally-controlled artificial hand
US4921293A (en) * 1982-04-02 1990-05-01 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Multi-fingered robotic hand
US4834761A (en) * 1985-05-09 1989-05-30 Walters David A Robotic multiple-jointed digit control system
US4860215A (en) * 1987-04-06 1989-08-22 California Institute Of Technology Method and apparatus for adaptive force and position control of manipulators
US4821207A (en) * 1987-04-28 1989-04-11 Ford Motor Company Automated curvilinear path interpolation for industrial robots
US4865376A (en) * 1987-09-25 1989-09-12 Leaver Scott O Mechanical fingers for dexterity and grasping
US4957320A (en) * 1988-08-31 1990-09-18 Trustees Of The University Of Pennsylvania Methods and apparatus for mechanically intelligent grasping
US5062673A (en) * 1988-12-28 1991-11-05 Kabushiki Kaisha Toyota Chuo Kenkyusho Articulated hand
US5303384A (en) * 1990-01-02 1994-04-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration High level language-based robotic control system
US5200679A (en) * 1990-02-22 1993-04-06 Graham Douglas F Artificial hand and digit therefor
JPH04178708A (ja) 1990-11-13 1992-06-25 Fujitsu Ltd ロボット制御装置
US5133216A (en) * 1990-11-14 1992-07-28 Bridges Robert H Manipulator integral force sensor
JPH0712596B2 (ja) * 1991-03-28 1995-02-15 工業技術院長 ロボットア―ムのワイヤ―干渉駆動方式
US5197908A (en) 1991-11-29 1993-03-30 Gunnar Nelson Connector
US5737500A (en) * 1992-03-11 1998-04-07 California Institute Of Technology Mobile dexterous siren degree of freedom robot arm with real-time control system
US5499320A (en) * 1993-03-24 1996-03-12 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Extended task space control for robotic manipulators
JP3350687B2 (ja) 1993-06-30 2002-11-25 日立建機株式会社 ロボット制御方法およびロボット制御装置
JPH08293346A (ja) * 1995-04-18 1996-11-05 Whitaker Corp:The 電気コネクタ及びコネクタ組立体
US5650704A (en) * 1995-06-29 1997-07-22 Massachusetts Institute Of Technology Elastic actuator for precise force control
US5762390A (en) * 1996-07-16 1998-06-09 Universite Laval Underactuated mechanical finger with return actuation
JPH10154540A (ja) * 1996-11-25 1998-06-09 Amp Japan Ltd 電気コネクタ及びそれを使用した電気コネクタ組立体
US6247738B1 (en) * 1998-01-20 2001-06-19 Daum Gmbh Robot hand
US6435794B1 (en) * 1998-11-18 2002-08-20 Scott L. Springer Force display master interface device for teleoperation
JP3486639B2 (ja) * 1999-10-26 2004-01-13 株式会社テムザック マニピュレータ
US7699835B2 (en) * 2001-02-15 2010-04-20 Hansen Medical, Inc. Robotically controlled surgical instruments
US6456901B1 (en) * 2001-04-20 2002-09-24 Univ Michigan Hybrid robot motion task level control system
US6951465B2 (en) 2002-01-15 2005-10-04 Tribotek, Inc. Multiple-contact woven power connectors
JP2003256203A (ja) * 2002-03-01 2003-09-10 Mitsubishi Electric Corp 自動機アプリケーションプログラム開発システム、プログラム開発方法、この方法を実行するプログラム、及びこのプログラムを記憶した記憶媒体
AU2003218010A1 (en) * 2002-03-06 2003-09-22 Z-Kat, Inc. System and method for using a haptic device in combination with a computer-assisted surgery system
JP2003274374A (ja) * 2002-03-18 2003-09-26 Sony Corp 画像伝送装置及び方法、送信装置及び方法、受信装置及び方法、並びにロボット装置
DE10235943A1 (de) * 2002-08-06 2004-02-19 Kuka Roboter Gmbh Verfahren und Vorrichtung zum synchronen Steuern von Handhabungsgeräten
JP4007279B2 (ja) 2003-08-07 2007-11-14 住友電装株式会社 雌端子金具
WO2005028166A1 (ja) * 2003-09-22 2005-03-31 Matsushita Electric Industrial Co., Ltd. 弾性体アクチュエータの制御装置及び制御方法
US7341295B1 (en) * 2004-01-14 2008-03-11 Ada Technologies, Inc. Prehensor device and improvements of same
CN1304178C (zh) * 2004-05-24 2007-03-14 熊勇刚 一种多机械臂机器人关节间的碰撞检测方法
JP2006159320A (ja) * 2004-12-03 2006-06-22 Sharp Corp ロボットハンド
US20060277466A1 (en) * 2005-05-13 2006-12-07 Anderson Thomas G Bimodal user interaction with a simulated object
JP2007075929A (ja) 2005-09-13 2007-03-29 Mie Univ 多指ロボットハンドの制御方法
US7383100B2 (en) * 2005-09-29 2008-06-03 Honda Motor Co., Ltd. Extensible task engine framework for humanoid robots
CN2862386Y (zh) * 2005-12-22 2007-01-24 番禺得意精密电子工业有限公司 电连接器
EP1815949A1 (de) * 2006-02-03 2007-08-08 The European Atomic Energy Community (EURATOM), represented by the European Commission Medizinisches Robotersystem mit einem Manipulatorarm mit zylindrischer Kinematik
US7377809B2 (en) 2006-04-14 2008-05-27 Extreme Broadband Engineering, Llc Coaxial connector with maximized surface contact and method
JP4395180B2 (ja) * 2006-09-05 2010-01-06 イヴァン ゴドレール 運動変換装置
US8231158B2 (en) * 2006-11-03 2012-07-31 President And Fellows Of Harvard College Robust compliant adaptive grasper and method of manufacturing same
CN200974246Y (zh) * 2006-11-23 2007-11-14 华南理工大学 基于非正则反馈回路的欠驱动机器人控制***
CN100439048C (zh) * 2007-01-26 2008-12-03 清华大学 机器人拟人手欠驱动多指装置
CN201038406Y (zh) * 2007-04-11 2008-03-19 凡甲科技股份有限公司 电源连接器的端子结构
US8560118B2 (en) * 2007-04-16 2013-10-15 Neuroarm Surgical Ltd. Methods, devices, and systems for non-mechanically restricting and/or programming movement of a tool of a manipulator along a single axis
CN101190528A (zh) * 2007-12-12 2008-06-04 哈尔滨工业大学 欠驱动耦合传动式仿人手指机构
CN101332604B (zh) * 2008-06-20 2010-06-09 哈尔滨工业大学 人机相互作用机械臂的控制方法
KR101549818B1 (ko) * 2008-12-02 2015-09-07 삼성전자 주식회사 로봇 핸드 및 그 제어방법
US8060250B2 (en) * 2008-12-15 2011-11-15 GM Global Technology Operations LLC Joint-space impedance control for tendon-driven manipulators
US8052185B2 (en) * 2009-04-09 2011-11-08 Disney Enterprises, Inc. Robot hand with humanoid fingers
US8424941B2 (en) * 2009-09-22 2013-04-23 GM Global Technology Operations LLC Robotic thumb assembly
US8260460B2 (en) * 2009-09-22 2012-09-04 GM Global Technology Operations LLC Interactive robot control system and method of use

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7113849B2 (en) * 1999-09-20 2006-09-26 Sony Corporation Ambulation control apparatus and ambulation control method of robot
US6918622B2 (en) * 2001-11-09 2005-07-19 Korea Institute Of Science And Technology Robot hand and robot hand finger
US20050125099A1 (en) * 2003-10-24 2005-06-09 Tatsuo Mikami Motion editing apparatus and method for robot device, and computer program
DE10354642A1 (de) * 2003-11-22 2005-06-16 Bayerische Motoren Werke Ag Vorrichtung und Verfahren zum Programmieren eines Industrieroboters
US20070010913A1 (en) * 2005-07-05 2007-01-11 Atsushi Miyamoto Motion editing apparatus and motion editing method for robot, computer program and robot apparatus
US7747351B2 (en) * 2007-06-27 2010-06-29 Panasonic Corporation Apparatus and method for controlling robot arm, and robot and program

Also Published As

Publication number Publication date
DE102010018440A1 (de) 2010-12-16
DE102010018746A1 (de) 2011-01-05
US20100279524A1 (en) 2010-11-04
US8483882B2 (en) 2013-07-09
CN102145489A (zh) 2011-08-10
DE102010018438A1 (de) 2011-01-13
JP2010260173A (ja) 2010-11-18
US20100280659A1 (en) 2010-11-04
CN101947786A (zh) 2011-01-19
CN102145489B (zh) 2014-07-16
JP5002035B2 (ja) 2012-08-15
US20100280662A1 (en) 2010-11-04
DE102010018746B4 (de) 2015-06-03
US8565918B2 (en) 2013-10-22
CN101947787A (zh) 2011-01-19
DE102010018440B4 (de) 2015-06-03
DE102010018854A1 (de) 2010-12-09
CN101947786B (zh) 2012-10-31
DE102010018854B4 (de) 2023-02-02
US8364314B2 (en) 2013-01-29
US20100280661A1 (en) 2010-11-04
JP5180989B2 (ja) 2013-04-10
JP2010262927A (ja) 2010-11-18
CN102029610B (zh) 2013-03-13
CN101976772A (zh) 2011-02-16
CN102029610A (zh) 2011-04-27
DE102010018759B4 (de) 2015-05-13
US20100280663A1 (en) 2010-11-04
DE102010018759A1 (de) 2011-01-13
US8033876B2 (en) 2011-10-11
US8412376B2 (en) 2013-04-02
CN101947787B (zh) 2012-12-05

Similar Documents

Publication Publication Date Title
DE102010018438B4 (de) Verfahren und Vorrichtung zur automatischen Steuerung eines humanoiden Roboters
DE102011110902B4 (de) Sicherer Betrieb eines Kraft- oder ImpedanzgesteuertenRoboters im Arbeitsraum
DE102010045528B4 (de) Gerüst und Verfahren zum Steuern eines Robotersystems unter Verwendung eines verteilten Rechnernetzwerks
EP2987592B1 (de) Verfahren zum programmieren eines industrieroboters und zugehöriger industrieroboter
DE102011113590B4 (de) Planen simultaner Pfade mit einem oder mehreren humanoiden Robotern
DE102009014074B4 (de) Roboter und Verfahren zum Steuern einer kooperativen Arbeit des Roboters
DE102012213957B4 (de) Schnelle Berechnung von Griffkontakten für einen seriellen Roboter
DE10392966B4 (de) Parallele haptische Joystick-Vorrichtung
DE102010045532B4 (de) Roboterdaumenanodnung
DE102010045525B4 (de) Handgelenk eines geschickten humanoiden Roboters
DE102011117094B4 (de) Robuster betrieb von sehnengetriebenen roboterfingern unter verwendung von kraft- und positionsbasierten steuergesetzen
DE102010045554B4 (de) Integriertes Hochgeschwindigkeitsdrehmomentregelsystem für ein Robotergelenk
DE102017202717A1 (de) Roboteranlernung per menschlicher demonstration von aufgaben mit kraft- und positionszielen
DE102010045529A1 (de) Interaktives Robotersteuerungssystem und Verwendungsverfahren
DE102015109646B4 (de) Planen des Greifens eines Roboters in Echtzeit
DE102011016113B4 (de) Verfahren und Vorrichtung zum Kalibrieren mehrachsiger Kraftaufnehmer in einem geschickten Roboter
DE102019134665B3 (de) Kalibrieren eines virtuellen Kraftsensors eines Robotermanipulators
Reis et al. Modeling and control of a multifingered robot hand for object grasping and manipulation tasks
DE102019220619B3 (de) Bewegen einer roboterfesten Referenz
O'Malley et al. Haptic feedback applications for Robonaut
Si et al. A novel robot skill learning framework based on bilateral teleoperation
Sena et al. Haptic bimanual system for teleoperation of time-delayed tasks
DE102015003941A1 (de) Steuern eines mobilen redundanten Roboters
Wormley et al. High dexterity robotics for safety and emergency response-17104
DE102021129897B4 (de) Modulare Robotervorrichtung und Verfahren zum Betreiben einer modularen Robotervorrichtung

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8127 New person/name/address of the applicant

Owner name: THE U.S.A. AS REPRESENTED BY THE ADMINISTRATOR, US

Owner name: GM GLOBAL TECHNOLOGY OPERATIONS LLC , ( N. D. , US

R081 Change of applicant/patentee

Owner name: THE U.S.A. AS REPRESENTED BY THE ADMINISTRATOR, US

Free format text: FORMER OWNERS: GM GLOBAL TECHNOLOGY OPERATIONS LLC (N. D. GESETZEN DES STAATES DELAWARE), DETROIT, MICH., US; THE U.S.A. AS REPRESENTED BY THE ADMINISTRATOR OF THE NATIONAL AERONAUTICS AND SPACE ADMINISTRATION, WASHINGTON, D.C., US

Effective date: 20110321

Owner name: GM GLOBAL TECHNOLOGY OPERATIONS LLC (N. D. GES, US

Free format text: FORMER OWNERS: GM GLOBAL TECHNOLOGY OPERATIONS LLC (N. D. GESETZEN DES STAATES DELAWARE), DETROIT, MICH., US; THE U.S.A. AS REPRESENTED BY THE ADMINISTRATOR OF THE NATIONAL AERONAUTICS AND SPACE ADMINISTRATION, WASHINGTON, D.C., US

Effective date: 20110321

Owner name: GM GLOBAL TECHNOLOGY OPERATIONS LLC (N. D. GES, US

Free format text: FORMER OWNER: GM GLOBAL TECHNOLOGY OPERATIONS, THE U.S.A. AS REPRESENTED BY TH, , US

Effective date: 20110321

Owner name: THE U.S.A. AS REPRESENTED BY THE ADMINISTRATOR, US

Free format text: FORMER OWNER: GM GLOBAL TECHNOLOGY OPERATIONS, THE U.S.A. AS REPRESENTED BY TH, , US

Effective date: 20110321

R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final