DE102010018438B4 - Verfahren und Vorrichtung zur automatischen Steuerung eines humanoiden Roboters - Google Patents
Verfahren und Vorrichtung zur automatischen Steuerung eines humanoiden Roboters Download PDFInfo
- Publication number
- DE102010018438B4 DE102010018438B4 DE102010018438.1A DE102010018438A DE102010018438B4 DE 102010018438 B4 DE102010018438 B4 DE 102010018438B4 DE 102010018438 A DE102010018438 A DE 102010018438A DE 102010018438 B4 DE102010018438 B4 DE 102010018438B4
- Authority
- DE
- Germany
- Prior art keywords
- control
- gui
- controller
- force
- robot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01R—ELECTRICALLY-CONDUCTIVE CONNECTIONS; STRUCTURAL ASSOCIATIONS OF A PLURALITY OF MUTUALLY-INSULATED ELECTRICAL CONNECTING ELEMENTS; COUPLING DEVICES; CURRENT COLLECTORS
- H01R13/00—Details of coupling devices of the kinds covered by groups H01R12/70 or H01R24/00 - H01R33/00
- H01R13/02—Contact members
- H01R13/15—Pins, blades or sockets having separate spring member for producing or increasing contact pressure
- H01R13/17—Pins, blades or sockets having separate spring member for producing or increasing contact pressure with spring member on the pin
-
- H—ELECTRICITY
- H01—ELECTRIC ELEMENTS
- H01R—ELECTRICALLY-CONDUCTIVE CONNECTIONS; STRUCTURAL ASSOCIATIONS OF A PLURALITY OF MUTUALLY-INSULATED ELECTRICAL CONNECTING ELEMENTS; COUPLING DEVICES; CURRENT COLLECTORS
- H01R13/00—Details of coupling devices of the kinds covered by groups H01R12/70 or H01R24/00 - H01R33/00
- H01R13/02—Contact members
- H01R13/04—Pins or blades for co-operation with sockets
- H01R13/05—Resilient pins or blades
- H01R13/052—Resilient pins or blades co-operating with sockets having a circular transverse section
-
- Y—GENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
- Y10—TECHNICAL SUBJECTS COVERED BY FORMER USPC
- Y10T—TECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
- Y10T29/00—Metal working
- Y10T29/49—Method of mechanical manufacture
- Y10T29/49002—Electrical device making
- Y10T29/49117—Conductor or circuit manufacturing
Landscapes
- Manipulator (AREA)
- Connector Housings Or Holding Contact Members (AREA)
- Details Of Connecting Devices For Male And Female Coupling (AREA)
Abstract
Description
- AUSSAGE HINSICHTLICH VON DER REGIERUNG GEFÖRDERTER FORSCHUNG ODER ENTWICKLUNG
- Diese Erfindung wurde mit Regierungsunterstützung unter dem NASA Space Act Agreement Nummer SAA-AT-07-003 durchgeführt. Der Regierung können einige Rechte an der Erfindung gehören.
- QUERVERWEIS AUF VERWANDTE ANMELDUNGEN
- Die vorliegende Anmeldung beansprucht den Nutzen und die Priorität der provisorischen US-Anmeldung mit der Nr. 61/174,316, die am 30. April 2009 eingereicht wurde.
- TECHNISCHES GEBIET
- Die vorliegende Erfindung betrifft ein System und ein Verfahren zum Steuern eines humanoiden Roboters, der eine Vielzahl von Gelenken und mehrere Freiheitsgrade aufweist.
- HINTERGRUND DER ERFINDUNG
- Roboter sind automatisierte Einrichtungen, die zum Manipulieren von Objekten unter Verwendung einer Reihe von Gliedern, welche wiederum über Robotergelenke miteinander verbunden sind, in der Lage sind. Jedes Gelenk in einem typischen Roboter stellt mindestens eine unabhängige Steuerungsvariable, d. h. einen Freiheitsgrad (DOF) bereit. Greiforgane sind die speziellen Glieder, die zum Ausführen einer vorliegenden Aufgabe verwendet werden, z. B. dem Greifen eines Arbeitswerkzeugs oder eines Objekts. Eine präzise Bewegungssteuerung des Roboters kann daher durch die Ebene der Taskspezifikation organisiert werden: eine Steuerung auf Objektebene, welche die Fähigkeit zur Steuerung des Verhaltens eines Objekts beschreibt, das in einem Einzel- oder zusammenwirkenden Griff eines Roboters gehalten wird, eine Greiforgansteuerung und eine Steuerung auf Gelenkebene. Die verschiedenen Steuerungsebenen erreichen gemeinsam die benötigte Mobilität, Geschicklichkeit und arbeitsaufgabenbezogene Funktionalität des Roboters.
- Humanoide Roboter sind ein spezieller Robotertyp, der eine annähernd menschliche Struktur oder eine annähernd menschliche Erscheinung aufweist, sei es als ein voller Körper, ein Torso und/oder eine Gliedmaße, wobei die strukturelle Komplexität des humanoiden Roboters zum Großteil von der Natur der Arbeitsaufgabe abhängt, die ausgeführt wird. Die Verwendung humanoider Roboter kann dort bevorzugt sein, wo eine direkte Interaktion mit Einrichtungen oder Systemen benötigt wird, die speziell für den menschlichen Gebrauch gemacht sind. Die Verwendung humanoider Roboter kann auch dort bevorzugt sein, wo eine Interaktion mit Menschen benötigt wird, da die Bewegung programmiert werden kann, um eine menschliche Bewegung derart anzunähern, dass die Aufgabenabfolgen von dem mitarbeitenden menschlichen Partner verstanden werden.
- Aufgrund des weiten Spektrums von Arbeitsaufgaben, die von einem humanoider Roboter möglicherweise erwartet werden, können verschiedene Steuerungsmodi gleichzeitig erforderlich sein. Zum Beispiel muss eine präzise Steuerung innerhalb der verschiedenen vorstehend angeführten Steuerungsräume angewendet werden, sowie eine Steuerung über das angewendete Drehmoment oder die angewendete Kraft eines gegebenen motorgetriebenen Gelenks, einer Gelenkbewegung und der verschiedenen Robotergrifftypen.
- Die
DE 103 54 642 A1 offenbart eine Vorrichtung und ein Verfahren zum Programmieren eines Industrieroboters, der eine Vielzahl von Robotergelenken aufweist, die zum Ausüben einer Kraft auf ein Objekt ausgelegt sind, mit einer graphischen Benutzerschnittstelle und einem Controller, der mit der graphischen Benutzerschnittstelle elektrisch verbunden und ausgelegt ist, um die Vielzahl von Robotergelenken unter Verwendung einer impedanzbasierten Steuerungsgrundstruktur zu steuern. Die graphische Benutzerschnittstelle kann die auf das Objekt auszuübende Kraft als Eingabesignal von einem Benutzer empfangen und die Steuerungsgrundstruktur stellt eine Steuerung des Roboters in der Gelenkraumebene in Ansprechen auf das Eingabesignal bereit. - In der
US 2007/0 010 913 A1 - Die
US 7 113 849 B2 offenbart eine Vorrichtung und ein Verfahren zum Steuern des aufrechten Gangs eines humanoiden Roboters, um eine stabile Haltung zu erreichen, falls die Stabilität im Verlauf einer Bewegung der oberen Glieder des Roboters verloren gegangen ist. Dabei bestimmt der Roboter die geeignete Gangart der Beine automatisch. - In der
US 2005/0 125 099 A1 - Die
US 6 918 622 B2 offenbart eine Roboterhand und Finger der Roboterhand, mit denen die Greifstärke der Roboterhand verändert werden kann und die mit einer verringerten Anzahl von Antriebseinheiten bewegt werden können. - In der
US 7 747 351 B2 ist eine Vorrichtung und ein Verfahren zum Steuern eines Roboterarms offenbart, die verwendet werden, wenn ein Mensch und ein Roboter eine Aufgabe gemeinsam ausführen. Dabei werden Informationen über den Menschen gespeichert, der mit dem Roboterarm zusammenarbeitet, und Impedanzeinstellungen des Roboterarms vorgenommen, um diesen an den Menschen anzupassen. - Die Aufgabe der Erfindung besteht darin, eine vielseitige Steuerung mit verschiedenen Steuermodi in unterschiedlichen Steuerungsräumen für einen humanoiden Roboter bereitzustellen.
- Diese Aufgabe wird durch die Gegenstände der unabhängigen Ansprüche gelöst.
- ZUSAMMENFASSUNG DER ERFINDUNG
- Entsprechend werden ein Robotersteuerungssystem und -verfahren hier bereitgestellt, um einen humanoiden Roboter über eine impedanzbasierte Steuerungsgrundstruktur zu steuern, wie nachstehend im Detail offen gelegt ist. Die Grundstruktur ermöglicht, dass eine funktionsbasierte graphische Benutzerschnittstelle (GUI) die Implementierung unzähliger Betriebsmodi des Roboters vereinfacht. Eine komplexe Steuerung eines Roboters, der mehrere DOF aufweist, bei einer speziellen Ausführungsform beispielsweise über 42 DOF, kann über eine einzige GUI bereitgestellt werden. Die GUI kann verwendet werden, um einen Algorithmus eines Controllers anzusteuern, um dadurch eine facettenreiche Steuerung über die vielen unabhängig bewegbaren und voneinander abhängig bewegbaren Robotergelenke mit einer Steuerungslogikschicht bereitzustellen, die verschiedene Betriebsmodi aktiviert.
- Interne Kräfte auf ein ergriffenes Objekt werden bei der Steuerung auf Objektebene automatisch parametriert, was mehrere Robotergrifftypen in Echtzeit ermöglicht. Bei der Verwendung der Grundstruktur stellt ein Benutzer funktionsbasierte Eingaben durch die GUI bereit und dann entschlüsseln die Steuerung und eine Logikzwischenschicht die Eingabe in die GUI, indem die korrekten Steuerungszielvorgaben und der korrekte Betriebsmodus angewendet werden. Dadurch, dass beispielsweise eine gewünschte Kraft gewählt wird, die auf das Objekt aufgebracht werden soll, wendet der Controller automatisch ein hybrides Positions/Kraft-Steuerungsschema in entkoppelten Räumen an.
- Im Umfang der Erfindung verwendet die Grundstruktur ein auf der Objektimpedanz basierendes Steuerungsgesetz mit einem hierarchischen Multitasking, um eine Objektsteuerung, eine Greiforgansteuerung und/oder eine Steuerung auf Gelenkebene des Roboters bereitzustellen. Dadurch, dass ein Benutzer über die Möglichkeit verfügt, in Echtzeit sowohl die aktivierten Knoten als auch den Robotergrifftyp zu wählen, d. h. starrer Kontakt, Punktkontakt, usw., bestimmt eine vorbestimmte oder kalibrierte Impedanzbeziehung die Objekt-, Greiforgan- und Gelenkräume. Die Gelenkraumimpedanz wird automatisch in den Nullraum verschoben, wenn Objekt- oder Greiforganknoten aktiviert werden, wobei der Gelenkraum andernfalls den gesamten Steuerungsraum bestimmt, wie hier offen gelegt ist.
- Insbesondere umfasst ein Robotersystem einen humanoiden Roboter mit einer Vielzahl von Gelenken, die zum Ausüben einer Kraftsteuerung ausgelegt sind, und einen Controller mit einer intuitiven GUI, die zum Empfangen von Eingabesignalen von einem Benutzer, von einer vorprogrammierten Automatisierung oder von einer Netzwerkverbindung oder einer anderen externen Steuerungsvorrichtung ausgelegt ist. Der Controller ist mit der GUI elektrisch verbunden, welche dem Benutzer einen intuitiven oder graphischen Programmierzugang zu dem Controller bereitstellt. Der Controller ist ausgelegt, um die Vielzahl von Gelenken unter Verwendung einer impedanzbasierten Steuerungsgrundstruktur zu steuern, welche wiederum eine Steuerung auf Objektebene, auf Greiforganebene und/oder auf Gelenkraumebene des humanoiden Roboters in Ansprechen auf das Eingabesignal in die GUI bereitstellt.
- Ein Verfahren zum Steuern eines Robotersystems, das den humanoiden Roboter, den Controller und die GUI wie oben erwähnt aufweist, umfasst, dass das Eingabesignal von dem Benutzer unter Verwendung der GUI empfangen wird und dann das Eingabesignal unter Verwendung einer Hostmaschine verarbeitet wird, um die Vielzahl von Gelenken über eine impedanzbasierte Steuerungsgrundstruktur zu steuern. Die Grundstruktur stellt eine Steuerung auf Objektebene, Greiforganebene und/oder Gelenkraumebene des humanoiden Roboters bereit.
- Die vorstehenden Merkmale und Vorteile und andere Merkmale und Vorteile der vorliegenden Erfindung ergeben sich leicht aus der folgenden genauen Beschreibung der besten Art zum Ausführen der Erfindung, wenn sie in Verbindung mit den beiliegenden Zeichnungen gelesen wird.
- KURZBESCHREIBUNG DER ZEICHNUNGEN
-
1 ist eine schematische Veranschaulichung eines Robotersystems mit einem humanoiden Roboter, der erfindungsgemäß unter Verwendung einer objektimpedanzbasierten Steuerungsgrundstruktur steuerbar ist; -
2 ist eine schematische Veranschaulichung von Kräften und Koordinaten mit Bezug auf ein Objekt, auf das durch den in1 gezeigten Roboter eingewirkt werden kann; -
3 ist eine Tabelle, die Untermatrizen in Übereinstimmung mit dem speziellen Kontakttyp beschreibt, der mit dem in1 gezeigten Roboter verwendet wird; -
4 ist eine Tabelle, die Eingaben für eine graphische Benutzeroberfläche (GUI) schreibt; -
5A ist eine schematische Veranschaulichung einer GUI gemäß einer Ausführungsform, die mit dem System von1 verwendet werden kann; und -
5B ist eine schematische Veranschaulichung einer GUI gemäß einer weiteren Ausführungsform. - BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSFORM
- Mit Bezug auf die Zeichnungen, in denen gleiche Bezugszeichen in den mehreren Ansichten gleiche oder ähnliche Komponenten bezeichnen und mit
1 beginnend, ist ein Robotersystem11 gezeigt, das einen Roboter10 , der hier als ein geschickter Humanoide gezeigt ist, aufweist, der über ein Steuerungssystem oder einen Controller (C)22 gesteuert wird. Der Controller22 stellt eine Bewegungssteuerung über den Roboter10 mit Hilfe eines Algorithmus100 bereit, d. h. einer impedanzbasierten Steuerungsgrundstruktur, die nachstehend beschrieben wird. - Der Roboter
10 ist ausgelegt, um eine oder mehrere automatisierte Aufgaben mit mehreren Freiheitsgraden (DOF) auszuführen, und um andere interaktive Aufgaben auszuführen oder andere integrierte Systemkomponenten zu steuern, z. B. Einspannen, Beleuchten, Relais, usw. Gemäß einer Ausführungsform ist der Roboter10 mit einer Vielzahl unabhängig und voneinander abhängig bewegbarer Robotergelenke ausgestaltet, wie etwa aber ohne Einschränkung einem Schultergelenk, dessen Position durch einen Pfeil A allgemein angezeigt ist, ein Ellbogengelenk, das allgemein (Pfeil B) ist, ein Handgelenk (Pfeil C), ein Halsgelenk (Pfeil D) und ein Taillengelenk (Pfeil E) sowie die verschiedenen Fingergelenke (Pfeil F), die zwischen den Fingergliedern jedes Roboterfingers19 positioniert sind. - Jedes Robotergelenk kann einen oder mehrere DOF aufweisen. Zum Beispiel können einige konforme Gelenke, wie etwa das Schultergelenk (Pfeil A) und das Ellbogengelenk (Pfeil B) mindestens zwei DOF in der Form von Nicken und Rollen aufweisen. Gleichermaßen kann das Halsgelenk (Pfeil D) mindestens drei DOF aufweisen, während die Taille und das Handgelenk (Pfeile E bzw. C) einen oder mehrere DOF aufweisen können. In Abhängigkeit von der Komplexität der Aufgabe kann sich der Roboter
10 mit über 42 DOF bewegen. Jedes Robotergelenk enthält ein oder mehrere Stellglieder und wird durch diese intern angetrieben, z. B. Gelenkmotoren, lineare Stellglieder, rotatorische Stellglieder und dergleichen. - Der Roboter
10 kann Komponenten, wie etwa einen Kopf12 , einen Torso14 , eine Taille15 , Arme16 , Hände18 , Finger19 , und Daumen21 umfassen, wobei die vorstehend erwähnten verschiedenen Gelenke innerhalb oder zwischen diesen Komponenten angeordnet sind. Der Roboter10 kann auch eine für die Aufgabe geeignete Halterung oder Basis (nicht gezeigt) umfassen, wie etwa Beine, Laufflächen oder eine andere bewegliche oder starre Basis in Abhängigkeit von der speziellen Anwendung oder der beabsichtigten Verwendung des Roboters. Eine Leistungsversorgung13 kann an den Roboter10 angebaut sein, z. B. ein wiederaufladbarer Batteriestapel, der an der Rückseite des Torsos14 getragen oder angelegt wird, oder eine andere geeignete Energieversorgung, oder die durch ein Verbindungskabel abgesetzt angebracht sein kann, um ausreichend elektrische Energie an die verschiedenen Gelenke zur Bewegung derselben zu liefern. - Der Controller
22 stellt eine präzise Bewegungssteuerung des Roboters10 bereit, die eine Steuerung der feinen und groben Bewegungen umfasst, die zum Manipulieren eines Objekts20 benötigt werden, das von den Fingern19 und dem Daumen21 von einer oder mehreren Händen18 ergriffen werden kann. Der Controller22 ist in der Lage, jedes Robotergelenk und andere integrierte Systemkomponenten isoliert von den anderen Gelenken und Systemkomponenten unabhängig zu steuern sowie eine Anzahl der Gelenke voneinander abhängig zu steuern, um die Aktionen der mehreren Gelenke bei der Ausführung einer relativ komplexen Arbeitsaufgabe vollständig zu koordinieren. - Noch mit Bezug auf
1 kann der Controller22 mehrere digitale Computer oder Datenverarbeitungseinrichtungen umfassen, die jeweils einen oder mehrere Mikroprozessoren oder zentrale Verarbeitungseinheiten (CPU), Festwertspeicher (ROM), Speicher mit wahlfreiem Zugriff (RAM), elektrisch programmierbarer löschbarer Festwertspeicher (EEPROM), einen Hochgeschwindigkeitstaktgeber, Analog/Digital-Schaltungen (A/D-Schaltungen), Digital/Analog-Schaltungen (D/A-Schaltungen) und beliebige benötigte Eingabe/Ausgabe-Schaltungen (E/A-Schaltungen) und Einrichtungen sowie eine Signalaufbereitungs- und Pufferelektronik, aufweisen. Einzelne Steuerungsalgorithmen, die im Controller22 vorhanden sind oder für diesen leicht zugänglich sind, können im ROM gespeichert sein und bei einer oder mehreren verschiedenen Steuerungsebenen automatisch ausgeführt werden, um die jeweilige Steuerungsfunktionalität bereitzustellen. - Der Controller
22 kann einen Server oder eine Hostmaschine17 umfassen, die als ein verteiltes oder ein zentrales Steuerungsmodul ausgestaltet ist und Steuerungsmodule und Fähigkeiten derart aufweist, wie es zur Ausführung sämtlicher benötigter Steuerungsfunktionalität des Roboters10 auf die gewünschte Weise notwendig sein kann. Zudem kann der Controller22 als ein universaler Digitalcomputer ausgestaltet sein, der allgemein einen Mikroprozessor oder eine zentrale Verarbeitungseinheit, Festwertspeicher (ROM), Speicher mit wahlfreiem Zugriff (RAM), elektrisch löschbaren programmierbaren Festwertspeicher (EEPROM), einen Hochgeschwindigkeitstaktgeber, Analog/Digital-Schaltungen (A/D-Schaltungen) und Digital/Analog-Schaltungen (D/A-Schaltungen) und Eingabe/Ausgabe-Schaltungen und Einrichtungen (E/A), sowie geeignete Signalaufbereitungs- und Pufferschaltungen umfasst. Beliebige im Controller22 vorhandene oder für diesen zugängliche Algorithmen, welche den Algorithmus100 zum Ausführen der nachstehend im Detail beschriebenen Grundstruktur umfassen, können im ROM gespeichert sein und ausgeführt werden, um die jeweilige Funktionalität bereitzustellen. - Der Controller
22 ist mit einer graphischen Benutzerschnittstelle (GUI)24 , die einen Benutzerzugriff auf den Controller bereitstellt, elektrisch verbunden. Die GUI24 stellt eine Benutzersteuerung eines breiten Spektrums von Aufgaben bereit, d. h. die Fähigkeit zur Bewegungssteuerung in den Objekt-, Greiforgan- und/oder Gelenkräumen oder Ebenen des Roboters10 . Die GUI24 ist vereinfacht und intuitiv, um es einem Benutzer durch einfache Eingaben zu ermöglichen, die Arme und die Finger in verschiedenen intuitiven Modi zu steuern, indem ein Eingabesignal (Pfeil iC) eingegeben wird, z. B. eine gewünschte auf das Objekt20 aufgebrachte Kraft. Die GUI24 ist auch zum Speichern von Modusänderungen in der Lage, so dass sie zu einem späteren Zeitpunkt in einer Sequenz ausgeführt werden können. Die GUI24 kann auch externe Steuerungsauslösesignale akzeptieren, um eine Modusänderung zu verarbeiten, z. B. über ein Programmierhandgerät, das extern angebracht ist, oder über einen PLC, welcher den Automationsfluss durch eine Netzwerkverbindung steuert. Verschiedene Ausführungsformen der GUI24 sind im Umfang der Erfindung möglich, wobei zwei mögliche Ausführungsformen mit Bezug auf5A und5B nachstehend beschrieben werden. - Um einen Bereich von Manipulationsaufgaben unter Verwendung des Roboters
10 auszuführen, ist ein weiter Bereich an funktionaler Steuerung des Roboters notwendig. Diese Funktionalität umfasst eine hybride Kraft/Positionssteuerung, eine Impedanzsteuerung, eine kooperative Objektsteuerung mit facettenreichen Grifftypen, eine Greiforgansteuerung im kartesischen Raum, d. h. eine Steuerung im XYZ-Koordinatenraum, und eine Gelenkraummanipulatorsteuerung, und mit einer hierarchischen Priorisierung der mehreren Steuerungsaufgaben. Folglich wendet die vorliegende Erfindung ein Arbeitsraumimpedanzgesetz und eine entkoppelte Kraft und Position auf die Steuerung der Greiforgane des Roboters10 und die Steuerung des Objekts20 an, wenn es von einem oder mehreren Greiforganen des Roboters, wie etwa der Hand18 , ergriffen, kontaktiert oder anderweitig darauf eingewirkt wird. Die Erfindung stellt einen parametrierten Raum von internen Kräften zur Steuerung eines derartigen Griffs bereit. Sie stellt auch eine sekundäre Gelenkraumimpedanzbeziehung bereit, die im Nullraum des Objekts20 arbeitet, wie nachstehend offen gelegt wird. - Noch mit Bezug auf
1 bietet der Controller22 Platz für mindestens zwei Grifftypen, d. h. starre Kontakte und Punktkontakte, und lässt auch gemischte Grifftypen zu. Starre Kontakte werden durch die Übertragung willkürlicher Kräfte und Momente beschrieben, wie etwa ein Griff mit geschlossener Hand. Punktkontakte, z. B. eine Fingerspitze, übertragen nur eine Kraft. Das gewünschte Regelkreisverhalten des Objekts20 kann durch die folgende Impedanzbeziehung definiert werden: wobei Mo, Bo und Ko die Matrizen der befohlenen Trägheit, Dämpfung bzw. Steifigkeit sind. Die Variable p ist die Position des Objektreferenzpunkts, ω ist die Winkelgeschwindigkeit des Objekts, Fe und F* / e 20 dar. Δy ist der Positionsfehler (y – y*). NFT ist die Nullraumprojektionsmatrix für VektorF * / eT - Bei der vorstehenden Gleichung zeigt die Hochstellung (+) die Pseudoinverse der jeweiligen Matrix an und I ist die Identitätsmatrix. NFT hält die Positions- und Kraftsteuerung automatisch entkoppelt, indem der Steifigkeitsausdruck in den Raum orthogonal zu der befohlenen Kraft projiziert wird, mit der Annahme, dass die Kraftsteuerungsrichtung aus einem DOF besteht. Um die Dynamiken mit höherer Ordnung ebenfalls zu entkoppeln, müssen Mo und Bo in dem Referenzrahmen der Kraft diagonal gewählt werden. Dies bietet sich an, um die Fähigkeit zur Steuerung von Kräften in mehr als eine Richtung einzuschließen.
- Diese Regelkreisbeziehung verwendete ein ”hybrides” Kraft- und Bewegungssteuerungsschema in den orthogonalen Richtungen. Das Impedanzgesetz wendet eine Positionsnachführeinrichtung zweiter Ordnung auf die Bewegungssteuerungspositionsrichtungen an, während es eine Kraftnachführeinrichtung zweiter Ordnung auf die Kraftsteuerungsrichtungen anwendet, und sollte unter Voraussetzung positiver bestimmter Werte für die Matrizen stabil sein. Die Formulierung entkoppelt die Kraft- und Positionssteuerungsrichtungen automatisch. Der Benutzer gibt einfach eine gewünschte Kraft, d. h. F
* / e - Mit Bezug auf
2 sind eine baustatische Skizze25 des Objekts20 von1 und ein Koordinatensystem gezeigt. N und B stellen die Bezugsrahmen von Masse bzw. Körper dar. ri ist der Positionsvektor vom Schwerpunkt zu einem Kontaktpunkt i, wobei i = 1, ..., n. wi = (fi, ni) stellt die Kontaktverwindung vom Kontaktpunkt i dar, wobei fi und ni die Kraft bzw. das Moment sind. Die Geschwindigkeit und Beschleunigung des Kontaktpunkts i kann durch die folgenden kinematischen Standardbeziehungen dargestellt werden: wobei νi die Geschwindigkeit des Kontaktpunkts darstellt und ωi die Winkelgeschwindigkeit des Greiforgans i darstellt. νrel und arel sind als die erste bzw. zweite Ableitung von ri im B-Rahmen definiert. - Mit anderen Worten stellen sie die Bewegung des Punkts relativ zum Körper dar. Die Ausdrücke werden Null, wenn der Punkt im Körper starr ist.
- Greiforgankoordinaten: die Grundstruktur der vorliegenden Erfindung ist entworfen, um für mindestens zwei Grifftypen, die vorstehend beschrieben sind, d. h. starre Kontakte und Punktkontakte, Platz zu bieten. Da jeder Typ unterschiedliche Zwangsbedingungen für die DOF darstellt, hängt die Wahl von Greiforgankoordinaten für jeden Manipulator xi vom speziellen Grifftyp ab. Ein dritter Grifftyp ist derjenige ”ohne Kontakt”, der ein Greiforgan beschreibt, das mit dem Objekt
20 nicht in Kontakt steht. Dieser Grifftyp ermöglicht eine Steuerung der jeweiligen Greiforgane unabhängig von den anderen. Die Koordinaten können auf der Geschwindigkeitsebene definiert werden als: - Durch die in
1 gezeigte GUI24 kann ein Benutzer das bzw. die gewünschten zu aktivierenden Greiforgane wählen, z. B. Finger19 usw. Der Controller22 erzeugt dann lineare und rotatorische Jacobimatrizen Jvi bzw. Jωi für jedes Greiforgan. Die endgültige Jacobimatrix für jeden Punkt Ji hängt dann vom Kontakttyp ab, so dass:χ .i = Jiq . - In dieser Formel ist q die Spaltenmatrix aller Gelenkkoordinaten in dem System, die gesteuert werden.
- Matrixnotation: die zusammengesetzte Greiforgangeschwindigkeit kann definiert werden als:
χ . = [χ . T / 1...χ . T / n]T, 19 des humanoiden Roboters10 , der in1 gezeigt ist. Die Geschwindigkeit und die anschließende Beschleunigung können in einer Matrixnotation auf der Grundlage der vorstehend offen gelegten kinematischen Beziehungen ausgedrückt werden, d. h.:χ . = Gy . + χ .rel χ .. = Gy .. + Q + χ ..rel - G kann als die Griffmatrix bezeichnet werden und enthält die Kontaktpositionsinformation. Q ist eine Spaltenmatrix, welche die Zentrifugal- und Coriolis-Ausdrücke enthält.
χ .rel χ ..rel -
- Mit Bezug auf
3 können die Untermatrizen in Übereinstimmung mit dem speziellen Kontakttyp angezeigt werden. r ^ bezeichnet das schiefsymmetrische Matrixäquivalent des Kreuzprodukts für den Vektor r. Bei Anwendungen mit niedriger Geschwindigkeit kann Q vernachlässigt werden. Es wird angemerkt, dass die Jacobimatrix für einen Punktkontakt nur die lineare Jacobimatrix enthält. Folglich wird für diesen Kontakttyp nur die Position, nicht aber die Orientierung gesteuert. - Der dritte Fall in der Tabelle von
3 wendet einen Proportional-Derivativ-Controller (PD-Controller), der Teil des Controllers22 von1 oder eine andere Einrichtung sein kann, auf die Greiforganposition an, wobei kp und kd skalare Verstärkungen sind. Dies ermöglicht, dass die Position des Greiforgans i unabhängig vom Objekt20 von1 gesteuert werden kann. Dies bedeutet auch, dass das jeweilige Greiforgan das kartesische Impedanzverhalten nicht beachtet. - Wenn sowohl
χ .rel χ ..rel χ ..rel χ ..rel -
- Diese Bedingung stellt sicher, dass
χ ..rel - Interne Kräfte: Es gibt zwei Anforderungen zum Steuern der internen Kräfte innerhalb der vorstehenden Steuerungsgrundstruktur. Erstens wird der Nullraum mit physikalisch relevanten Parametern parametriert und zweitens müssen die Parameter im Nullraum von beiden Grifftypen liegen. Beide Anforderungen werden durch das Konzept der Interaktionskräfte erfüllt. Zum Verständnis können durch Ziehen einer Linie zwischen zwei Kontaktpunkten Interaktionskräfte als die Differenz zwischen den zwei Kontaktkräften definiert werden, die entlang dieser Linie projiziert sind. Es kann gezeigt werden, dass die Interaktionsverwindung, d. h. die Interaktionskräfte und -momente, ebenfalls im Nullraum des Falls mit starrem Kontakt liegt.
- Es wird ein Vektor an einem Kontaktpunkt betrachtet, der senkrecht zu der Oberfläche verläuft und in das Objekt
20 von1 hineinzeigt. Kräfte an Punktkontakten müssen senkrechte Komponenten aufweisen, die positiv mit einer ausreichenden Größe sind, um sowohl den Kontakt mit dem Objekt20 aufrechtzuerhalten als auch ein Rutschen mit Bezug auf ein derartiges Objekt zu verhindern. Bei einem korrekten Griff, z. B. mit der Hand18 von1 , werden die Interaktionskräfte niemals alle tangential zu der Oberfläche des Objekts20 verlaufen. Deshalb existiert immer eine gewisse minimale Interaktionskraft, so dass die senkrechte Komponente größer als eine Untergrenze ist. - Mit Bezug auf die Interaktionsbeschleunigungen können diese definiert werden als: wobei die gewünschten relativen Beschleunigungen in den Interaktionsrichtungen liegen sollten. Bei der vorstehenden Gleichung kann a als die Spaltenmatrix der Interaktionsbeschleunigungen aij definiert werden, wobei aij die relative lineare Beschleunigung zwischen Punkten i und j darstellt. Deshalb ist die relative Beschleunigung vom Punkt i aus gesehen: wobei uij den Einheitsvektor darstellt, der längs der Achse von Punkt i zu j zeigt.
- Zudem ist uij = 0, wenn entweder i oder j einen Punkt ”ohne Kontakt” darstellt. Die Interaktionsbeschleunigungen werden dann verwendet, um die Interaktionskräfte unter Verwendung des nachstehenden PI-Reglers zu steuern, wobei kp und ki konstante skalare Verstärkungen sind:
aij = –kp(fij – f * / ij) – ki∫(fij – f * / ij)dt fij = (fi – fj)·uij - Diese Definition ermöglicht, einen Raum Nint einzuführen, der die Interaktionskomponenten parametriert. Bei der Verwendung hierin ist Nint ein Unterraum des vollen Nullraums NGT mit der Ausnahme des Falls des Punktkontakts, bei dem er den gesamten Nullraum überspannt:
χ .. = Gy .. + Q + Ninta -
-
-
- Steuerungsgesetz – Dynamisches Modell: die folgende Gleichung modelliert das vollständige Manipulatorsystem unter der Annahme, dass externe Kräfte nur auf die Greiforgane wirken:
Mq .. + c + JTw = τ - Steuerungsgesetz – inverse Dynamik: das Steuerungsgesetz beruhend auf der inversen Dynamik kann formuliert werden als:
τ = Mq .. + c + JTw q ..* (χ ..*) - Die gewünschte Beschleunigung auf der Greiforgan- und Objektebene kann dann aus den vorherigen Gleichungen abgeleitet werden. Die Stärke dieses Verfahrens der Objektkraftverteilung besteht darin, dass es kein Modell des Objekts benötigt. Herkömmliche Verfahren können umfassen, dass die gewünschte Bewegung des Objekts in eine befohlene resultierende Kraft umgesetzt wird, ein Schritt, der ein existierendes Dynamikmodell des Objekts mit hoher Qualität benötigt. Diese resultierende Kraft wird dann unter Verwendung der Inversen von G auf die Kontakte verteilt. Die inverse Dynamik des Greiforgans erzeugt dann die befohlene Kraft und die befohlene Bewegung. Bei dem hier dargestellten Verfahren beseitigt das Einführen der erfassten Greiforgankräfte und das Ausführen der Bereitstellung im Beschleunigungsbereich die Notwendigkeit eines Modells für das Objekt.
- Steuerungsgesetz – Schätzung: die externe Verwindung (Fe) an dem Objekt
20 von1 kann nicht erfasst werden, jedoch kann sie aus den anderen Kräften an dem Objekt20 geschätzt werden. Wenn das Objektmodell gut bekannt ist, kann die volle Dynamik verwendet werden, um Fe zu schätzen. Andernfalls kann eine quasi statische Approximation verwendet werden. Zusätzlich kann die Geschwindigkeit des Objekts20 mit der folgenden Fehlerschätzung der kleinsten Quadrate des Systems als starrer Körper geschätzt werden:y . = G+χ . - Wenn ein Greiforgan wie oben angegeben als der Typ ”ohne Kontakt” eingeordnet wird, wird G eine Zeile von Nullen enthalten. Eine Berechnung der Pseudoinversen auf der Grundlage einer Singulärwertzerlegung (SVD) erzeugt G+, wobei die entsprechende Spalte mit Nullen gefüllt ist. Deshalb wird die Geschwindigkeit des Punkts ohne Kontakt die Schätzung nicht beeinflussen. Alternativ kann die Pseudoinverse mit einer Standardlösung mit geschlossenem Ausdruck berechnet werden. In diesem Falle müssen die Zeilen mit Nullen vor der Berechnung entfernt werden und dann als entsprechende Spalten mit Nullen wieder eingefügt werden. Das Gleiche trifft für die J-Matrix zu, welche ebenfalls Zeilen mit Nullen enthalten kann.
- Zweites Impedanzgesetz: die Redundanz der Manipulatoren ermöglicht, dass eine sekundäre Aufgabe im Nullraum der Objektimpedanz arbeitet. Die folgende Gelenkraumimpedanzbeziehung definiert eine sekundäre Aufgabe:
Mjq .. + Bjq . + KjΔq = τe Mq.. + c + JTw = τ, τe = Mq .. + c – τ. - Diese Formel wiederum diktiert die folgende gewünschte Beschleunigung für den Nullraum:
q ..* = J+(χ ..* – J .q .) + NJq ..ns, d. h. q ..ns = M –1 / j(τe – Bjq . – KjΔq). - Es kann gezeigt werden, dass diese Implementierung die folgende Regelkreisbeziehung im Nullraum der Manipulatoren erzeugt. Es wird angemerkt, dass NJ eine orthogonale Projektionsmatrix ist, die die Projektion mit minimalem Fehler in den Nullraum findet.
NJ[q .. – M –1 / j(τe – Bjq . – KjΔq)] = 0 -
- Wenn in den Manipulatoren eine zuverlässige Krafterfassung nicht verfügbar ist, kann die Impedanzbeziehung so eingestellt werden, dass der Bedarf für die Erfassung beseitigt wird. Durch eine geeignete Wahl der gewünschten Impedanzträgheiten Mo und Mi können die Kraftrückkopplungsausdrücke beseitigt werden. Die geeigneten Werte können aus der vorherigen Gleichung leicht ermittelt werden.
- Benutzerschnittstelle: durch eine einfache Benutzerschnittstelle, z. B. die GUI
24 von1 , kann der Controller22 den humanoiden Roboter10 im gesamten gewünschten Modusbereich betreiben. In einem Modus mit voller Funktionalität steuert der Controller22 das Objekt20 mit einer hybriden Impedanzbeziehung, wendet interne Kräfte zwischen den Kontakten an und implementiert eine Gelenkraumimpedanzbeziehung in dem redundanten Raum. Unter Verwendung allein einer einfachen Logik und einer intuitiven Schnittstelle kann die vorgeschlagene Grundstruktur leicht zwischen der gesamten oder einem Teil dieser Funktionalität auf der Grundlage eines Satzes von Steuerungseingaben, wie sie in1 durch den Pfeil iC darstellt sind, umschalten. - Mit Bezug auf
4 sind Eingaben30 von der GUI24 von1 in einer Tabelle dargestellt. Die Eingaben30 können so kategorisiert werden, dass sie entweder zu dem kartesischen Raum, d. h. Eingaben30A , oder zu dem Gelenkraum, d. h. Eingaben30B , gehören. Ein Benutzer kann zwischen einer Positions- und Kraftsteuerung durch Bereitstellen einer externen Referenzkraft leicht umschalten. Der Benutzer kann das System auch zwischen dem Anwenden der Impedanzsteuerung auf die Objekt-, Greiforgan- und/oder Gelenkebenen einfach umschalten, indem er die gewünschte Kombination von Greiforganen wählt. Es folgt eine vollständigere Auflistung der Modi und wie sie aufgerufen werden:
Kartesische Positionssteuerung: wenn F* e = 0.
Kartesische hybride Kraft/Positions-Steuerung: wenn F*e ≠ 0. Die Kraftsteuerung wird in der Richtung von F*e angewendet und die Positionssteuerung wird in den orthogonalen Richtungen angewendet.
Gelenkpositionssteuerung: wenn keine Greiforgane gewählt sind. Die Gelenkraumimpedanzbeziehung steuert den vollständigen Gelenkraum des Systems.
Greiforganimpedanzsteuerung: wenn nur ein Greiforgan gewählt wird (andere können gewählt und als ”ohne Kontakt” markiert werden). Das hybride kartesische Impedanzgesetz wird auf das Greiforgan angewendet.
Objektimpedanzsteuerung: wenn mindestens zwei Greiforgane gewählt werden (und nicht als ”ohne Kontakt” zugeordnet werden).
Gelenkraumfingersteuerung: jedes Mal, wenn keine Fingerspitze als Greiforgan gewählt wird, wird sie durch die Gelenkraumimpedanzbeziehung gesteuert. Dies ist sogar der Fall, wenn die Handfläche gewählt wird.
Grifftypen: starrer Kontakt (wenn Handfläche gewählt wird); Punktkontakt (wenn Finger gewählt wird). - Mit Bezug auf
5A mit4 ist eine Beispiel-GUI24A gezeigt, welche den kartesischen Raum von Eingaben30A und den Gelenkraum von Eingaben30B aufweist. Die GUI24A kann Knoten der linken Seite und der rechten Seite31 bzw.33 zur Steuerung der linken und rechten Seite des Roboters10 von1 darstellen, z. B. der rechten und linken Hände18 und Finger19 von1 . Die Werkzeugposition auf oberster Ebene (ri), die Positionsreferenz (y*) und die Kraftreferenz (F*e) sind über die GUI24A wählbar, wie durch die drei benachbarten Kästchen91A ,91B und91C angemerkt ist. Die linksseitigen Knoten31 können die Fläche einer Hand18 und die drei Fingerspitzen der primären Finger19 umfassen, die als19A ,19B und19C dargestellt sind. Gleichermaßen können die rechtsseitigen Knoten33 die Handfläche der rechten Hand18 und die drei Fingerspitzen der primären Finger119A ,119B und119C dieser Hand umfassen. - Jeder primäre Finger
19R ,119R ,19L ,119L weist eine entsprechende Fingerschnittstelle auf, d. h.34A ,134A ,34B ,134B ,34C bzw.134C . Jede Handfläche einer Hand18L ,18R umfasst eine Handflächenschnittstelle34L ,34R . Schnittstellen35 ,37 bzw.39 stellen eine Positionsreferenz, eine interne Kraftreferenz (f12, f13, f23) und eine 2. Positionsreferenz (x*) bereit. Optionen ohne Kontakt41L ,41R sind für die linke bzw. rechte Hand bereitgestellt. - Die Gelenkraumsteuerung ist über Eingaben
30B bereitgestellt. Eine Gelenkposition der linken und rechten Arme16L ,16R kann über Schnittsellen34D , E bereitgestellt werden. Eine Gelenkposition der linken und rechten Hände18L ,18R kann über Schnittstellen34F , G bereitgestellt werden. Schließlich kann ein Benutzer einen qualitativen Impedanztyp oder eine qualitative Impedanzebene über eine Schnittstelle34H wählen, d. h. weich oder steif, die wieder über die GUI24 von1 bereitgestellt wird, wobei der Controller22 auf das Objekt20 mit der gewählten qualitativen Impedanzebene einwirkt. - Mit Bezug auf
5B ist eine erweiterte GUI24B gezeigt, die eine größere Flexibilität als die Ausführungsform von5A bereitstellt. Zusätzliche Optionen umfassen, dass ermöglicht wird, dass über die Schnittstelle34I die kartesische Impedanz nur lineare oder rotatorische Komponenten steuert, im Gegensatz dazu, dass nur beide gesteuert werden können, dass zugelassen wird, dass ein Knoten ”ohne Kontakt” mit einem Kontaktknoten an der gleichen Hand über eine Schnittstelle34J koexistiert, und dass die Flexibilität der Wahl des Kontakttyps für jeden aktiven Knoten über eine Schnittstelle34K hinzugefügt wird. - Obwohl die besten Arten zum Ausführen der Erfindung im Detail beschrieben wurden, werden Fachleute auf dem Gebiet, das diese Erfindung betrifft, verschiedene alternative Entwürfe und Ausführungsformen erkennen, um die Erfindung im Umfang der beigefügten Ansprüche auszuführen.
Claims (18)
- Robotersystem (
11 ), das umfasst: einen humanoiden Roboter (10 ) mit einer Vielzahl von Robotergelenken (A, B, C, D, E, F), die zum Ausüben einer Kraft auf ein Objekt (20 ) ausgelegt sind, wobei der humanoide Roboter (10 ) über mindestens ein Greiforgan (18 ) verfügt; eine graphische Benutzerschnittstelle (GUI) (24 ), die zum Empfangen eines Eingabesignals (iC) von einem Benutzer ausgelegt ist, welches zumindest eine externe Referenzkraft in der Form einer gewünschten Eingabekraft beschreibt, die auf das Objekt (20 ) ausgeübt werden soll, wobei die GUI (24 ) Eingaben zu einem kartesischen Raum (30A ) oder Eingaben zu einem Gelenkraum (30B ) aufnehmen kann; und einen Controller (22 ), der mit der GUI (24 ) elektrisch verbunden ist, wobei die GUI (24 ) dem Benutzer einen Programmierzugriff auf den Controller (22 ) bereitstellt; wobei der Controller (22 ) ausgelegt ist, um die Vielzahl von Robotergelenken (A, B, C, D, E, F) unter Verwendung einer impedanzbasierten Steuerungsgrundstruktur zu steuern, wobei die Grundstruktur eine Steuerung des humanoiden Roboters (10 ) auf Objektebene und/oder auf Greiforganebene und/oder auf Gelenkraumebene in Ansprechen auf das Eingabesignal (iC) bereitstellt; und wobei der Controller (22 ) ferner ausgelegt ist, um zwischen einem Positionssteuerungsmodus und einem Kraftsteuerungsmodus, wenn der Benutzer die externe Referenzkraft über die GUI (24 ) bereitstellt, und zwischen dem Anwenden einer Impedanzsteuerung auf der Objektebene oder der Greiforganebene oder der Gelenkebene umzuschalten, wenn der Benutzer eine gewünschte Kombination von Greiforganen über die GUI (24 ) wählt. - System (
11 ) nach Anspruch 1, wobei die GUI (24 ) sowohl einen kartesischen Raum von Eingaben als auch einen Gelenkraum von Eingaben sowohl für einen linksseitigen Knoten als auch einen rechtsseitigen Knoten des humanoiden Roboters (10 ) grafisch anzeigt. - System (
11 ) nach Anspruch 1, wobei der Controller (22 ) ausgelegt ist, einen vorbestimmten Satz von internen Kräften des humanoiden Roboters (10 ) in der Steuerung auf Objektebene zu parametrieren, um dadurch mehrere Grifftypen in Echtzeit zu ermöglichen, wobei die mehreren Grifftypen zumindest einen Grifftyp mit starrem Kontakt und einen Grifftyp mit Punktkontakt umfassen. - System (
11 ) nach Anspruch 1, wobei das Eingabesignal (iC) auch eine qualitative Impedanzebene beschreibt, und wobei der Controller (22 ) ausgelegt ist, um die Vielzahl von Robotergelenken (A, B, C, D, E, F) mit der qualitativen Impedanzebene zu steuern. - System (
11 ) nach Anspruch 1, wobei die GUI (24 ) eine funktionsbasierte Einrichtung ist, die einen Satz intuitiver Eingaben und eine interpretierende Logikschicht verwendet, um alle Gelenke (A, B, C, D, E, F) in dem humanoiden Roboter (10 ) mit einem Satz von Impedanzbefehlen für zumindest eine der Objekt-, der Greiforgan- und der Gelenkraumebenen zu befehlen. - System (
11 ) nach Anspruch 1, wobei der Controller (22 ) ausgelegt ist, um eine hybride Kraft- und Positionssteuerung im kartesischen Raum auszuführen, indem er Kraft- und Positionsrichtungen in Ansprechen auf die gewünschte Eingabekraft automatisch entkoppelt. - Controller (
22 ) für ein Robotersystem (11 ), wobei das System (11 ) einen humanoiden Roboter (10 ) mit einer Vielzahl von Robotergelenken (A, B, C, D, E, F), die zur Kraftsteuerung mit Bezug auf ein Objekt (20 ), auf das von dem humanoiden Roboter (10 ) eingewirkt wird, und eine graphische Benutzerschnittstelle (GUI) (24 ) umfasst, die mit dem Controller (22 ) elektrisch verbunden ist, wobei die GUI (24 ) ausgelegt ist, um ein Eingabesignal (iC) von einem Benutzer zu empfangen, wobei der Controller (22 ) umfasst: eine Hostmaschine (17 ); und einen Algorithmus (100 ), der von der Hostmaschine (17 ) ausgeführt werden kann und ausgelegt ist, um die Vielzahl von Gelenken (A, B, C, D, E, F) unter Verwendung einer impedanzbasierten Steuerungsgrundstruktur zu steuern; wobei eine Ausführung des Algorithmus (100 ) eine Steuerung des humanoiden Roboters (10 ) auf Objektebene, auf Greiforganebene und/oder auf Gelenkraumebene in Ansprechen auf das Eingabesignal (iC) in die GUI (24 ) bereitstellt, wobei das Eingabesignal (iC) zumindest eine externe Referenzkraft in der Form einer gewünschten Eingabekraft umfasst, die auf das Objekt (20 ) ausgeübt werden soll; wobei der Controller (22 ) ausgelegt ist, um zwischen einem Positionssteuerungsmodus und einem Kraftsteuerungsmodus, wenn der Benutzer die externe Referenzkraft über die GUI (24 ) bereitstellt, und zwischen dem Anwenden einer Impedanzsteuerung auf der Objektebene oder der Greiforganebene oder der Gelenkebene umzuschalten, wenn der Benutzer eine gewünschte Kombination von Greiforganen über die GUI (24 ) wählt. - Controller (
22 ) nach Anspruch 7, wobei der Algorithmus (100 ) ausgelegt ist, um eine Logikzwischenschicht auszuführen, um das über die GUI (24 ) eingegebene Eingabesignal (iC) zu entschlüsseln. - Controller (
22 ) nach Anspruch 7, wobei der Algorithmus (100 ) ausgelegt ist, um eine Kraftrichtung von einer Positionssteuerungsrichtung des humanoiden Roboters (10 ) automatisch zu entkoppeln, wenn der Benutzer die gewünschte Eingabekraft eingibt, und wobei die Positionssteuerungsrichtung während einer Ausführung des Algorithmus (100 ) automatisch orthogonal in einen Nullraum projiziert wird. - Controller (
22 ) nach Anspruch 7, wobei der Algorithmus (100 ) ausgelegt ist, um einen vorbestimmten Satz interner Kräfte des humanoiden Roboters (10 ) bei einer Steuerung auf Objektebene zu parametrieren, um dadurch mehrere Grifftypen zu ermöglichen, wobei die mehreren Grifftypen mindestens einen Grifftyp mit starrem Kontakt und einen Grifftyp mit Punktkontakt umfassen. - Controller (
22 ) nach Anspruch 7, wobei die Hostmaschine ausgelegt ist, um eine qualitative Impedanzebene aufzuzeichnen, die von dem Benutzer in die GUI eingegeben (24 ) wird, und um die qualitative Impedanzebene auf die Vielzahl von Robotergelenken (A, B, C, D, E, F) anzuwenden. - Controller (
22 ) nach Anspruch 7, wobei der Controller (22 ) ausgelegt ist, um eine Positionsnachführeinrichtung zweiter Ordnung auf die Positionssteuerungsrichtungen anzuwenden, während er eine Kraftnachführeinrichtung zweiter Ordnung auf die Kraftsteuerungsrichtungen anwendet. - Controller (
22 ) nach Anspruch 7, wobei der Benutzer die gewünschten zu aktivierenden Greiforgane des Roboters (10 ) wählt, und wobei der Controller (22 ) eine lineare und eine rotatorische Jacobimatrix für jedes Greiforgan in Ansprechen darauf erzeugt. - Verfahren zur Steuerung eines Robotersystems (
11 ), wobei das System einen humanoiden Roboter (10 ) mit einer Vielzahl von Gelenken (A, B, C, D, E, F), die zum Ausüben einer Kraft auf ein Objekt (20 ) ausgelegt sind, einen Controller (22 ) und eine graphische Benutzerschnittstelle (GUI) (24 ) umfasst, die mit dem Controller (22 ) elektrisch verbunden ist und ausgelegt ist, um ein Eingabesignal (iC) zu empfangen, wobei das Verfahren umfasst, dass: das Eingabesignal (iC) über die GUI (24 ) empfangen wird; und das Eingabesignal (iC) unter Verwendung einer Hostmaschine (17 ) verarbeitet wird, um die Vielzahl von Gelenken (A, B, C, D, E, F) zu steuern; wobei das Verarbeiten des Eingabesignals (iC) umfasst, dass eine impedanzbasierte Steuerungsgrundstruktur verwendet wird, um eine Steuerung des humanoiden Roboters (10 ) auf Objektebene, auf Greiforganebene und auf Gelenkraumebene bereitzustellen. - Verfahren nach Anspruch 14, wobei das Eingabesignal (iC) eine gewünschte auf das Objekt (
20 ) aufgebrachte Eingabekraft ist, und wobei das Verarbeiten des Eingabesignals (iC) umfasst, dass: eine Kraftsteuerungsrichtung und eine Positionssteuerungsrichtung automatisch entkoppelt werden, wenn der Benutzer die gewünschte Eingabekraft über die GUI (24 ) eingibt, und die Positionssteuerungsrichtung orthogonal in einen Nullraum projiziert wird. - Verfahren nach Anspruch 14, das ferner umfasst, dass: die Hostmaschine (
17 ) verwendet wird, um eine Positionsnachführeinrichtung zweiter Ordnung auf die Positionssteuerungsrichtung und eine Kraftnachführeinrichtung zweiter Ordnung auf die Kraftsteuerungsrichtung anzuwenden. - Verfahren nach Anspruch 14, das ferner umfasst, dass: ein vorbestimmter Satz interner Kräfte des humanoiden Roboters (
10 ) bei einer Steuerung auf Objektebene parametriert wird, um dadurch mehrere Grifftypen in Echtzeit zu ermöglichen, welche zumindest einen Grifftyp mit starrem Kontakt und einen Grifftyp mit Punktkontakt umfassen. - Verfahren nach Anspruch 14, das ferner umfasst, dass: automatisch zwischen einem Positionssteuerungsmodus und einem Kraftsteuerungsmodus, wenn der Benutzer die gewünschte Eingabekraft über die GUI (
24 ) bereitstellt, und zwischen einer Impedanzsteuerung auf der Objekt- oder der Greiforgan- oder der Gelenkebene umgeschaltet wird, wenn der Benutzer eine gewünschte Kombination von Greiforganen des humanoiden Roboters (10 ) über die GUI (24 ) wählt.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US17431609P | 2009-04-30 | 2009-04-30 | |
US61/174,316 | 2009-04-30 | ||
US12/624,445 US8364314B2 (en) | 2009-04-30 | 2009-11-24 | Method and apparatus for automatic control of a humanoid robot |
US12/624,445 | 2009-11-24 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102010018438A1 DE102010018438A1 (de) | 2011-01-13 |
DE102010018438B4 true DE102010018438B4 (de) | 2015-06-11 |
Family
ID=43030719
Family Applications (5)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102010018440.3A Expired - Fee Related DE102010018440B4 (de) | 2009-04-30 | 2010-04-27 | Hierarchisches Robotersteuerungssystem und -Verfahren zum Steuern ausgewählter Freiheitsgrade eines Objekts unter Verwendung mehrerer Manipulatoren |
DE102010018438.1A Active DE102010018438B4 (de) | 2009-04-30 | 2010-04-27 | Verfahren und Vorrichtung zur automatischen Steuerung eines humanoiden Roboters |
DE201010018759 Active DE102010018759B4 (de) | 2009-04-30 | 2010-04-29 | Spannungsverteilung in einem sehnengetriebenen Roboterfinger |
DE102010018746.1A Expired - Fee Related DE102010018746B4 (de) | 2009-04-30 | 2010-04-29 | Momentensteuerung von unteraktuierten sehnengetriebenen Roboterfingern |
DE102010018854.9A Expired - Fee Related DE102010018854B4 (de) | 2009-04-30 | 2010-04-30 | Elektrischer Verbinder und elektrische Verbinderbaueinheit |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102010018440.3A Expired - Fee Related DE102010018440B4 (de) | 2009-04-30 | 2010-04-27 | Hierarchisches Robotersteuerungssystem und -Verfahren zum Steuern ausgewählter Freiheitsgrade eines Objekts unter Verwendung mehrerer Manipulatoren |
Family Applications After (3)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE201010018759 Active DE102010018759B4 (de) | 2009-04-30 | 2010-04-29 | Spannungsverteilung in einem sehnengetriebenen Roboterfinger |
DE102010018746.1A Expired - Fee Related DE102010018746B4 (de) | 2009-04-30 | 2010-04-29 | Momentensteuerung von unteraktuierten sehnengetriebenen Roboterfingern |
DE102010018854.9A Expired - Fee Related DE102010018854B4 (de) | 2009-04-30 | 2010-04-30 | Elektrischer Verbinder und elektrische Verbinderbaueinheit |
Country Status (4)
Country | Link |
---|---|
US (5) | US8364314B2 (de) |
JP (2) | JP5180989B2 (de) |
CN (5) | CN101947787B (de) |
DE (5) | DE102010018440B4 (de) |
Families Citing this family (104)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9517106B2 (en) * | 1999-09-17 | 2016-12-13 | Intuitive Surgical Operations, Inc. | Systems and methods for commanded reconfiguration of a surgical manipulator using the null-space |
DE602005005306T2 (de) * | 2005-05-31 | 2009-05-07 | Honda Research Institute Europe Gmbh | Steuerung der Bahn eines Greifers |
US20090248200A1 (en) * | 2007-10-22 | 2009-10-01 | North End Technologies | Method & apparatus for remotely operating a robotic device linked to a communications network |
US8232888B2 (en) * | 2007-10-25 | 2012-07-31 | Strata Proximity Systems, Llc | Interactive magnetic marker field for safety systems and complex proximity warning system |
US8483880B2 (en) * | 2009-07-22 | 2013-07-09 | The Shadow Robot Company Limited | Robotic hand |
KR20110016521A (ko) * | 2009-08-12 | 2011-02-18 | 삼성전자주식회사 | 인간형 로봇의 전신 동작 제어 장치 및 그 방법 |
US8412378B2 (en) * | 2009-12-02 | 2013-04-02 | GM Global Technology Operations LLC | In-vivo tension calibration in tendon-driven manipulators |
US8731714B2 (en) * | 2010-09-22 | 2014-05-20 | GM Global Technology Operations LLC | Concurrent path planning with one or more humanoid robots |
US9101379B2 (en) | 2010-11-12 | 2015-08-11 | Intuitive Surgical Operations, Inc. | Tension control in actuation of multi-joint medical instruments |
US9566710B2 (en) | 2011-06-02 | 2017-02-14 | Brain Corporation | Apparatus and methods for operating robotic devices using selective state space training |
CN102377050A (zh) * | 2011-06-17 | 2012-03-14 | 西南交通大学 | 一种电器接插件 |
CN103718120A (zh) * | 2011-07-27 | 2014-04-09 | Abb技术有限公司 | 用于命令机器人的*** |
US9067319B2 (en) * | 2011-08-11 | 2015-06-30 | GM Global Technology Operations LLC | Fast grasp contact computation for a serial robot |
US8776632B2 (en) * | 2011-08-19 | 2014-07-15 | GM Global Technology Operations LLC | Low-stroke actuation for a serial robot |
US8874262B2 (en) * | 2011-09-27 | 2014-10-28 | Disney Enterprises, Inc. | Operational space control of rigid-body dynamical systems including humanoid robots |
KR101941844B1 (ko) * | 2012-01-10 | 2019-04-11 | 삼성전자주식회사 | 로봇 및 그 제어방법 |
JP5930753B2 (ja) * | 2012-02-13 | 2016-06-08 | キヤノン株式会社 | ロボット装置の制御方法及びロボット装置 |
US9067325B2 (en) | 2012-02-29 | 2015-06-30 | GM Global Technology Operations LLC | Human grasp assist device soft goods |
US8849453B2 (en) | 2012-02-29 | 2014-09-30 | GM Global Technology Operations LLC | Human grasp assist device with exoskeleton |
US9120220B2 (en) | 2012-02-29 | 2015-09-01 | GM Global Technology Operations LLC | Control of a glove-based grasp assist device |
CN102591306B (zh) * | 2012-03-08 | 2013-07-10 | 南京埃斯顿机器人工程有限公司 | 双***组件式的工业机器人控制器 |
EP2854690B1 (de) | 2012-06-01 | 2020-04-01 | Intuitive Surgical Operations, Inc. | Systeme zur gesteuerten rekonfiguration eines chirurgischen manipulators mit nullraumausnutzung |
US9149933B2 (en) * | 2013-02-07 | 2015-10-06 | GM Global Technology Operations LLC | Grasp assist device with shared tendon actuator assembly |
JP5942311B2 (ja) * | 2013-02-25 | 2016-06-29 | パナソニックIpマネジメント株式会社 | ロボット、ロボットの制御装置及び制御方法、並びに、ロボット用制御プログラム |
US9031691B2 (en) * | 2013-03-04 | 2015-05-12 | Disney Enterprises, Inc. | Systemic derivation of simplified dynamics for humanoid robots |
EP2969404B1 (de) * | 2013-03-15 | 2021-08-11 | Intuitive Surgical Operations, Inc. | Systeme zur verwendung des nullraums zur anisotropen betonung einer manipulatorgelenkbewegung |
US9764468B2 (en) | 2013-03-15 | 2017-09-19 | Brain Corporation | Adaptive predictor apparatus and methods |
US9242372B2 (en) * | 2013-05-31 | 2016-01-26 | Brain Corporation | Adaptive robotic interface apparatus and methods |
KR20160018755A (ko) | 2013-06-11 | 2016-02-17 | 소마티스 센서 솔루션즈, 엘엘씨 | 물체를 감지하기 위한 시스템 및 방법 |
US9792546B2 (en) | 2013-06-14 | 2017-10-17 | Brain Corporation | Hierarchical robotic controller apparatus and methods |
US9384443B2 (en) | 2013-06-14 | 2016-07-05 | Brain Corporation | Robotic training apparatus and methods |
US9314924B1 (en) | 2013-06-14 | 2016-04-19 | Brain Corporation | Predictive robotic controller apparatus and methods |
DE102013010290A1 (de) | 2013-06-19 | 2014-12-24 | Kuka Laboratories Gmbh | Überwachen eines kinematisch redundanten Roboters |
US9579789B2 (en) | 2013-09-27 | 2017-02-28 | Brain Corporation | Apparatus and methods for training of robotic control arbitration |
US9597797B2 (en) | 2013-11-01 | 2017-03-21 | Brain Corporation | Apparatus and methods for haptic training of robots |
CN103640639B (zh) * | 2013-11-20 | 2015-12-02 | 浙江大学宁波理工学院 | 一种欠驱动行走机器人 |
KR101510009B1 (ko) * | 2013-12-17 | 2015-04-07 | 현대자동차주식회사 | 착용식 로봇의 구동 장치 |
DE102013227147A1 (de) * | 2013-12-23 | 2015-06-25 | Daimler Ag | Verfahren zum automatisierten Drehfügen und/oder Drehlösenvon Bauteilen, sowie zugehöriger Industrieroboter und automatisierterMontagearbeitsplatz |
FR3016542B1 (fr) * | 2014-01-22 | 2019-04-19 | Aldebaran Robotics | Actionnement d'une main destinee a equiper un robot a caractere humanoide |
FR3016543A1 (fr) * | 2014-01-22 | 2015-07-24 | Aldebaran Robotics | Main destinee a equiper un robot a caractere humanoide a doigts ameliores |
US9358685B2 (en) | 2014-02-03 | 2016-06-07 | Brain Corporation | Apparatus and methods for control of robot actions based on corrective user inputs |
US10231859B1 (en) * | 2014-05-01 | 2019-03-19 | Boston Dynamics, Inc. | Brace system |
US9283676B2 (en) * | 2014-06-20 | 2016-03-15 | GM Global Technology Operations LLC | Real-time robotic grasp planning |
CN104139811B (zh) * | 2014-07-18 | 2016-04-13 | 华中科技大学 | 一种欠驱动的仿生四足机器人 |
US9815206B2 (en) * | 2014-09-25 | 2017-11-14 | The Johns Hopkins University | Surgical system user interface using cooperatively-controlled robot |
US9630318B2 (en) | 2014-10-02 | 2017-04-25 | Brain Corporation | Feature detection apparatus and methods for training of robotic navigation |
DE102014224122B4 (de) * | 2014-11-26 | 2018-10-25 | Siemens Healthcare Gmbh | Verfahren zum Betreiben eines robotischen Gerätes und robotisches Gerät |
JP6630042B2 (ja) | 2014-12-26 | 2020-01-15 | 川崎重工業株式会社 | 双腕ロボットの教示システム及び双腕ロボットの教示方法 |
TWI549666B (zh) * | 2015-01-05 | 2016-09-21 | 國立清華大學 | 具有測量僵硬程度的功能之復健系統 |
JP6468871B2 (ja) * | 2015-02-03 | 2019-02-13 | キヤノン株式会社 | ロボットハンド制御方法及びロボット装置 |
CN107208714B (zh) | 2015-02-25 | 2020-04-28 | 索科普哈应用研究产品商业化公司基因科学Sec | 具有磁流变流体离合器装置的缆绳驱动*** |
US9717387B1 (en) | 2015-02-26 | 2017-08-01 | Brain Corporation | Apparatus and methods for programming and training of robotic household appliances |
DE102015106227B3 (de) | 2015-04-22 | 2016-05-19 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Steuern und/oder Regeln von Motoren eines Roboters |
US9844886B2 (en) | 2015-06-09 | 2017-12-19 | Timothy R. Beevers | Tendon systems for robots |
WO2017052060A1 (ko) * | 2015-09-21 | 2017-03-30 | 주식회사 레인보우 | 계층적 아키텍처를 갖는 실시간 디바이스 제어 시스템 및 이를 이용한 실시간 로봇 제어 시스템 |
KR102235166B1 (ko) | 2015-09-21 | 2021-04-02 | 주식회사 레인보우로보틱스 | 실시간 로봇 시스템, 로봇 시스템 제어 장치 및 로봇 시스템 제어 방법 |
FR3042901B1 (fr) * | 2015-10-23 | 2017-12-15 | Commissariat Energie Atomique | Dispositif de declenchement et d'insertion d'elements absorbants et/ou mitigateurs d'un reacteur nucleaire mettant en œuvre des elements flexibles et assemblage de combustible nucleaire comportant un tel dispositif |
JP6348097B2 (ja) * | 2015-11-30 | 2018-06-27 | ファナック株式会社 | ワーク位置姿勢算出装置およびハンドリングシステム |
JP6710946B2 (ja) * | 2015-12-01 | 2020-06-17 | セイコーエプソン株式会社 | 制御装置、ロボットおよびロボットシステム |
US9669543B1 (en) | 2015-12-11 | 2017-06-06 | Amazon Technologies, Inc. | Validation of robotic item grasping |
CN105690388B (zh) * | 2016-04-05 | 2017-12-08 | 南京航空航天大学 | 一种腱驱动机械手腱张力约束阻抗控制方法及装置 |
US10241514B2 (en) | 2016-05-11 | 2019-03-26 | Brain Corporation | Systems and methods for initializing a robot to autonomously travel a trained route |
US9987752B2 (en) | 2016-06-10 | 2018-06-05 | Brain Corporation | Systems and methods for automatic detection of spills |
US10282849B2 (en) | 2016-06-17 | 2019-05-07 | Brain Corporation | Systems and methods for predictive/reconstructive visual object tracker |
US20190229461A1 (en) * | 2016-06-24 | 2019-07-25 | Molex, Llc | Power connector with terminal |
US10016896B2 (en) | 2016-06-30 | 2018-07-10 | Brain Corporation | Systems and methods for robotic behavior around moving bodies |
CN106313076A (zh) * | 2016-10-31 | 2017-01-11 | 河池学院 | 一种可充电教育机器人 |
US10274325B2 (en) | 2016-11-01 | 2019-04-30 | Brain Corporation | Systems and methods for robotic mapping |
US10001780B2 (en) | 2016-11-02 | 2018-06-19 | Brain Corporation | Systems and methods for dynamic route planning in autonomous navigation |
CN106598056B (zh) * | 2016-11-23 | 2019-05-17 | 中国人民解放军空军工程大学 | 一种提升固定翼飞机隐身性能的舵面优先级调节方法 |
US10723018B2 (en) | 2016-11-28 | 2020-07-28 | Brain Corporation | Systems and methods for remote operating and/or monitoring of a robot |
US10377040B2 (en) | 2017-02-02 | 2019-08-13 | Brain Corporation | Systems and methods for assisting a robotic apparatus |
US10852730B2 (en) | 2017-02-08 | 2020-12-01 | Brain Corporation | Systems and methods for robotic mobile platforms |
CN106826885B (zh) * | 2017-03-15 | 2023-04-04 | 天津大学 | 一种变刚度欠驱动的机器人灵巧手手指 |
CN111246977A (zh) * | 2017-03-30 | 2020-06-05 | 软机器人公司 | 用户辅助型机器人控制*** |
US10293485B2 (en) | 2017-03-30 | 2019-05-21 | Brain Corporation | Systems and methods for robotic path planning |
CN107030694A (zh) * | 2017-04-20 | 2017-08-11 | 南京航空航天大学 | 腱驱动机械手腱张力约束末端力位操作控制方法和装置 |
US10406685B1 (en) * | 2017-04-20 | 2019-09-10 | X Development Llc | Robot end effector control |
EP3638465A4 (de) | 2017-06-15 | 2021-07-07 | OnRobot A/S | Systeme, vorrichtungen und verfahren zur erfassung von orten und kräften |
US10247751B2 (en) | 2017-06-19 | 2019-04-02 | GM Global Technology Operations LLC | Systems, devices, and methods for calculating an internal load of a component |
USD829249S1 (en) * | 2017-07-11 | 2018-09-25 | Intel Corporation | Robotic finger |
JP6545768B2 (ja) * | 2017-10-02 | 2019-07-17 | スキューズ株式会社 | 指機構、ロボットハンド及びロボットハンドの制御方法 |
CN107703813A (zh) * | 2017-10-27 | 2018-02-16 | 安徽硕威智能科技有限公司 | 一种基于可编程卡片驱动的卡片机器人及其控制*** |
US10682774B2 (en) | 2017-12-12 | 2020-06-16 | X Development Llc | Sensorized robotic gripping device |
US10792809B2 (en) * | 2017-12-12 | 2020-10-06 | X Development Llc | Robot grip detection using non-contact sensors |
USD838759S1 (en) * | 2018-02-07 | 2019-01-22 | Mainspring Home Decor, Llc | Combination robot clock and device holder |
CN112823083A (zh) * | 2018-11-05 | 2021-05-18 | 得麦股份有限公司 | 可配置和交互式的机器人*** |
CN109591013B (zh) * | 2018-12-12 | 2021-02-12 | 山东大学 | 一种柔性装配仿真***及其实现方法 |
US11787050B1 (en) | 2019-01-01 | 2023-10-17 | Sanctuary Cognitive Systems Corporation | Artificial intelligence-actuated robot |
US11312012B2 (en) | 2019-01-01 | 2022-04-26 | Giant Ai, Inc. | Software compensated robotics |
DE102019117217B3 (de) * | 2019-06-26 | 2020-08-20 | Franka Emika Gmbh | Verfahren zum Vorgeben eines Eingabewerts an einem Robotermanipulator |
US11117267B2 (en) | 2019-08-16 | 2021-09-14 | Google Llc | Robotic apparatus for operating on fixed frames |
CN111216130B (zh) * | 2020-01-10 | 2021-04-20 | 电子科技大学 | 一种基于变化阻抗控制的不确定机器人自适应控制方法 |
US11530052B1 (en) | 2020-02-17 | 2022-12-20 | Amazon Technologies, Inc. | Systems and methods for automated ground handling of aerial vehicles |
US11597092B1 (en) | 2020-03-26 | 2023-03-07 | Amazon Technologies, Ine. | End-of-arm tool with a load cell |
CN111687834B (zh) * | 2020-04-30 | 2023-06-02 | 广西科技大学 | 移动机械手冗余机械臂逆优先级阻抗控制***及控制方法 |
CN111687833B (zh) * | 2020-04-30 | 2023-06-02 | 广西科技大学 | 机械手逆优先级阻抗控制***及控制方法 |
CN111687832B (zh) * | 2020-04-30 | 2023-06-02 | 广西科技大学 | 空间机械手冗余机械臂逆优先级阻抗控制***及控制方法 |
CN111687835B (zh) * | 2020-04-30 | 2023-06-02 | 广西科技大学 | 水下机械手冗余机械臂逆优先级阻抗控制***及控制方法 |
DE112021003199A5 (de) * | 2020-06-10 | 2023-05-11 | Deutsches Zentrum für Luft- und Raumfahrt e.V. | Verfahren und Computerprogrammprodukt zum Regeln eines Roboters |
US11534924B1 (en) | 2020-07-21 | 2022-12-27 | Amazon Technologies, Inc. | Systems and methods for generating models for automated handling of vehicles |
US11534915B1 (en) | 2020-08-05 | 2022-12-27 | Amazon Technologies, Inc. | Determining vehicle integrity based on observed behavior during predetermined manipulations |
WO2022072887A1 (en) * | 2020-10-02 | 2022-04-07 | Building Machines, Inc. | Systems and methods for precise and dynamic positioning over volumes |
WO2024087108A1 (en) * | 2022-10-27 | 2024-05-02 | Shanghai Flexiv Robotics Technology Co., Ltd. | Robot system and color control method |
Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20050125099A1 (en) * | 2003-10-24 | 2005-06-09 | Tatsuo Mikami | Motion editing apparatus and method for robot device, and computer program |
DE10354642A1 (de) * | 2003-11-22 | 2005-06-16 | Bayerische Motoren Werke Ag | Vorrichtung und Verfahren zum Programmieren eines Industrieroboters |
US6918622B2 (en) * | 2001-11-09 | 2005-07-19 | Korea Institute Of Science And Technology | Robot hand and robot hand finger |
US7113849B2 (en) * | 1999-09-20 | 2006-09-26 | Sony Corporation | Ambulation control apparatus and ambulation control method of robot |
US20070010913A1 (en) * | 2005-07-05 | 2007-01-11 | Atsushi Miyamoto | Motion editing apparatus and motion editing method for robot, computer program and robot apparatus |
US7747351B2 (en) * | 2007-06-27 | 2010-06-29 | Panasonic Corporation | Apparatus and method for controlling robot arm, and robot and program |
Family Cites Families (61)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US2502634A (en) * | 1947-05-22 | 1950-04-04 | Ohio Brass Co | Electric connector |
DE1041559B (de) | 1954-08-05 | 1958-10-23 | Max Frost | Steckvorrichtung zur Verbindung elektrischer Leitungen |
FR1247634A (fr) | 1960-02-04 | 1960-12-02 | Cemel Soc | Contacts par pinces pour connexion électrique |
US3694021A (en) * | 1970-07-31 | 1972-09-26 | James F Mullen | Mechanical hand |
DE2047911A1 (en) | 1970-09-29 | 1972-04-13 | Sel | Annular silicone rubber spring - for electric communications plug contact |
US3845459A (en) * | 1973-02-27 | 1974-10-29 | Bendix Corp | Dielectric sleeve for electrically and mechanically protecting exposed female contacts of an electrical connector |
US4246661A (en) * | 1979-03-15 | 1981-01-27 | The Boeing Company | Digitally-controlled artificial hand |
US4921293A (en) * | 1982-04-02 | 1990-05-01 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Multi-fingered robotic hand |
US4834761A (en) * | 1985-05-09 | 1989-05-30 | Walters David A | Robotic multiple-jointed digit control system |
US4860215A (en) * | 1987-04-06 | 1989-08-22 | California Institute Of Technology | Method and apparatus for adaptive force and position control of manipulators |
US4821207A (en) * | 1987-04-28 | 1989-04-11 | Ford Motor Company | Automated curvilinear path interpolation for industrial robots |
US4865376A (en) * | 1987-09-25 | 1989-09-12 | Leaver Scott O | Mechanical fingers for dexterity and grasping |
US4957320A (en) * | 1988-08-31 | 1990-09-18 | Trustees Of The University Of Pennsylvania | Methods and apparatus for mechanically intelligent grasping |
US5062673A (en) * | 1988-12-28 | 1991-11-05 | Kabushiki Kaisha Toyota Chuo Kenkyusho | Articulated hand |
US5303384A (en) * | 1990-01-02 | 1994-04-12 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | High level language-based robotic control system |
US5200679A (en) * | 1990-02-22 | 1993-04-06 | Graham Douglas F | Artificial hand and digit therefor |
JPH04178708A (ja) | 1990-11-13 | 1992-06-25 | Fujitsu Ltd | ロボット制御装置 |
US5133216A (en) * | 1990-11-14 | 1992-07-28 | Bridges Robert H | Manipulator integral force sensor |
JPH0712596B2 (ja) * | 1991-03-28 | 1995-02-15 | 工業技術院長 | ロボットア―ムのワイヤ―干渉駆動方式 |
US5197908A (en) | 1991-11-29 | 1993-03-30 | Gunnar Nelson | Connector |
US5737500A (en) * | 1992-03-11 | 1998-04-07 | California Institute Of Technology | Mobile dexterous siren degree of freedom robot arm with real-time control system |
US5499320A (en) * | 1993-03-24 | 1996-03-12 | The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration | Extended task space control for robotic manipulators |
JP3350687B2 (ja) | 1993-06-30 | 2002-11-25 | 日立建機株式会社 | ロボット制御方法およびロボット制御装置 |
JPH08293346A (ja) * | 1995-04-18 | 1996-11-05 | Whitaker Corp:The | 電気コネクタ及びコネクタ組立体 |
US5650704A (en) * | 1995-06-29 | 1997-07-22 | Massachusetts Institute Of Technology | Elastic actuator for precise force control |
US5762390A (en) * | 1996-07-16 | 1998-06-09 | Universite Laval | Underactuated mechanical finger with return actuation |
JPH10154540A (ja) * | 1996-11-25 | 1998-06-09 | Amp Japan Ltd | 電気コネクタ及びそれを使用した電気コネクタ組立体 |
US6247738B1 (en) * | 1998-01-20 | 2001-06-19 | Daum Gmbh | Robot hand |
US6435794B1 (en) * | 1998-11-18 | 2002-08-20 | Scott L. Springer | Force display master interface device for teleoperation |
JP3486639B2 (ja) * | 1999-10-26 | 2004-01-13 | 株式会社テムザック | マニピュレータ |
US7699835B2 (en) * | 2001-02-15 | 2010-04-20 | Hansen Medical, Inc. | Robotically controlled surgical instruments |
US6456901B1 (en) * | 2001-04-20 | 2002-09-24 | Univ Michigan | Hybrid robot motion task level control system |
US6951465B2 (en) | 2002-01-15 | 2005-10-04 | Tribotek, Inc. | Multiple-contact woven power connectors |
JP2003256203A (ja) * | 2002-03-01 | 2003-09-10 | Mitsubishi Electric Corp | 自動機アプリケーションプログラム開発システム、プログラム開発方法、この方法を実行するプログラム、及びこのプログラムを記憶した記憶媒体 |
AU2003218010A1 (en) * | 2002-03-06 | 2003-09-22 | Z-Kat, Inc. | System and method for using a haptic device in combination with a computer-assisted surgery system |
JP2003274374A (ja) * | 2002-03-18 | 2003-09-26 | Sony Corp | 画像伝送装置及び方法、送信装置及び方法、受信装置及び方法、並びにロボット装置 |
DE10235943A1 (de) * | 2002-08-06 | 2004-02-19 | Kuka Roboter Gmbh | Verfahren und Vorrichtung zum synchronen Steuern von Handhabungsgeräten |
JP4007279B2 (ja) | 2003-08-07 | 2007-11-14 | 住友電装株式会社 | 雌端子金具 |
WO2005028166A1 (ja) * | 2003-09-22 | 2005-03-31 | Matsushita Electric Industrial Co., Ltd. | 弾性体アクチュエータの制御装置及び制御方法 |
US7341295B1 (en) * | 2004-01-14 | 2008-03-11 | Ada Technologies, Inc. | Prehensor device and improvements of same |
CN1304178C (zh) * | 2004-05-24 | 2007-03-14 | 熊勇刚 | 一种多机械臂机器人关节间的碰撞检测方法 |
JP2006159320A (ja) * | 2004-12-03 | 2006-06-22 | Sharp Corp | ロボットハンド |
US20060277466A1 (en) * | 2005-05-13 | 2006-12-07 | Anderson Thomas G | Bimodal user interaction with a simulated object |
JP2007075929A (ja) | 2005-09-13 | 2007-03-29 | Mie Univ | 多指ロボットハンドの制御方法 |
US7383100B2 (en) * | 2005-09-29 | 2008-06-03 | Honda Motor Co., Ltd. | Extensible task engine framework for humanoid robots |
CN2862386Y (zh) * | 2005-12-22 | 2007-01-24 | 番禺得意精密电子工业有限公司 | 电连接器 |
EP1815949A1 (de) * | 2006-02-03 | 2007-08-08 | The European Atomic Energy Community (EURATOM), represented by the European Commission | Medizinisches Robotersystem mit einem Manipulatorarm mit zylindrischer Kinematik |
US7377809B2 (en) | 2006-04-14 | 2008-05-27 | Extreme Broadband Engineering, Llc | Coaxial connector with maximized surface contact and method |
JP4395180B2 (ja) * | 2006-09-05 | 2010-01-06 | イヴァン ゴドレール | 運動変換装置 |
US8231158B2 (en) * | 2006-11-03 | 2012-07-31 | President And Fellows Of Harvard College | Robust compliant adaptive grasper and method of manufacturing same |
CN200974246Y (zh) * | 2006-11-23 | 2007-11-14 | 华南理工大学 | 基于非正则反馈回路的欠驱动机器人控制*** |
CN100439048C (zh) * | 2007-01-26 | 2008-12-03 | 清华大学 | 机器人拟人手欠驱动多指装置 |
CN201038406Y (zh) * | 2007-04-11 | 2008-03-19 | 凡甲科技股份有限公司 | 电源连接器的端子结构 |
US8560118B2 (en) * | 2007-04-16 | 2013-10-15 | Neuroarm Surgical Ltd. | Methods, devices, and systems for non-mechanically restricting and/or programming movement of a tool of a manipulator along a single axis |
CN101190528A (zh) * | 2007-12-12 | 2008-06-04 | 哈尔滨工业大学 | 欠驱动耦合传动式仿人手指机构 |
CN101332604B (zh) * | 2008-06-20 | 2010-06-09 | 哈尔滨工业大学 | 人机相互作用机械臂的控制方法 |
KR101549818B1 (ko) * | 2008-12-02 | 2015-09-07 | 삼성전자 주식회사 | 로봇 핸드 및 그 제어방법 |
US8060250B2 (en) * | 2008-12-15 | 2011-11-15 | GM Global Technology Operations LLC | Joint-space impedance control for tendon-driven manipulators |
US8052185B2 (en) * | 2009-04-09 | 2011-11-08 | Disney Enterprises, Inc. | Robot hand with humanoid fingers |
US8424941B2 (en) * | 2009-09-22 | 2013-04-23 | GM Global Technology Operations LLC | Robotic thumb assembly |
US8260460B2 (en) * | 2009-09-22 | 2012-09-04 | GM Global Technology Operations LLC | Interactive robot control system and method of use |
-
2009
- 2009-11-24 US US12/624,445 patent/US8364314B2/en active Active
-
2010
- 2010-01-13 US US12/686,512 patent/US8483882B2/en active Active
- 2010-02-17 US US12/706,744 patent/US8033876B2/en not_active Expired - Fee Related
- 2010-03-10 US US12/720,725 patent/US8412376B2/en active Active
- 2010-03-10 US US12/720,727 patent/US8565918B2/en active Active
- 2010-04-27 DE DE102010018440.3A patent/DE102010018440B4/de not_active Expired - Fee Related
- 2010-04-27 DE DE102010018438.1A patent/DE102010018438B4/de active Active
- 2010-04-29 DE DE201010018759 patent/DE102010018759B4/de active Active
- 2010-04-29 DE DE102010018746.1A patent/DE102010018746B4/de not_active Expired - Fee Related
- 2010-04-30 CN CN201010170221.5A patent/CN101947787B/zh not_active Expired - Fee Related
- 2010-04-30 DE DE102010018854.9A patent/DE102010018854B4/de not_active Expired - Fee Related
- 2010-04-30 JP JP2010105597A patent/JP5180989B2/ja active Active
- 2010-04-30 CN CN2010102140357A patent/CN101976772A/zh active Pending
- 2010-04-30 CN CN2010101702107A patent/CN101947786B/zh active Active
- 2010-04-30 CN CN201010224052.9A patent/CN102029610B/zh not_active Expired - Fee Related
- 2010-04-30 JP JP2010105602A patent/JP5002035B2/ja not_active Expired - Fee Related
- 2010-04-30 CN CN201010224007.3A patent/CN102145489B/zh active Active
Patent Citations (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7113849B2 (en) * | 1999-09-20 | 2006-09-26 | Sony Corporation | Ambulation control apparatus and ambulation control method of robot |
US6918622B2 (en) * | 2001-11-09 | 2005-07-19 | Korea Institute Of Science And Technology | Robot hand and robot hand finger |
US20050125099A1 (en) * | 2003-10-24 | 2005-06-09 | Tatsuo Mikami | Motion editing apparatus and method for robot device, and computer program |
DE10354642A1 (de) * | 2003-11-22 | 2005-06-16 | Bayerische Motoren Werke Ag | Vorrichtung und Verfahren zum Programmieren eines Industrieroboters |
US20070010913A1 (en) * | 2005-07-05 | 2007-01-11 | Atsushi Miyamoto | Motion editing apparatus and motion editing method for robot, computer program and robot apparatus |
US7747351B2 (en) * | 2007-06-27 | 2010-06-29 | Panasonic Corporation | Apparatus and method for controlling robot arm, and robot and program |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102010018438B4 (de) | Verfahren und Vorrichtung zur automatischen Steuerung eines humanoiden Roboters | |
DE102011110902B4 (de) | Sicherer Betrieb eines Kraft- oder ImpedanzgesteuertenRoboters im Arbeitsraum | |
DE102010045528B4 (de) | Gerüst und Verfahren zum Steuern eines Robotersystems unter Verwendung eines verteilten Rechnernetzwerks | |
EP2987592B1 (de) | Verfahren zum programmieren eines industrieroboters und zugehöriger industrieroboter | |
DE102011113590B4 (de) | Planen simultaner Pfade mit einem oder mehreren humanoiden Robotern | |
DE102009014074B4 (de) | Roboter und Verfahren zum Steuern einer kooperativen Arbeit des Roboters | |
DE102012213957B4 (de) | Schnelle Berechnung von Griffkontakten für einen seriellen Roboter | |
DE10392966B4 (de) | Parallele haptische Joystick-Vorrichtung | |
DE102010045532B4 (de) | Roboterdaumenanodnung | |
DE102010045525B4 (de) | Handgelenk eines geschickten humanoiden Roboters | |
DE102011117094B4 (de) | Robuster betrieb von sehnengetriebenen roboterfingern unter verwendung von kraft- und positionsbasierten steuergesetzen | |
DE102010045554B4 (de) | Integriertes Hochgeschwindigkeitsdrehmomentregelsystem für ein Robotergelenk | |
DE102017202717A1 (de) | Roboteranlernung per menschlicher demonstration von aufgaben mit kraft- und positionszielen | |
DE102010045529A1 (de) | Interaktives Robotersteuerungssystem und Verwendungsverfahren | |
DE102015109646B4 (de) | Planen des Greifens eines Roboters in Echtzeit | |
DE102011016113B4 (de) | Verfahren und Vorrichtung zum Kalibrieren mehrachsiger Kraftaufnehmer in einem geschickten Roboter | |
DE102019134665B3 (de) | Kalibrieren eines virtuellen Kraftsensors eines Robotermanipulators | |
Reis et al. | Modeling and control of a multifingered robot hand for object grasping and manipulation tasks | |
DE102019220619B3 (de) | Bewegen einer roboterfesten Referenz | |
O'Malley et al. | Haptic feedback applications for Robonaut | |
Si et al. | A novel robot skill learning framework based on bilateral teleoperation | |
Sena et al. | Haptic bimanual system for teleoperation of time-delayed tasks | |
DE102015003941A1 (de) | Steuern eines mobilen redundanten Roboters | |
Wormley et al. | High dexterity robotics for safety and emergency response-17104 | |
DE102021129897B4 (de) | Modulare Robotervorrichtung und Verfahren zum Betreiben einer modularen Robotervorrichtung |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
OP8 | Request for examination as to paragraph 44 patent law | ||
8127 | New person/name/address of the applicant |
Owner name: THE U.S.A. AS REPRESENTED BY THE ADMINISTRATOR, US Owner name: GM GLOBAL TECHNOLOGY OPERATIONS LLC , ( N. D. , US |
|
R081 | Change of applicant/patentee |
Owner name: THE U.S.A. AS REPRESENTED BY THE ADMINISTRATOR, US Free format text: FORMER OWNERS: GM GLOBAL TECHNOLOGY OPERATIONS LLC (N. D. GESETZEN DES STAATES DELAWARE), DETROIT, MICH., US; THE U.S.A. AS REPRESENTED BY THE ADMINISTRATOR OF THE NATIONAL AERONAUTICS AND SPACE ADMINISTRATION, WASHINGTON, D.C., US Effective date: 20110321 Owner name: GM GLOBAL TECHNOLOGY OPERATIONS LLC (N. D. GES, US Free format text: FORMER OWNERS: GM GLOBAL TECHNOLOGY OPERATIONS LLC (N. D. GESETZEN DES STAATES DELAWARE), DETROIT, MICH., US; THE U.S.A. AS REPRESENTED BY THE ADMINISTRATOR OF THE NATIONAL AERONAUTICS AND SPACE ADMINISTRATION, WASHINGTON, D.C., US Effective date: 20110321 Owner name: GM GLOBAL TECHNOLOGY OPERATIONS LLC (N. D. GES, US Free format text: FORMER OWNER: GM GLOBAL TECHNOLOGY OPERATIONS, THE U.S.A. AS REPRESENTED BY TH, , US Effective date: 20110321 Owner name: THE U.S.A. AS REPRESENTED BY THE ADMINISTRATOR, US Free format text: FORMER OWNER: GM GLOBAL TECHNOLOGY OPERATIONS, THE U.S.A. AS REPRESENTED BY TH, , US Effective date: 20110321 |
|
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R020 | Patent grant now final |