DE112006002894B4 - Vernetztes Vielzweck-Roboterfahrzeug - Google Patents

Vernetztes Vielzweck-Roboterfahrzeug Download PDF

Info

Publication number
DE112006002894B4
DE112006002894B4 DE112006002894.4T DE112006002894T DE112006002894B4 DE 112006002894 B4 DE112006002894 B4 DE 112006002894B4 DE 112006002894 T DE112006002894 T DE 112006002894T DE 112006002894 B4 DE112006002894 B4 DE 112006002894B4
Authority
DE
Germany
Prior art keywords
vehicle
data
network
payload
control
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
DE112006002894.4T
Other languages
English (en)
Other versions
DE112006002894T5 (de
Inventor
William Robert Norris
James Allard
Jeffery S. Puhalla
Kathleen A. Wienhold
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Deere and Co
iRobot Corp
Original Assignee
Deere and Co
iRobot Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Deere and Co, iRobot Corp filed Critical Deere and Co
Publication of DE112006002894T5 publication Critical patent/DE112006002894T5/de
Application granted granted Critical
Publication of DE112006002894B4 publication Critical patent/DE112006002894B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0051Handover processes from occupants to vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/04Programme control other than numerical control, i.e. in sequence controllers or logic controllers
    • G05B19/042Programme control other than numerical control, i.e. in sequence controllers or logic controllers using digital processors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60TVEHICLE BRAKE CONTROL SYSTEMS OR PARTS THEREOF; BRAKE CONTROL SYSTEMS OR PARTS THEREOF, IN GENERAL; ARRANGEMENT OF BRAKING ELEMENTS ON VEHICLES IN GENERAL; PORTABLE DEVICES FOR PREVENTING UNWANTED MOVEMENT OF VEHICLES; VEHICLE MODIFICATIONS TO FACILITATE COOLING OF BRAKES
    • B60T7/00Brake-action initiating means
    • B60T7/12Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger
    • B60T7/22Brake-action initiating means for automatic initiation; for initiation not subject to will of driver or passenger initiated by contact of vehicle, e.g. bumper, with an external object, e.g. another vehicle, or by means of contactless obstacle detectors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W60/00Drive control systems specially adapted for autonomous road vehicles
    • B60W60/005Handover processes
    • B60W60/0053Handover processes from vehicle to occupant
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B62LAND VEHICLES FOR TRAVELLING OTHERWISE THAN ON RAILS
    • B62DMOTOR VEHICLES; TRAILERS
    • B62D1/00Steering controls, i.e. means for initiating a change of direction of the vehicle
    • B62D1/24Steering controls, i.e. means for initiating a change of direction of the vehicle not vehicle-mounted
    • B62D1/28Steering controls, i.e. means for initiating a change of direction of the vehicle not vehicle-mounted non-mechanical, e.g. following a line or other known markers
    • B62D1/286Systems for interrupting non-mechanical steering due to driver intervention
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B19/00Programme-control systems
    • G05B19/02Programme-control systems electric
    • G05B19/18Numerical control [NC], i.e. automatically operating machines, in particular machine tools, e.g. in a manufacturing environment, so as to execute positioning, movement or co-ordinated operations by means of programme data in numerical form
    • G05B19/414Structure of the control system, e.g. common controller or multiprocessor systems, interface to servo, programmable interface controller
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0055Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements
    • G05D1/0061Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots with safety arrangements for transition from automatic pilot to manual pilot and vice versa
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/12Protocols specially adapted for proprietary or special-purpose networking environments, e.g. medical networks, sensor networks, networks in vehicles or remote metering networks
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • G05D1/024Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors in combination with a laser
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • G05D1/0251Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means extracting 3D information from a plurality of images taken from different locations, e.g. stereo vision
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0259Control of position or course in two dimensions specially adapted to land vehicles using magnetic or electromagnetic means
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/027Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising intertial navigation means, e.g. azimuth detector
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0272Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means comprising means for registering the travel distance, e.g. revolutions of wheels
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0268Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means
    • G05D1/0274Control of position or course in two dimensions specially adapted to land vehicles using internal positioning means using mapping information stored in a memory device
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/0278Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using satellite positioning signals, e.g. GPS
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0276Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle
    • G05D1/028Control of position or course in two dimensions specially adapted to land vehicles using signals provided by a source external to the vehicle using a RF signal
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/01Mobile robot
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10STECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10S901/00Robots
    • Y10S901/46Sensing device
    • Y10S901/47Optical

Landscapes

  • Engineering & Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Manufacturing & Machinery (AREA)
  • Business, Economics & Management (AREA)
  • Signal Processing (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Game Theory and Decision Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Traffic Control Systems (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Control Of Driving Devices And Active Controlling Of Vehicle (AREA)
  • Manipulator (AREA)
  • Electromagnetism (AREA)
  • Steering Control In Accordance With Driving Conditions (AREA)
  • Optics & Photonics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Shielding Devices Or Components To Electric Or Magnetic Fields (AREA)
  • Regulating Braking Force (AREA)

Abstract

System umfassend:ein Fahrzeugsteuerungssystem zum Steuern eines autonomen Fahrzeugs, Aufnehmen von Daten und Übermitteln eines Steuersignals an wenigstens ein Netzwerk;einen abnehmbar sich mit dem autonomen Fahrzeug verbindenden Nutzlastadapter,wobei die Nutzlast eine Netzwerkschnittstelle umfasst, die dazu eingerichtet ist,Steuersignale von dem Fahrzeugsteuerungssystem über das wenigstens eine Netzwerk zu erhalten, undwobei das Fahrzeugsteuerungssystem die Nutzlastdaten verkapselt und die Nutzlastdaten über das wenigstens eine Netzwerk überträgt;wobei das Fahrzeug mit Nutzlastbuchten versehen ist, die eine oder mehrere Nutzlastschnittstellen sowie einen Stromanschluss umfassen, um Zugriff auf austauschbare Nutzlasten und ein Stromsystem des Fahrzeugs zu erlauben.

Description

  • Verwandte Anmeldungen
  • Diese Erfindung beansprucht die Priorität der U.S. Provisional Patent Anmeldung Nr. 60/729,445 vom 21. Oktober 2005, U.S. Provisional Patent Anmeldung Nr. 60/729,388 vom 21. Oktober 2005, U.S. Provisional Patent Anmeldung Nr. 60/780,389 vom o8. März 2006 und U.S. Provisional Patent Anmeldung Nr. 60/838,704 vom 18. August 2006, die hier alle durch Bezugnahme vollständig einbezogen werden.
  • Diese Erfindung bezieht sich auf US-Patent No. 6,535,793 mit dem Titel „Verfahren und System zur Fernsteuerung eines mobilen Roboters“, US Patent 6,813,557 mit dem Titel „Verfahren und System zum Steuern eines Fahrzeugs mit einer Mehrzahl von Steuermodi“ , US Patent 6,845,297 mit dem Titel „Verfahren und System für Fernsteuerung eines mobilen Roboters“, die jeweils durch Bezugnahme vollständig einbezogen werden.
  • Diese Erfindung bezieht sich weiter auf US-Patent No. 6,434,462 mit dem Titel „GPS-Steuerung einer von einem Traktor gezogene Einrichtung“, US Patent 6,901,319 mit dem Titel „System und Verfahren zum Steuern eines Landfahrzeugs“, US Patent 6,694,260 mit dem Titel „Inertial-Augmentierung für die GPS-Navigation von Landfahrzeugen“, US Patent 6,789,014 mit dem Titel „Direkte Modifikation von DGPS-Information mit Inertialmessungsdaten“, US Patent 6,813,557 mit dem Titel „Verfahren und System zum Steuern eines Fahrzeugs mit einer Mehrzahl vom Steuermodi“, die jeweils durch Bezugnahme vollständig einbezogen werden.
  • GEBIET DER ERFINDUNG
  • Die Erfindung betrifft im allgemeinen Systeme und Verfahren für die autonome Steuerung von Fahrzeugen und Fahrzeugsensoren, Betätigungseinrichtungen und/oder Kommunikationseinrichtungen. Insbesondere betreffen Ausführungen dieser Erfindung Systeme und Verfahren für modulare Schnittstellen, Kommunikationsprotokolle, Kamera-Mast-Einheiten und Steuereinheiten für verschiedene Funktionen.
  • HINTERGRUND DER ERFINDUNG
  • Im Oktober 2005 haben fünf autonome Fahrzeuge (von dreiundzwanzig Finalistfahrzeugen) erfolgreich die „Grand Challenge“ des US-DARPA (Defense Advanced Research Projects Administration), einen Wettbewerb, der von Roboterfahrzeugen verlangte einen Weg von mehr als 100 Meilen zurückzulegen, absolviert. Diese Fahrzeuge waren mit robotischen Steuerungssystemen und mit einer Steuereinheit einer Mehrzahl von Computer versehen, die alle Betriebssysteme des Fahrzeuges, wie die Steuerung, die Bremsen, das Getriebe und den Gaszug, steuerten und die Gegenstand autonomer Entscheidungen waren, die durch Programme an Bord des Fahrzeuges als Antwort auf Sensoreingabe getroffen wurden, ohne menschlichen Einfluss auf deren eigentliche Durchführung.
  • US 6 633 800 B1 offenbart ein Kontrollsystem für die Fernsteuerung von Bergbaufahrzeugen, das mit einem Netzwerk zum Übertragen von Daten verbunden ist. Ferner ist die Verwendung eines abnehmbaren Diagnosetools offenbart.
  • US 5 170 352 A offenbart ein Fahrzeugsystem zum Steuern eines autonomen Fahrzeuges, Aufnehmen von Daten und Übermitteln eines Steuersignals an wenigstens ein Netzwerk.
  • US 2003 / 0 038 842 A1 beschreibt eine rekonfigurierbare Ein-/Ausgabevorrichtung.
  • US 2005 / 0 002 419 A1 offenbart eine Netzwerkstruktur, welche eine Kommunikation zwischen einem stationären Netzwerk mit einem ersten Datenübertragungsprotokoll und einem mobilen Gerät, welches innerhalb eines zweiten Netzwerks mittels eines zweiten Datenübertragungsprotokolls kommuniziert, ermöglicht. Zum Datenaustausch sind dabei das stationäre Netzwerk und das zweite Netzwerk durch eine Netzwerksteuerung miteinander verbunden, welche von dem mobilen Gerät mittels des zweiten Datenübertragungsprotokolls empfangene Daten einkapselnd übertragen kann.
  • US 5 684 696 A offenbart ein System und ein Verfahren, um ein autonomes Fahrzeug in die Lage zu versetzen, einen gewünschten Weg zu verfolgen, und zu dem gewünschten Weg zurückzukehren, falls das Fahrzeug von dem gewünschten Weg abweicht.
  • ZUSAMMENFASSUNG
  • Probleme aus dem Stand der Technik werden durch ein erfindungsgemäßes System nach Anspruch 1, 11, 16, 22 oder 27 überwunden.
  • Bestimmte Aspekte und Ausführungen betreffen ein vernetztes Fahrzeug, das entweder im autonomen oder manuellen Betrieb gesteuert werden kann. In einem Ausführungsbeispiel hat das Fahrzeug eine Vielzahl von Nutzlastbuchten mit Nutzlastschnittstellen, wobei die Nutzlasten abnehmbar mit dem Fahrzeug verbunden sein können und mit dem Steuerungssystem des Fahrzeuges kommunizieren können. Die Schnittstellen können integrationsfreie Verbindung für die Nutzlasten zu dem Steuerungssystem des Fahrzeuges erlauben, inklusive zum Beispiel einer RCU (robotic control unit) und/oder einer VCU (vehicle control unit) auf dem eigenständigen Fahrzeug, indem sie eine Stromversorgung und ein Netzwerkanschluss für kompatible Kommunikation zwischen der Nutzlast und dem Steuerungssystem des Fahrzeuges über ein oder mehrere Netzwerke bieten. Zum Beispiel kann dies ein LPC (local packet network) und ein VCN (vehicle control network) oder eine Kombination dieser beiden sein.
  • In bestimmten Ausführungen kann die Nutzlast eine Kamera-Mast-Einheit umfassen, die abnehmbar an die Fahrzeugschnittstelle an der Nutzlastfläche ankoppelt. Die Kamera-Mast-Einheit kann eine Netzwerkschnittstelle umfassen, die mit dem FahrFahrzeugsteuerungssystem über wenigstens ein Netzwerk, und eine Kammer zum Aufnehmen einer Hilfseinrichtung umfassen. Die Kammer kann eine Kamera-Mast-Einheitsschnittstelle umfassen, um den benachbarten Einrichtungen zu erlauben, abnehmbar mit der Kamera-Mast-Einheit in Verbindung zu treten und kompatibel mit der Kamera-Mast-Einheit zu kommunizieren. In anderen Ausführungen kann die Nutzlast wenigstens eines aus der Gruppe: GPS System, chemisches Detektionssystem, Laserscanner und einem Radio umfassen.
  • Das Fahrzeug istmit Nutzlastbuchten versehen , die ein oder mehrere Nutzlastschnittstellen umfassen. Die Nutzlastschnittstellen ermöglichen Nutzern den Zugriff auf austauschbare Fahrzeug-Nutzlasten. Die Nutzlastschnittstellen können auch Netzwerkanschlüsse umfassen, um es den Nutzlasten zu erlauben, mit dem Fahrzeugsteuerungssystem durch Übersenden und Empfangen von Daten durch die Nutzlastschnittstelle und das Netzwerk zu kommunizieren. In einigen Ausführungen können die Nutzlastbuchten in dem Fahrzeugchassis oder dem Lastwagenchassis angeordnet sein. Alternativ können die Nutzlastbuchten unter den Sitzen oder in dem Handschuhfach vorgesehen werden. In einem Ausführungsbeispiel sind die Nutzlastbuchten in dem Lastwagenchassis angeordnet, da die Nutzlasten unförmig groß sind und mit den Passagiersitzen in Konflikt kämen, wenn sie innerhalb des Fahrgastraumes oder in dem Handschuhfach angeordnet würden.
  • Die Nutzlastbuchten umfassen einen Stromanschluss, um Zugriff auf das Stromsystem des Fahrzeuges zu erlauben. Die Nutzlastbucht kann auch einen Schalter zum Steuern der Spannungs- und Strommenge umfassen. In einem Ausführungsbeispiel ist die Stromzuführung und der Schalter durch oder von jedem RCU steuerbar. Das Schaffen von flexibler Spannung erlaubt es jeder Nutzlast, mit ihrer eigenen bevorzugten Spannung und Strom betrieben zu werden, ohne zusätzliche Stromquellen vorzusehen.
  • Bestimmte Ausführungen können gleichzeitig zwei OCU (operator control unit) umfassen, die Nutzlasten steuern und/oder das Fahrzeugsteuerungssystem steuern können. Eine erste OCU, die Armaturenbrett-OCU, ist genügend klein, um abnehmbar an dem Armaturenbrett des Fahrzeugs befestigt zu werden. Eine zweite OCU, die Fernbedien-OCU genannt wird, kann von einer Person genutzt werden, die nicht in dem Fahrzeug transportiert wird. Sie kann dazu benutzt werden, dass Fahrzeug und Systeme oder Nutzlasten des Fahrzeuges zu kontrollieren, wenn das Fahrzeug im autonomen oder fernbedienten Modus benutzt wird. Es umfasst eine Anordnung, die eine ausreichende Auflösung aufweist, und um eine Abbildung des Armaturenbrett-OCU-Bildschirms zu zeigen, inklusive im wesentlichen eines Realtime-Abbildes der Daten und der Grafiken, die auf der OCU des Armaturenbrettes angezeigt werden. Der Nutzer der Fernbedienungs-OCU kann Daten zur Anzeige auf dem Bildschirm der Armaturenbrett-OCU senden.
  • Beide Steuereinheiten für den Benutzer, die am Armaturenbrett und die Fernbediendung, können mit dem Fahrzeugsteuerungssystem kommunizieren, um Funktionen des Fahrzeugs zu steuern. Die OCU kann Daten in Ethernet-Paketen aus dem Steuerungssystem des Fahrzeuges oder den Nutzlasten aufnehmen und kann die Daten anzeigen. Die Nutzersteuereinrichtungen können auch Kommandos an und Funktionen vom Fahrzeugkontrollsystem senden bzw. steuern. Zum Beispiel kann die Armaturenbrett-OCU es erlauben, dass ein Benutzer die lokalen Funktionen des Fahrzeugsteuerungssystems steuert, zum Beispiel das Steuern oder Steuerfunktionen der Nutzlast.
  • In einigen Ausführungen können verschiedene Kombinationen von RCUs (robotic control units) und/oder VCUs (vehicle control units) die Berechnung der Daten und Funktionen bearbeiten. In einem Ausführungsbeispiel wird die Berechnung der Robotik durch Bearbeitungsschaltkreise innerhalb der RCUs durchgeführt, die auch Stromversorgung, eine motorische Verstärkung oder ein DSP (ein Motortreiber) und einen Ethernet-Schalter aufweisen. In einigen Ausführungen ist es nicht notwendig, dass die Berechnung der Robotik von den RCUs durchgeführt wird - ein Zentralcomputer oder eine weniger verteilte Lösung kann genutzt werden.
  • In bestimmten Ausführungen nutzen die RCU und/oder VCU ein virtuelles Terminalprotokoll, um einen CAN (Controller Area Network) zu verkapseln oder andere Datentypen in ein oder mehr Ethernet-Pakete zu verbringen. Die RCU und/oder VCU können dann die Ethernet-Pakete an die Armaturenbrett-OCU, die Fernbedien-OCU oder Nutzlast über wenigstens ein Netzwerk senden. Zum Beispiel kann ein lokales Paketnetzwerk, wie zum Beispiel ein Ethernet-Netzwerk, und ein Fahrzeugsteuernetzwerk, wie zum Beispiel ein CAN-Netzwerk, oder eine Kombination der beiden genutzt werden. Das Ethernet-Netzwerk ist zum Übertragen von Daten zwischen der Nutzlast, Betätigungen, Sensoren und Steuerung nützlich und ist üblicherweise nicht die gleiche physikalische Ebene, die für die Fernbedienung des Fahrzeuges genutzt wird. Zur gleichen Zeit ist es nützlich zur Fernbedienung des Fahrzeuges, wenn die Ethernet- und CAN-Netzwerke auf die gleichen Netzwerkprotokolle zurückgreifen. Entsprechend kann ein lokales Paketnetzwerk vorteilhafterweise eine physikalische und/oder Datenverbindungsebene aufweisen, und mit einer Fernbedienungs-OCU, mit einer zweiten physikalischen und/oder Datenverbindungsebene in Verbindung treten, aber jede Ebene nutzt die gleiche Transportebene. Für weitere Flexibilität können die Pakete des Fahrzeugsteuernetzwerkes durch die Transportebene getunnelt werden, entweder zwischen der Nutzlastbucht, den Prozessorschaltkreisen, Sensoren und/oder Betätigungseinrichtungen des Fahrzeuges oder zu der Fernbedien-OCU über Funk. Es ist vorteilhaft, dass ein LPN (local packet network) Verbindungen in den Passagierraum und in den Kofferraum aufweist, so dass Nutzlasten oder Systeme in das Fahrzeug eingestöpselt werden können, um über die Netzwerke zu kommunizieren.
  • In einem Ausführungsbeispiel ist eine drahtlose Fernbedienung mit dem Ethernet-Netzwerk verbunden und schafft einen Kanal zu der Fernbedienungs-OCU, um eine Steuerung oder anderes Zubehör in die Fernbedienungs-OCU einzustöpseln. Auf diese Weise werden Steuerungen und/oder Fernbedienungen für ein bestimmtes Nutzlastsystem alternativ in entweder dem Fahrzeugraum oder bei der Fernbedien-OCU genutzt werden können.
  • Figurenliste
  • Diese und andere Merkmale, Aspekte und Vorteile dieser Erfindung werden besser verstanden, wenn die nachfolgende, ausführliche Beschreibung in Bezug auf die beigefügten Zeichnungen gelesen wird, wobei:
    • 1 ein Blockdiagramm eines Fahrzeugsteuerungssystems in einem Ausführungsbeispiel der vorliegenden Erfindung ist.
    • 2A und 2B funktionale, schematische Diagramme eines beispielhaft dargestellten Steuerungssystems in einem Ausführungsbeispiel der vorliegenden Erfindung sind.
    • 3A-B Diagramme eines beispielhaften Fahrzeuges inklusive von Fahrzeugsteuereinrichtungen in einem Ausführungsbeispiel der vorliegenden Erfindung sind.
    • 4 zeigt ein Fahrzeug nach einem Ausführungsbeispiel der vorliegenden Erfindung, das eine Kamera-Mast-Einheit hinzugefügt besitzt.
    • 5A-C zeigen eine Kamera und eine Kamera-Mast-Einheit nach einem Ausführungsbeispiel der vorliegenden Erfindung.
    • 6A -B zeigen eine Armaturenbrettbenutzersteuereinrichtung und eine Schnittstelle nach einem Ausführungsbeispiel der vorliegenden Erfindung.
    • 7 zeigt eine Armaturenbrettnutzersteuereinrichtung, die an einem Fahrzeug nach einem Ausführungsbeispiel der vorliegenden Erfindung angesetzt ist.
    • 8 zeigt eine einzelne Boardcomputersoftwarearchitektur für eine Überwachungs-RCU nach einem Ausführungsbeispiel der vorliegenden Erfindung.
    • 9 zeigt eine Single-Boardcomputersoftwarearchitektur für das Modul zur vorausschauenden Sicht für ein RCU nach einem Ausführungsbeispiel der vorliegenden Erfindung.
    • 10 zeigt eine Single-Boardcomputerkamera und - steuersoftwarearchitektur für eine RCU nach einem Ausführungsbeispiel der vorliegenden Erfindung.
    • 11 zeigt eine RCU-Softwarearchitektur nach einem Ausführungsbeispiel der vorliegenden Erfindung.
    • 12 zeigt eine RCU-Softwarearchitektur nach einem anderen Ausführungsbeispiel der vorliegenden Erfindung.
    • 13 illustriert eine Überwachungs-RCU-Softwarearchitektur nach einem Aus führungsbeispiel der vorliegenden Erfindung.
    • 14 zeigt eine RCU-Softwarearchitektur für ein nach vorne vorausschauendes Modul nach einem Ausführungsbeispiel der vorliegenden Erfindung.
    • 15 zeigt eine RCU-Softwarearchitektur nach einem anderen Ausführungsbeispiel der vorliegenden Erfindung für ein nach vorne voraussehendes Modul.
    • 16 zeigt eine Softwarearchitektur nach einem Ausführungsbeispiel der vorliegenden Erfindung für ein Erkennungsmodul.
    • 17 zeigt eine Kamera- und Steuer-RCU-Softwarearchitektur nach einem Ausführungsbeispiel der vorliegenden Erfindung.
    • 18 zeigt eine Kamera- und Steuer-RCU-Softwarearchitektur nach einem anderen Ausführungsbeispiel der vorliegenden Erfindung.
    • 19 ist ein Flussdiagramm, das ein Verfahren zum Übertragen von Daten über Netzwerke in einem Ausführungsbeispiel der vorliegenden Erfindung zeigt.
  • Detaillierte Beschreibung
  • Allgemeiner Überblick
  • Autonome, unbemannte oder robotisch gesteuerte Fahrzeuge können zusätzlich Nutzlasten, wie zum Beispiel Strukturen, Sensoren oder Steuerungssysteme benötigen, die in das Fahrzeug integriert werden, um bestimmte Aufgaben zu erfüllen. Zum Beispiel kann das autonome Fahrzeug ein chemisches Erfassungssystem für eine Aufgabe und einen Röntgensensor für eine andere Aufgabe benötigen. Um diese zusätzlichen Systeme zu nutzen, kann das autonome Fahrzeug einen Umbau benötigen, oder benötigt eine große Umkonfigurierung, um diese Nutzlasten zu integrieren. Daher besteht eine Nachfrage nach einem autonomen Fahrzeug, das modulare Schnittstellen für Nutzlasten aufzuweist, die die Integration der Nutzlasten mit großer Einfachheit erlauben. In diesen Ausführungen kann das autonome Fahrzeug fernbedient oder in anderen Betriebszuständen sein, wie zum Beispiel durch eine Fern-OCU oder durch eine Armaturenbrett-OCU gesteuert.
  • Autonome Fahrzeuge können auch eine Kamera-Mast-Einheit umfassen, die mit dem Steuerungssystem eines Fahrzeuges zur Erfassung von Bildern und der Übertragung von Daten an das Steuerungssystem kommuniziert. Für einige autonome Fahrzeugaufgaben kann die Kamera-Mast-Einheit zusätzliche Komponente benötigen, die der Kamera-Mast-Einheit eine größere Funktionalität verschaffen. Zusätzlich kann in einigen Aufgaben eine andere Kamera-Mast-Einheit als die Einheit, die mit dem Fahrzeug verbunden ist oder ein anderer Typ von Einheit benötigt werden. Dementsprechend besteht eine Notwendigkeit dafür, dass die Kamera-Mast-Einheit eine Struktur zum Aufnehmen von zusätzlichen Kamerakomponenten umfaßt, und eine Kamera-Mastschnittstelle es der Kameraeinheit erlaubt, leicht sich mit dem autonomen Fahrzeug zu verbinden und von diesem getrennt zu werden und mit dem Steuerungssystem des Fahrzeuges zu kommunizieren.
  • Eine Fernbedienung kann einige autonome Fahrzeuge durch Übermitteln von Kommandos an und Empfang von Daten von den Fahrzeugsteuerungssystemen kontrollieren. Oft sind Fernsteuereinrichtungen in zentraler Position angeordnet und bewegen sich mit dem Fahrzeug nicht fort. Fernsteuereinrichtungen können eine große Anzahl von Funktionen umfassen und die Fähigkeit zum Empfangen und Senden großer Datenmengen haben. Die Fern-OCU kann Daten von dem autonomen Fahrzeug in Bezug auf die Position, Ausrichtung, Hindernisse oder ähnliche Daten empfangen und Bewegungskommandos oder Nutzlastkommandos entsprechend übermitteln. Zum Beispiel können in eineigen Ausführungen Kameras, die auf dem Fahrzeug angeordnet sind, Bewegungs-Videos an die Fern-OCU senden. Die Fern-OCU übermittelt und empfängt die Information unter Nutzung eines niedrig-hohen Retransmitters oder Reflektors. Die Latenz der Steuerung verhindert die meisten langreichweitigen Implementierungen der Bewegt-Videos, wie z.B. für Satelliten Operation. In einigen Beispielen können Benutzer relativ nah an dem autonomen Fahrzeug ohne eine Fern-OCU die Notwendigkeit besitzen, die lokalen Funktionen des Fahrzeuges zu steuern, wie zum Beispiel das Fahrzeug einem Pfad folgen zu lassen, den es gerade fährt. Entsprechend besteht die Notwendigkeit für ein System, dass wenigstens die lokalen Funktionen des autonomen Fahrzeuges ansprechen und steuern kann, und das relativ nah zum oder an dem autonomen Fahrzeug angeordnet ist.
  • Wenn das Fahrzeugsteuerungssystem mehr als ein Netzwerk umfaßt, können die Komponenten, die normalerweise Daten in ein erstes Netzwerk übertragen, dazu nicht in der Lage sein, unter Benutzung eines zweiten Netzwerkes zu kommunizieren. Dementsprechend besteht eine Notwendigkeit für ein Kommunikationsprotokoll, das Kommunikation zwischen Steuerungssystemkomponenten erlaubt, sogar dann, wenn die Komponenten Daten auf ein anderes Netzwerk als das der übertragenden Daten übertragen wollen.
  • Ausführungsbeispiele der vorliegenden Erfindung schaffen ein vernetztes robotisches Vielzweckfahrzeug. Ein Ausführungsbeispiel kann Systeme oder Verfahren für autonome Fahrzeugtraglastenschnittstellen, Kamera-Mastkonfigurationen, Kommunikationsprotokolle für ein Fahrzeugsteuerungssystem oder eine Armaturenbrett-OCU für lokale Fahrzeugsfunktionskontrollen umfassen.
  • Verschiedene Aspekte und Ausführungen der vorliegenden Erfindung schaffen ein Fahrzeug, das in manuellen oder autonomen Modi betrieben werden kann. Das Fahrzeug kann ein oder mehrere Nutzlastbuchten und ein Fahrzeugsteuerungssystem umfassen. In einigen Ausführungen der vorliegenden Erfindung kann das Fahrzeugsteuerungssystem ein oder mehrere Netzwerke nutzen, um Daten von Sensoren zu empfangen und Steuersignale an die Fahrzeugsbetätigungskomponenten zu senden, um die Fahrzeugsbewegungen und Modi zu steuern. Zum Beispiel kann die Fahrzeugsteuerung auf der Betätigungsebene die Steuerung von Basisfahrzeugfunktionen, wie Geschwindigkeit, Steuerung, Beleuchtung des Fahrzeugkörpers, Armaturenschalterschnittstellen und Diagnostik umfassen. Steuergeräte können mit den Fahrzeugsteuerungssystemkomponenten über Fern- und/oder lokale Steuereinheiten über ein oder mehrere Netzwerke unter der Benutzung von Steuerkommandos kommunizieren. Die Nutzlastflächen können in den Fahrzeugkorpus oder in den Chassiskorpus eingebaut werden. Die Nutzlastbuchten können Nutzlastschnittstellen umfassen, die es Nutzlasten erlauben, wie zum Beispiel bestimmten funktionellen Komponenten, sich abnehmbar mit dem Nutzlastinterface zu verbinden und kompatible Kommunikation mit dem Fahrzeugsteuerungssystem zu schaffen. Ausführungen der Erfindungen können eine Schnittstelle schaffen, die es erlaubt, dass die Nutzlasten relativ einfach ausgewechselt werden können. In einigen Ausführungen der vorliegenden Erfindung umfaßt das Fahrzeugsteuerungssystemnetzwerk eine kurzreichweitige, physikalische Ebene und/oder Protokoll, zum Beispiel TCP/IP, Ethernet, local mesh, wireless USB und/oder ZigBee. Ausführungen können auch langreichweite, physikalische Ebenen oder Protokolle zwischen den Fahrzeugsteuerungssystemkomponenten und einer Fernbedienung oder einer Benutzersteuereinrichtung umfassen, wie zum Beispiel Wi-Fi oder drahtlose, lokale Netzwerke, wie zum Beispiel IEEE 802.11, 900 MHz Militärprotokolle, Satelliten und/oder Sichtlinienlasernetzwerke.
  • Das Fahrzeug kann auch einen abnehmbar verbundenen Kamera-Mast umfassen, der eine Kamera unterstützt, um Bilder aufzunehmen und zu bearbeiten. Die Kamera-Mast-Einheit kann mit einem Fahrzeugsystemnetzwerk durch eine Mastschnittstelle sich zur kompatiblen Kommunikation zwischen der Kamera und dem Steuerungssystem des Fahrzeugs verbinden. Die Mastschnittstelle kann es zusätzlichen Komponenten erlauben, mit relativer Leichtigkeit ausgewechselt zu werden. In einigen Ausführungen wird die Kamera-Mast-Einheit an das Fahrzeug verbunden bei einer Nutzlastschnittstelle zwischen dem Fahrzeugchassis und/oder den Benutzer/Passagierbereich.
  • In einigen Ausführungen der vorliegenden Erfindung kann das Fahrzeugsteuerungssystem mit einer Fern-OCU kommunizieren, die eine Fernsteuereinrichtung zum Senden von Steuersignalen an das Steuerungssystem des Fahrzeugs ist und Daten von dem Steuerungssystem empfängt. Das Fahrzeug kann auch eine Armaturenbrett-OCU umfassen, die abnehmbar mit dem Fahrzeug verbunden ist und entweder drahtlos oder durch eine drahtgebundene Verbindung mit dem Steuerungssystem des Fahrzeuges kommuniziert. Ein Bediener kann die Armaturenbrett-OCU nutzen, um wenigstens einige Fahrzeugfunktionen zu steuern. Zum Beispiel kann ein Nutzer, während er das Fahrzeug im manuellen Modus betätigt, die Armaturenbrett-OCU bedienen, um dem Fahrzeugsteuerungssystem anzugeben, GPS-Wegpunkte während der Fahrt des Fahrzeuges aufzunehmen. Wenn der Nutzer seine Bestimmung erreicht, kann der Nutzer die Armaturenbrett-OCU dazu nutzen, dem Fahrzeug das Kommando zu geben, im autonomen Modus zu seiner Startposition zurückzukehren, indem es die aufgezeichneten Wegpunkte vom letzten Wegpunkt zum ersten entlang folgt.
  • In einigen Ausführungen der vorliegenden Erfindung kommuniziert das Fahrzeugsteuerungssystem mit der Armaturenbrett-OCU und/oder Nutzlasten, die mit dem Fahrzeug unter Benutzung eines virtuellen Terminalprotokolls eine Schnittstelle bilden, die vom verkapselten CAN oder anderen Formattypen für Daten in Ethernet-Pakete verkapseln, und die Ethernet-Pakete über ein Ethernet-Netzwerk an eine Armaturenbrett-OCU und/oder Nutzlasten übertragen. Die Armaturenbrett-OCU und/oder Nutzlasten können die Ethernet-Pakete empfangen und die CAN oder andere Datentypen extrahieren und anzeigen. Ein Beispiel solcher Ausführungen des virtuellen Terminalprotokolls sind die SAE J1939- und ISO 11783-6 Standards.
  • Das Fahrzeug kann in einem oder mehreren verschiedenen Modi betrieben werden. Zum Beispiel kann das Fahrzeug in einem „Follow Me“-Modus, einem Fernbedienmodus, einem Lehr- und Playback-Modus oder einem GPS-Wegmodus benutzt werden und verschiedene Aspekte der vorliegenden Erfindung nutzen, um diese Modi zu steuern und zu überwachen. In einigen Ausführungen der vorliegenden Erfindung kann eine Benutzung einer Armaturenbrett-OCU und/oder einer Fernbedienungs-OCU zur gleichen Zeit oder unabhängig erfolgen, um den Fahrzeugbetriebsmodus und andere Steuerungen vorzunehmen.
  • Zum Beispiel kann ein Nutzer eine Fern-OCU nutzen, um Daten, wie zum Beispiel Kamera, Sensor und Positionsdaten, vom Fahrzeug zu empfangen. Die Fern-OCU kann die Daten in einer Vielzahl von Formaten anzeigen, die für einen Nutzer und/oder die Fern-OCU geeignet sind die Daten zu analysieren. Der Benutzer kann dann Kommandos in die Fern-OCU eingeben, wie zum Beispiel die Eingabe eines Kommandos an eine Tastatur, eine Maus, einen Touch-Screen oder andere Eingabekomponenten. Zum Beispiel kann die Fern-OCU ein Kommando für das Fahrzeug eingeben, um in einem GPS-Wegpunktmodus betrieben zu werden. Die Fern-OCU kann das Kommando an das Fahrzeugsteuerungssystem auf ein Netzwerk übertragen, das drahtlos sein kann. Das Fahrzeugsteuerungssystem empfängt das Kommando und die Steuerung des Fahrzeugs in Übereinstimmung mit dem Kommando von zum Beispiel gesendeten Steuerdaten an die robotischen Betätigungseinrichtungen, Sensoren und Nutzlasten des Fahrzeugs. Das Fahrzeugsteuerungssystem kann auch Daten drahtlos oder über ein Drahtgebundenes Netzwerk an die Armaturenbrett-OCU senden. Die Armaturenbrett-OCU kann wenigstens ausgewählte Teile der Daten an einen Nutzer senden, der in dem Bediener oder Passagierabteilung des Fahrzeuges ist oder relativ nah am Fahrzeug. Der Nutzer kann den Modus des Fahrzeugsbetriebs analysieren und andere Daten auf der Armaturenbrett-OCU und der Eingabe, und wenigstens lokale Kommandos an die Armaturenbrett-OCU geben. Zum Beispiel kann der Nutzer ein Kommando eingeben, einen Lehrplayback-Modus zu aktivieren, wenn das Fahrzeug einen bestimmten Ort erreicht. Die Armaturenbrett-OCU kann das Kommando an das Fahrzeugsteuerungssystem über das Netzwerk und das Fahrzeugsteuerungssystem senden und kann Kommando an die Fahrzeugkomponenten in Übereinstimmung mit dem Kommando übergeben. Das folgende ist eine Beschreibung der oben beschriebenen Modi.
  • Follow Me - Modus (Folge-mir-Modus): Bei dem „Follow Me“-Modus werden ein oder mehrere Objekte durch einen Sensor oder eine Kameraeinheit identifiziert, und das robotisch gesteuerte Fahrzeug wird dazu angehalten, dem Objekt zu folgen. Ein Nutzer kann den „Follow Me“-Modus durch Auswahl des Modus und/oder des Objektes, dem zu folgen ist, über die Fern-OCU oder die Armaturenbrett-OCU durchführen. In dem „Follow Me“-Modus entscheiden Fahrzeugkomponenten, ob ein Objekt identifiziert ist, dem zu folgen ist. Wenn es kein vordefiniertes Objekt gibt, dem zu folgen ist, kann das System das nächste Objekt innerhalb der Erfassungszone erfassen und auswählen, das durch die Fläche vorgegeben ist, in der ein Laserstrahl die Fähigkeit hat, Objekte zu erkennen und zu identifizieren. Die „Follow Me“-Modusalgorithmen können eine Sammlung von Kommandos nutzen, um eine Trajektorie zu dem Objekt zu erzeugen und können Geschwindigkeit und Richtungskomponenten umfassen, die es dem Fahrzeug erlauben, eine vorbestimmte maximal erlaubte Geschwindigkeit nicht zu überschreiten und ein Kommando in einer vorbestimmten Entfernung vor dem Objekt zu stoppen. Nachdem das Objekt anfänglich durch das Fahrzeugsteuerungssystem ausgewählt ist, Fern-OCU und/oder Armaturenbrett-OCU folgen bereits dem Objekt, kann die Fahrzeugposition relativ zu seiner vorangehenden Position und der Bewegung des Objekts abgeschätzt werden. Zusätzlich kann eine abgeschätzte oder erwartete Position des Objektes auch berechnet werden. Wenn kein bewegtes Objekt innerhalb des vorveranschlagten Positionsradius innerhalb der vorgegebenen Zeitdauer erkannt wird, wird das Fahrzeug nicht länger nach sich bewegenden Objekten suchen und wird versuchen, ein anderes bewegtes Objekt zu finden unter der Nutzung des oben beschriebenen Vorgehens.
  • Nachdem das sich bewegende Objekt erkannt wurde, wird ein Satz an Trajektorien berechnet, um das Fahrzeug mit Bewegungskommandos zu versehen. Die Trajektorie kann in einem Satz von Trajektorien ausgebreitet werden durch Berechnen von Vektoren, die um einen vorbestimmten Winkel,zum Beispiel um 5 Grad zur Rechten und Linken der Trajektorie des sich bewegenden Objektes, beabstandet sind. Zusätzliche Trajektorien können zwischen den Vektoren geschaffen werden, um zusätzliche Trajektorien eines Trajektoriensatzes zu schaffen. Jeder Trajektorie kann eine Bevorzugung zugeordnet werden. Zum Beispiel kann der Trajektorie, die in der Mitte des Trajektoriensatzes angeordnet ist, ein Wert zugeordnet werden, der dem Bevorzugten zugeordnet ist, während die Vektoren, die am weitesten von dem Mittelvektor entfernt sind, einen Bevorzugungswert besitzen, der als am wenigsten bevorzugter Vektor zu werten ist. Der Trajektoriensatz wird dann an die Antriebsleiter- (engl. drive arbiter) Komponente als Aktionssatz geleitet. Eine Hinderniskarte kann kalkuliert werden basierend auf Information, die von den Sensoren erhalten wurde, wie zum Beispiel vorderen und hinteren Laserstrahlen, inklusive dem Vorhandensein, und der Verortung der Hindernisse. Die Hinderniskarte kann an die Antriebsleiter-Komponente als Grenze des Trajektoriensatzes übermittelt werden.
  • GPS-Wegpunkt-Modus: In einigen Ausführungen der vorliegenden Erfindung wird das Fahrzeug, basierend auf GPS-Wegpunktinformation unter Benutzung eines GPS-Bestimmungssystems, geleitet. Beispiele eines GPS-Bestimmungssystems umfassen Navom SF-2050M. Ein Nutzer kann den GPS-Wegpunkt-Modus durch Auswahl des Modus Beginnen und/oder Beenden von Wegpunkten über die Fern-OCU oder die Armaturenbrett-OCU auswählen. Zum Beispiel kann Wegpunktinformation kontinuierlich von einer Wegpunktliste aktualisiert werden, und Trajektoriensatz basierend auf den nächsten Wegpunkten relativ zum laufenden und/oder letzten Wegpunkt werden entwickelt. Als erstes wird der laufende Wegpunkt korrelierend mit der Position, an der ein Fahrzeug vermutet wird, berechnet durch das Fahrzeugsteuerungssystem und/oder die Fern-OCU. Eine Sammlung von Ausrichtungssteuereinrichtungen schafft eine Trajektorie zu dem laufenden Wegpunkt mit Geschwindigkeit und Richtungsinformation, die das Fahrzeug daran hindern, von einer vorbestimmten Geschwindigkeit abzuweichen, um die laufende Position zu erreichen. Die Position des Fahrzeuges wird dann berechnet, um zu bestimmen, ob das Fahrzeug innerhalb eines Wegpunktradius ist, oder ob das Fahrzeug über eine Ebene sich hinaus bewegt hat, die rechtwinklig zu dem laufenden Bewegpunkt verläuft. Ein „nächster“ Wegpunkt wird dann bestimmt und eine Trajektorie wird berechnet, basierend auf dem laufenden und dem nächsten Wegpunkt. Basierend auf der Trajektorieninformation wird ein Trajektoriensatz durch Berechnen von Vektoren innerhalb einer vorbestimmten Distanz zwischen diesen, zum Beispiel 5 Grad, berechnet, wobei die sich bewegende Objekttrajektorie als die Mittlere des Satzes begriffen wird. Zusätzliche Trajektorien können zwischen den erzeugten Trajektorien und jeder Trajektorie, der einem Differenzwert zugeordnet ist, eingefügt werden, wobei weniger bevorzugte Werte an die Trajektorien vergeben werden, die weiter von der Mitteltrajektorie entfernt sind.
  • Weiter kann ein Nutzer einen vorbestimmten GPS-Pfad aufzeichnen und die Information an eine RCU geben, durch Gabe eines Kommandos von der Fern-OCU oder der Armaturenbrett-OCU, indem die Information an ein RCU-Flashspeicher gespeichert wird. Der Nutzer kann dann ein GPS-Weg-Playback-System initiieren, indem die Armaturenbrett-OCU genutzt wird. Der Nutzer kann die GPS-Information durch anfängliches Aufzeichnen von GPS-Breiten und - Längenablesungen anzeigen, wobei die GPS-Information durch Entfernen außen liegender GPS-Datenpunkte komprimiert wird. Ein Wegpunkt-Listenmanager kann alle Wegpunkte in der Reihe anzeigen, die nachverfolgt werden sollen. In einigen Ausführungen der vorliegenden Erfindung sind Fahrtsegmente zwischen den Wegpunkten bestimmbar und dazu ausgelegt, einen kurvigen Pfad zu erzeugen, dem das Fahrzeug folgen kann. Alternativ kann ein „tech center path tracker“ benutzt werden, um einen Pfad zu erzeugen, der mit konsistenten oder weichen Fahrzeugbewegungen verträglich ist. Der Trajektoriensatz wird dann an den Antriebsleiter gegeben, der die geeignete Trajektorie, basierend auf dem Trajektoriensatz und Information, die mit dem Vorhandensein und/oder der Stellung von Hindernissen zu tun hat, bestimmt. In einigen alternativen Ausführungen werden Trajektoriensätze basierend auf Daten erzeugt, die von einem Kompaß anstelle eines GPS-Systems erhalten werden und Relativstellen von Objekten, Entfernungspunkten und/oder vorbestimmten Positionsdaten. Beispiele von Kompaßsystemen, die benutzt werden, umfassen den elektronischen Kompaß TCM 2-20.
  • Teleoperations Modus: In einigen Ausführungen der vorliegenden Erfindung wird der Weg des Fahrzeuges durch Fernbedienung entwickelt. Ein Aufnehmer, der mit dem Fahrzeug verbunden ist, ist dazu in der Lage, Kommandos von der Fern-OCU und/oder der Armaturenbrett-OCU aufzunehmen. Zum Beispiel kann die Fernbedienungskomponente einen Anschluß öffnen, wie zum Beispiel durch Erzeugen eines Kommunikationsendpunktes, und Zurückgeben einer Datensatzbeschreibung, mit der ein Anschluß (ein „Socket“) geöffnet werden kann, wie zum Beispiel durch Erzeugen eines Kommunikationsendpunktes und Zurücksenden einer Dateibeschreibung mit der man einen Anschluß zugreifen kann, der mit einer Socketadresse (einer Anschlußadresse) verbunden ist, inklusive einer Anschlußnummer an eine lokale Netzwerkadresse des lokalen Hosts. Die Kommandos, die von einer Nutzersteuerschnittstelle auf einem OCU zum Beispiel übermittelt werden, basierend auf Information, die an die Nutzersteuerschnittstelle übermittelt wird, das bedeutet oder ist damit im Zusammenhang, dass Daten von einer Kamera, die auf dem Fahrzeug angeordnet ist, durch Radiokommunikationsverbindungen oder Netzwerk erfaßt werden. Beispiele solcher Radionetzwerke umfassen die Nutzung des 2,4 GHz Radiowellensystems, das von Rubicon Communications hergestellt wird, das auch als „Netgate“ vertrieben wird und die aus Kailau, Hawaii stammen, oder ein 900 MHz Radiosystem, wie zum Beispiel das EH900(R) Modell, das von Nova Engineering am Cincinnati, Ohio vertrieben wird. Das EH900 ™ Modellradiosystem kann mit einem 802.22b Radiosystem, wie zum Beispiel von Netgate hergestellt, kombiniert werden, um eine verbesserte Kommunikation über relativ kurze und lange Wege zu erstellen. Beispiele von Kamerasystemen umfassen ein 10/100 Basis T schnelle Internetverbindung und eine SNC-CS3N™ Modell Kamera, wie sie von Sony Elektronics, Inc. aus Park Ridge, New Jersey, hergestellt wird.
  • Das Fernbediensystem kann ein Kommando erhalten, das entweder Null oder „Nicht-Null“-Geschwindigkeitsinformationen enthält. Wenn das Geschwindigkeitskommando Null ist, wird die Kommandogeschichte konsultiert, um festzustellen, ob eine vorbestimmte Anzahl von vorangehenden Kommandos ebenfalls ein Nullkommando umfaßte. Wenn es eine vorbestimmte Anzahl von vorangehenden Kommandos gab, kann eine Trajektorie, basierend auf jeder Richtungsinformation, die mit dem laufenden Kommando in Verbindung steht, nicht erzeugt werden. Wenn das Geschwindigkeitskommando nicht null ist oder ein oder mehr der vorliegenden Kommandos eine Nicht-Nullgeschwindigkeitsinformation umfaßen, wird ein Satz von Trajektorien erzeugt. Ein Trajektoriensatz wird erzeugt, indem Vektoren mit vorbestimmten Abstand zwischen ihnen berechnet werden, zum Beispiel 5 Grad, wobei die Objektrajektorie des sich bewegenden Objekts der Trajektorie in der Mitte des Satzes zugeordnet wird. Zusätzliche Trajektorien können zwischen den erzeugten Trajektorien und jeder Trajektorie, die einen bestimmten Wert zugeordnet bekommen hat, erzeugt werden mit weniger bevorzugten Werten, die in den Trajektorien weiter entfernt von der Mittel-Trajektorie zugewiesen werden. Der Trajektoriensatz wird dann an den Antriebsleiter gesandt, der die geeignete Trajektorie, basierend auf dem Trajektoriensatz, und der Information, die mit dem Vorhandensein und/oder der Ortung des Hindernisses in Bezug steht, bestimmt wird.
  • Teach and Playback-Modus: In einigen Ausführungen der vorliegenden Erfindung kann das Fahrzeug in einem Teach- (Lehre-) and Playback Modus betrieben werden. Ein Nutzerinterface kann geschaffen werden, wie zum Beispiel eine Armaturenbrett-OCU, die mit dem Fahrzeug in Verbindung steht, oder in einem Teleoperationssystem eingebaut ist (oder einigen anderen geeigneten Nutzerschnittstellen). Das Lehr- und Wiedergabesystem kann das Fahrzeug mit einem Befehl versehen, Bewegungen, Antriebssignale und/oder wegbezogene Information, wie zum Beispiel GPS-Wegpunkte, die Anordnung von Hindernissen etc. aufzuzeichnen und den aufgezeichneten Informationen zu folgen, wenn dem Pfad zurück zum Zielpunkt gefolgt wird. Zum Beispiel wird das Fahrzeug Geschwindigkeits- und Richtungsinformationen speichern und die Informationen mit bestimmten GPS-Daten und/oder Zeitstempeldaten korrelieren. Auf einem Weg zurück ruft das System die Daten auf, um das Fahrzeug mit Geschwindigkeits, Richtungs- oder jede anderen dazu in Beziehung stehende Information zu versorgen, um einem Rückweg zu folgen. Das Fahrzeug kann dazu in der Lage sein, die abgespielten Bewegungsinformationen und Daten entweder vorwärts oder rückwärts zu verfolgen. Zusätzlich können die Daten, die aufgezeichnet wurden, für zusätzliche Wegstrecken wiederholt werden.
  • Beispielhaftes Steuerungssystem und Schnittstellen
  • 1 ist ein Blockdiagramm hoher Abstraktion eines Fahrzeugsteuerungssystems 100 eines Ausführungsbeispiels der vorliegenden Erfindung. Das Fahrezeugsteuerungssystem 100 umfaßt ein robotisches Steuerungssystem 104, das in dem dargestellten Ausführungsbeispiel die Vielzweck-Robotiksteuereinheiten (RCUs) 106a-n umfaßt. Die RCUs 106a-n können miteinander verbunden werden, miteinander kommunizieren und mit anderen Steuerungssystemen und Fahrzeugkomponenten über einen CAN-Bus 110 und einem Paket geschalteten Netzwerk 108, wie zum Beispiel ein Ethernet-Netzwerk. In einigen Ausführungen kann nur ein Paket geschaltetes Netzwerk 108 genutzt werden. Einige Ausführungen der RCUs 106a-n können einen Netzwerkschalter 107a-n umfassen, um Kommunikation mit anderen Steuerungssystemen und Fahrzeugkomponenten auf ein Netzwerk zu erlauben. In einem Ausführungsbeispiel kann das Netzwerk als Ethernet-Netzwerk genutzt werden. Die RCUs 106a-n nach einigen Ausführungen können separat oder zusätzlich eine CAN-Busschnittstelle 109a-n umfassen, die mit einem CAN-Netzwerk und Steuerungssystem und Fahrzeugkomponenten in einem CAN-Netzwerk kommunizieren können. Wenn ein RCU 106a-n nicht mehr richtig arbeitet, können andere Steuerungssysteme und Fahrzeugkomponenten durch den Netzwerkschalter 107a-n und/oder die CAN-Busschnittstelle 109a-n kommunizieren.
  • Das Fahrzeugsteuerungssystem 100, das in 1 dargestellt ist, umfaßt auch verschiedene Betriebssysteme 102a-n. Jedes zusätzliche Betriebssystem 102a-n in einigen Ausführungen kann direkt oder indirekt mit einer RCU 106a-n kommunizieren. Diese Betriebssysteme 102a-n können dafür benutzt werden, die Bewegung des Fahrzeuges zu steuern und können zum Beispiel das Steuerungssystem, das Bremssystem, das Gassystem und das Lenkungssystem umfassen. Jedes Betriebssystem kann einen Aktuator, wie zum Beispiel einen Motor umfassen, der den Betrieb des bestimmten Betriebssystems steuert. Zum Beispiel kann das Betriebssystem einen Aktuator umfassen, der die Anwendung der Bremse des Fahrzeuges steuert. Das RCU 106a-n kann weiter mit Scannern 102a-n, wie zum Beispiel Laserscannern, Kameras 114a-b, Radios 116a-b und einem Global Positioning System (GPS) 118 verbunden sein oder anderweitig Eingaben empfangen. In bestimmten Ausführungen sind die RCUs 106a-n in einem Volumen von ungefähr 5-10 Litern enthalten, und es ist voraussichtlich nicht möglich, die RCUs in äquivalenter Funktionalität im geringeren Raum als diesen zu beherbergen.
  • Das Fahrzeugsteuerungssystem 100 kann auch eine VCU (Vehicle control unit) aufweisen, die nicht dargestellt ist. Das Fahrzeugsteuerungssystem empfängt Eingaben und nutzt die Eingabe, um festzustellen, wie eines oder mehr der Betriebssysteme 102a-n zu steuern sind. Zum Beispiel kann die Fahrzeugsteuerungseinheit eine Eingabe von einem RCU 106a-n empfangen, die anzeigt, dass das Fahrzeug nach rechts gedreht werden sollte. Als Antwort auf dieses Signal kann die Fahrzeugsteuereinheit ein Steuersignal an das Steuerungssystem ausgeben, um den Aktuator dazu zu veranlassen, die Steuerwelle zu drehen.
  • Beide, die VCU und die RCUs 106a-n können einen Prozessor umfassen. Der Prozessor umfaßt ein computerlesbares Medium, wie zum Beispiel ein RAM (random access memory), das mit dem Prozessor verbunden ist. Der Prozessor führt computerausführbare Programminformationen aus, die in dem Speicher gespeichert sind, wie zum Beispiel Fahrzeug oder robotische Algorithmen. Solche Prozessoren können einen Mikroprozessor, einen ASIC und Statusmaschinen umfassen. Solche Prozessoren umfassen oder können in Kombination mit Medien, zum Beispiel computerlesbaren Medien, sein, die Befehle speichern, die, wenn sie von einem Prozessor ausgeführt werden, den Prozessor veranlassen, die hierin beschriebenen Schritte durchzuführen. Ausführungen von computerlesbaren Medien umfassen, aber sind nicht darauf beschränkt, elektronische, optische, magnetische und andere Speicher oder Übertragungsgeräte, die dazu in der Lage sind, den Prozessor mit computerlesbaren Befehlen, wie zum Beispiel ausführbarem Befehlscode, zu versorgen. Andere Beispiele von geeigneten Medien umfassen, aber sind nicht beschränkt auf eine Floppy-Disk, CD-ROM, DVD, magnetische Disk, Speicherchip, ROM, RAM, ein ASIC, einen konfigurierten Prozessor, alle optischen Medien, alle Magnetband oder magnetischen Medien und jedes andere geeignete Medium, aus dem ein Computerprozessor Befehle lesen kann. Auch können verschiedene Formen von computerlesbaren Medien Befehle an einen Computer übertragen oder weitergegeben, inklusive einem Router, einem privaten oder öffentlichen Netzwerk und anderen Übertragungsgeräten oder Kanälen, sowohl verdrahteten wie drahtlosen. Die Informationen können jede ausführbare Befehlsform von jeder geeigneten Computerprogrammsprache, inklusive zum Beispiel C, C++, C#, Visual Basic, Java, Python, Perl und JavaScript, umfassen.
  • Die RCUs 106a-n in 1 können auch mit anderen geeigneten Nutzlasten 120 durch eine Nutzlastschnittstelle (nicht dargestellt) verbunden werden. Die Nutzlastschnitstelle kann sicher innerhalb der Seite oder der Bodenwände eines Fahrzeugbettes, wie zum Beispiel eines Lastwagenchassis, gehalten werden. Die Nutzlastschnittstelle kann es den Nutzlasten 120 erlauben, an RCUs 106a-n anzukoppeln, die in einem Fahrzeugkörper über ein oder mehr Netzwerke angeordnet sind. Die Nutzlastschnittstelle kann einen Ethernet-Port, einen CAN-Port, einen RS232-Port oder andere geeignete Netzwerkkommunikationsschnittstellen haben. Verbinder in dem Lastwagenchassis oder dem (den) Mast(en) können gepanzerte Versionen von Ethernet oder anderen Vielfachsteckerverbindungen oder WPAN-Überträger sein. Ausführungen der vorliegenden Erfindung umfassen jede Nutzlastschnittstelle und geben einem Nutzer mit der Fähigkeit von „plug and play“ Nutzlasten 120 und austauschbaren Nutzlasten 120, wie sie für bestimmte Aufgaben notwendig sind, die Möglichkeit hierzu. Die Nutzlastschnittstelle kann auch andere Netzwerkanschlüsse umfassen, um einer Vielzahl von Nutzlasten 120, die verschiedene Anschlußerfordernisse haben, es zu erlauben, mit den RCU 106a-n über ein Netzwerk zu kommunizieren. Zum Beispiel kann ein Benutzer austauschbare Nutzlasten 120 mit Nutzlastschnittstellen tauschen, wie dies von bestimmten Fahrzeuganwendungen benötigt wird, ohne die autonomen Verdrahtungen des Fahrzeuges oder andere strukturelle Komponenten zu rekonfigurieren. Beispiele von Nutzlasten 120 umfassen Radarsensoren, Generatoren, Aktuatoren und andere Motorcontroller und thermische Kameras.
  • In einigen Ausführungen der vorliegenden Erfindung kann die Nutzlastschnittstelle auch oder separat eine motorische Stromquellenverbindungen umfassen und kann weiter einen Schalter zum Steuern der Spannung und des Stromniveaus des Stromes umfassen. Das Schaffen flexibler Spannung erlaubt es jeder Nutzlast, mit ihrer eigenen bevorzugten Spannung und Strom versehen zu werden, ohne zusätzliche Stromversorgung vorhalten zu müssen. Die Verbindung mit der Stromquelle kann durch Stecker, Verbinder, Adapter, Koppler, Befestigungselemente oder jede Art von Schnittstelle bewerkstelligt werden, die es den Nutzlasten 120 erlaubt, von der Schnittstelle relativ leicht angekoppelt und abgekoppelt zu werden. Schaltbare Gleichstromanordnungen mit verschiedenen Spannung/Stromniveaus können in der Nähe jedes Ethernet-Anschlusses geschaffen werden, wobei andere Verbinder Verbindungsanschlüsse und in Drahtkäfig abgeteilte Elemente in der Nähe der Ethernet-Netzwerkanschlüsse angeordnet sein können. In einem derartigen Fall wird die Spannung am besten am Ort der Stromversorgung bestimmt, und vielfachspannungsschaltbare Stromversorgungen können entlang des Ethernet-Netzwerkes verteilt werden, um Lokalstrom bereitzustellen. Die Stromversorgung kann auch durch einen Schaltkreis steuerbar sein, der jede Stromversorgung an das Fahrzeug, Ethernet-Netzwerk oder das CAN-Netzwerk verbindet. In einem Ausführungsbeispiel ist eine solche Stromversorgung und Verbindungsleitung bereitgestellt an und steuerbar durch jede RCU, wie hierin beschrieben.
  • Die Nutzlastschnittstellen nach einigen Ausführungsbeispielen der Erfindung können in einer Nutzlastbucht angeordnet sein, wie zum Beispiel in dem Fahrzeug oder Lastwagenchassis, um eine Fläche zu schaffen, in der die Nutzlasten 120 abnehmbar an das Fahrzeug gekoppelt sein können, ohne mit einer Nutzerfähigkeit zu wechselwirken, das Fahrzeug im manuellen Modus oder in Bereichen, eingeschlossen in einigen Fahrzeugen für Passagiere, zu betreiben. Durch Verbinden der Nutzlasten 120 mit den RCUs 106a-n durch eine Schnittstelle, die eine kompatible Kommunikation schafft, können eine Fern-OCU und/oder eine Armaturenbrett-OCU auch dazu genutzt werden, den Nutzlastbetrieb zu steuern und Daten von den Nutzlasten 120 durch das Kommunikationsnetzwerk, das in dem Fahrzeug angeordnet ist, zu empfangen, und in einigen Beispielen kann das Kommunikationsnetzwerk zwischen dem Fahrzeugsteuerungssystem und den Steuereinheiten, wie zum Beispiel ein drahtloses Netzwerk, genutzt werden. In einigen Ausführungen kann ein Passagier oder Bedienpersonal die Nutzlasten 120 durch Nutzung von Steuergeräten, wie zum Beispiel einer Armaturenbrett-OCU oder einer Fern-OCU, steuern, während das Fahrzeug in manuellem oder autonomem Modus betrieben wird.
  • Die Nutzlastschnittstellen nach einigen Ausführungen der vorliegenden Erfindung können an einen Schalter oder Router verbunden werden, der in den RCUs 106an oder anderweitig in dem Fahrzeugsteuerungssystem vorhanden ist. In anderen Ausführungen kann die Nutzlastschnittstelle einen Schalter oder Router umfassen. Der Schalter oder Router kann Signale senden und empfangen an oder von Nutzlasten 120, die mit der Nutzlastschnittstelle verbunden sind zu den geeigneten oder gewünschten Fahrzeugsteuerungssystemkomponenten oder Steuergeräten in Übereinstimmung mit besonderen Erfordernissen der Nutzlast 120.
  • Die RCUs 106a-n können auch mit einer oder mehr CAN-Geräten 122 verbunden sein. Ein CAN-Gerät 122 kann die lokalen Fahrzeugfunktionen, wie Scheinwerfer und Betriebszustände, die im weiteren im Detail beschrieben werden, steuern. Ein Beispiel einer CAN-Einrichtung 122 kann ein Armaturenbrett-OCU sein. Das Armaturenbrett-OCU kann eine Steuereinrichtung sein, die abnehmbar mit dem Fahrzeug verbunden ist, wie in den 6 und 7 dargestellt, und mit den Fahrzeug-RCUs 106a-n durch ein Nutzwerk, wie zum Beispiel Ethernet, kommuniziert. Die Armaturenbrett-OCU kann lesen, anzeigen und Daten zu und von den RCUs 106a-n senden.
  • In einigen Ausführungen kann die Armaturenbrett-OCU einen Speicher umfassen, der Software umfaßt, die empfangene, graphische Daten anzeigen und Kommandos von einem Nutzer an die RCUs 106a-n übertragen kann. Andere CAN-Geräte 122 können Scanner 112a-b, Kameras 114a-b und das GPS 118 umfassen. In einigen Ausführungen der vorliegenden Erfindung kann das CAN-Gerät 122 ein externer CAN-Busanschluß sein, um es einem externen Gerät, zum Beispiel einer Nutzlast, einer Armaturenbrett-OCU oder ähnlichen, zu erlauben, mit den RCUs 106a-n zu kommunizieren. Ein oder mehr der RCUs 106a-n können mit VCUs ersetzt werden, die wenigstens einige der Funktionen durchführen können, die mit den RCUs 106a-n in Verbindung stehen. Der CAN-Gerät-122-Anschluß kann auch erlauben, dass Nutzlasten, Armaturenbrett-OCUs oder andere Geräte mit den VCUs kommunizieren. In einigen Ausführungen der vorliegenden Erfindung schafft der CAN-Gerät-122-Anschluß Nutzerzugang zum Fahrzeugsteuerungssystem, und die Fähigkeit, Nutzlasten anzubringen, die Daten zum Fahrzeugsteuerungssystem senden und von ihm empfangen können.
  • 6 zeigt eine Ausführung einer Armaturenbrett-OCU 600, die ein PDAähnliches Gerät ist, das mechanisch und/oder elektrisch mit einer Schnittstelle 602 verbunden ist. Einige Beispiele akzeptabler Armaturenbrett-OCUs 600 sind das „Recon™“ Modell, wie es von Tripod Data Systems aus Corvallies, Oregon, hergestellt wird, ein iPAQ™-Modell, wie es für Hewlett-Packard aus Palo Alto, Kalifornien, hergestellt wird oder ein GreenStar2™-Modell, wie es von Deere & Company aus Moline Illinois, hergestellt wird. Schätzungsweise umfaßt das Armaturenbrett-OCU 600 einen Bildschirm, der kleiner als 500 cm2 ist. Er hat vorteilhafterweise einen Pfad-Matrix-Display, aber für die Ablesbarbarkeit im hellen Outdoor-Bereich kann er einige segmentierte Elemente (fluorescent oder LCD) umfassen oder ganz aus diesen bestehen. Vorteilhafterweise umfaßt er einen Touch-Screen oder einen griffel-empfindlichen Bildschirm, um Nutzerkommandos einzugeben. Wie in 7 dargestellt, ist die Armaturenbrett-OCU 600 an das Armaturenbrett 700 anbringbar bzw. abnehmbar, um einen Fahrzeug-Nutzerzugang zu der Armaturenbrett-OCU 600 zur Steuerung von wenigstens lokalen Fahrzeugfunktionen zu geben. Die Armaturenbrett-OCU ist mit dem Armaturenbrett 700 durch einen der Internet-Netzwerkanschlüsse und/oder CAN-Netzwerk und/oder lokale drahtlos oder WPAN-Verbindungen verbunden. Wenn er aufgesetzt ist, ist der Armaturenbrett-OCU 600 sichtbar, während der Fahrer im Fahrersitz oder ein Passagier in dem Sitz sitzt, aber kann auch abgenommen werden. In einigen Ausführungen kann der Benutzer die Armaturenbrett-OCU 600 von der Schnittstelle 602 trennen und mit dem Steuerungssystem des Fahrzeuges drahtlos kommunizieren.
  • Bestimmte Ausführungen schaffen eine Fern-OCU 250, die von jemanden benutzt werden kann, der nicht in dem Fahrzeug reist, um das Fahrzeug im autonomen Modus zu steuern. Es kann auch eine Anzeige umfassen, die eine ungenügende Auflösung hat, um eine Replika-Darstellung der Armaturenbrett-OCU 256 Anzeige zu liefern, inklusive einer im wesentlichen Real-Time-Replika der Daten und Grafiken, die auf der Armaturenbrett-OCU 256 zu erkennen sind. Der Nutzer der Fern-OCU 250 kann Daten zur Anzeige auf dem Schirm der Armaturenbrett-OCU 256 senden. Im Betrieb kann die Fern-OCU 250 eine Kopie der Armaturenbrett-OCU 256 auf ihrem Schirm anzeigen. Dies hat Vorzüge hinsichtlich der Vertrautheit und beim Training, wenn die Armaturenbrett-OCU 256 auf dem Schirm der Fern-OCU 250 produziert wird. Die Fern-OCU 250 kann auch die Tastendrücke oder Touch-Screen/Griffel-Spuren, die auf der Armaturenbrett 256 gemacht werden, in Real-Time, darstellen, so dass die Fern-OCU 250 dazu genutzt werden kann, das Training oder den Betrieb des Fahrzeuges unter der Benutzung der Armaturenbrett-OCU 256 zu überwachen.
  • 2A und 2B sind funktionale, schematische Diagramme eines dargestellten Steuerungssystems in einem Ausführungsbeispiel der vorliegenden Erfindung. Das Ausführungsbeispiel, das in 2B dargestellt ist, umfaßt einen Fahrzeugebene-Steuerabschnitt 202, und die Ausführung, die in 2A dargestellt ist, umfaßt einen Steuerebenenkontrollabschnitt 204. Die zwei Abschnitte 202, 204 arbeiten als Hierarchie. In einigen Ausführungen ist der robotische Kontrollabschnitt 204 übergeordnet. In anderen Ausführungen ist der Fahrzeugkontrollabschnitt 202 übergeordnet. Das Fahrzeugebene-Steuerungssystem 202 behält die Personalität des Fahrzeugs, für das es konfiguriert ist.
  • Das Fahrzeugebene-Steuerungssystem 202 umfaßt ein externes Interface, wie zum Beispiel einen CAN-Diagnostikanschluß 206. In anderen Ausführungen können andere Anschlüsse, wie in 2A oder anders dargestellt, ebenfalls umfasst. Die Fahrzeugebene-Steuerung 202 kann auch eine elektronische Stromcentereinrichtung 208 aufweisen. Die elektronische Stromcentereinrichtung 208 schafft den Strom an einen Gangschaltungsmotor 210 und einen Bremsmotor 212. Der Gangschaltungsmotor 210 und der Bremsmotor 212 sind jeweils die Betätigungen für die Betätigungseinrichtungen für das Getriebe und die Bremsensysteme.
  • Das Fahrzeugsteuerungssystem 202 umfaßt auch einen Überwachungsebenensteuergerät (VCU1) 214. Diese Rolle könnte auch durch eine zusätzliche RCU durchgeführt werden. Das Überwachungsebenensteuergerät 214 befindet sich in Kombination mit verschiedenen Systemen des Fahrzeugs. Zum Beispiel ist das Überwachungsebenensystem 214 in Kombination mit dem der Ladefläche (engl. dump bed) und einem Lautsprecher (engl. enunciator) 216. Das Überwachungsebenensteuergerät 214 befindet sich auch in Kommunikation mit dem Gangschaltungsmotor 210 und dem Bremsmotor 212.
  • Das Fahrzeugsteuerungssystem 202 umfaßt auch ein Steuergerät 218 zur Steuerung des Gasgebens und der Diagnostik. Das Steuergerät 218 kann ein APECS™-Modell Gassteuergerät sein, wie es von Woodword Governor Company aus Rockford, Illinois, angeboten wird. Diese Rolle könnte durch eine zusätzliche RCU durchgeführt werden. Das Steuergerät 218 ist in Kombination mit dem Gasbetätigungshebel 220. Das Steuergerät 218 schafft Betätigungssignale an und empfängt Feedback aus dem Gasbetätigungshebel 220.
  • Der Fahrzeugebenen-Steuerabschnitt 202 umfaßt auch ein Armaturenbrett-Steuergerät 222. Dieses Armaturenbrett-Steuergerät 222 schafft eine Steuerung für einen Auswahlschalter 224 und für Scheinwerfer und Verdunklungslichter 226. Das Fahrzeugebene-Steuergerät 202 umfaßt auch den Steuerbetätigungshebel 228.
  • Der Steuerabschnitt 204 für das robotische Ebene umfaßt externe Schnittstellen. Die externen Schnittstellen des Steuerabschnitts 204 der Robotik, die in 2A dargestellt sind, umfassen einen rückwärtigen Nutzlast-CAN-Schnittstellenanschluß 230 und einen rückseitigen Nutzlast-Ethernet-Anschluß 232. Die externen Anschlüsse umfassen auch einen vorderen Nutzlast-CAN-Anschluß 236 und einen vorderen Nutzlast-Ethernet-Anschluß 234. Die Nutzlastanschlüsse 230, 232, 234 und 236 sind jedoch beliebig auf dem autonomen Fahrzeug angeordnet inklusive im Kofferraum oder auf der Ladefläche. Die Nutzlastschnittstellen 230, 232, 234 und 236 können einen Ethernet-Anschluß, einen CAN-Anschluß, einen 232-Anschluß, eine Stromquellenverbindung und/oder jede andere geeignete Anschlußart, die von Nutzlasten genutzt werden, umfassen. Die Anschlüsse und Verbindungen können Stecker, Koppler, Verbinder, Befestiger oder jede Struktur umfassen, die mit einer Nutzlast in Verbindung treten kann und Kommunikation zwischen der Nutzlast und dem Fahrzeugsteuerungssystem herstellt. Zum Beispiel können die Anschlüsse mit Zugang zu den RCUs 238, 254, 244, 262, den VCUs 214, 222 und/oder dem Fern-OCU 250 versehen werden. Die Nutzlasten können Daten senden, wie zum Beispiel Niveaus von schädlichen Chemikalien, die erfasst werden, wenn die Nutzlast ein chemisches Erfassungssystem ist und Daten aufnehmen, wie zum Beispiel Kommandos, die die Richtung der chemischen Erfassung zu verändern.
  • Die Nutzlastschnittstellen 230, 232, 234, 236 können konfiguriert sein, um Nutzlasten relativ leicht anzukoppeln und abzukoppeln und mit den robotischen Steuereinheiten zu kommunizieren, wie dies von der Nutzlast erfordert wird. Zum Beispiel kann ein chemisches Nutzlast-Erfassungssystem in dem hinteren Nutzlast-Ethernet-Interface 232 angeordnet werden, das der Nutzlast erlaubt, Daten über das Vorhandensein von bestimmten Chemikalien an eine hintere Erfassungs-RCU (#3) 244 zu senden. Für eine nachfolgende Aufgabe, kann eine Schnüffelerfassung mit offensiven Fähigkeiten Erfassungsdaten an eine hintere Erfassungs-RCU (#3) 244 senden müssen. In einigen Ausführungen der vorliegenden Erfindung kann ein Benutzer die chemische Erfassungs-Nutzlast abnehmen und die Schnüffelerfassungs-Nutzlast von der hinteren Ethernet-Schnittstelle 232 trennen, ohne die Verdrahtung des autonomen Fahrzeuges zu konfigurieren, und die Schnüffelerfassungs-Nutzlast kann Daten von der hinteren Erfassungs-RCU (#3) 244 senden und empfangen.
  • Der Robotikebenen-Steuerabschnitt 204, der nach einem Ausführungsbeispiel in der 2A dargestellt ist, umfaßt vier RCUs: Eine Überwachungssteuerungs-RCU (#1) 238 für die robotische Ebene, eine hintere Erfassungs-RCU (#3) 244, eine vordere Erfassungs-RCU (#2) 254 und eine Kamera und eine Brems-RCU (#4) 262. Die RCUs 238, 244, 254 und 262 können identisch konfiguriert werden oder können für den spezifischen Zweck konfiguriert werden. Wenn die RCUs 238, 244, 254 identisch konfiguriert sind, dann können die RCUs bestimmen, basierend auf ihrer Stelle im System und der Verbindung, welche Funktion oder Rolle sie durchführen werden. Zum Beispiel kann ein Widerstand in Verbindung mit einer RCU gesetzt werden und, basierend auf dem Widerstand, kann die RCU eine entsprechende Funktion bestimmen. Andere Wege zum Identifizieren der Funktion oder Rolle einer RCU können genutzt werden. Überwachende, robotische Steuerungen der Niveau-RCU (#1) 238 kann ein „High-level‟-Steuergerät (controller) sein und in einigen Ausführungsbeispielen auf einem Power-PC-Einzel-Board-Computer installiert sein, der einen CAN-Knoten besitzt, um unter Benutzung des SAE J1939-Standards primäre Instruktionen an einen oder mehr VCUs 214, 222 zu geben.
  • Verschiedene Elemente des Fahrzeugebene-Steuerabschnittes 202 sind in Kommunikation mit Elementen des robotischen Ebenensteuerabschnitts 204. Zum Beispiel ist die überwachende, robotische-Ebene-Steuergerät-RCU (#1) 238 in Verbindung mit dem Stromcenter 208, dem Steuergerät 218 und der Armaturenbrett-VCU (#2) 222. Der überwachende, robotische-Ebene-Steuergerät-RCU (#1) 238 empfängt Eingabe von verschiedenen Sensoren und schafft Kommandos zum Betrieb eines Fahrzeuges in einem autonomen Modus. U.S. Patentanmeldung Nr. 10/972,082 ; 10/971,718 ; und 10/971,724 , die durch Referenz in ihrer Gesamtheit hierin eingeschlossen werden, beschreiben beispielhafte autonome Modi und deren Steuerung.
  • In dem Ausführungsbeispiel, das in 2A dargestellt ist, empfängt das robotische Überwachungsebenen-Steuergerät-RCU (#1) 238 Eingabe von einem GPS-System 240 und von einem Kompass 242. Das GPS-System 240 kann ein solches sein, wie es von NavCom Technology, Inc. aus Torrance, Kalifornien, erhältlich ist. Diese Sensoren schaffen Position und Richtungsinformation an das Überwachungsebene-Steuergerät-RCU (#1) 238 für Navigationszwecke. Die Ausführungen der vorliegenden Erfindungen können Sensoren ebenfalls umfassen. Zum Beispiel umfaßt ein Ausführungsbeispiel eine Inertialmesseinheit (IMU), die die Beschleunigung des Fahrzeuges in jede Richtung misst. Der Überwachungsebene-Steuergerät-RCU (#1) 238 ist auch in Kommunikation mit der rückwärtigen Erfassungs-RCU (#3) 244. Die rückwärtige Erfassungs-RCU (#3) 244 kann Sensoreingaben von einem Laserscanner 252 über einen RS422 Anschluß erhalten. Die Sick AG aus Deutschland stellt einen Laserscanner 252 her, der in Ausführungen der Erfindung genutzt werden kann.
  • Die Überwachungsebene-Steuergerät-RCU (supervisory robotic level controller) (#1) 238 in dem Ausführungsbeispiel, das in der 2 dargestellt ist, ist auch mit der Vorwärtserfassungs-RCU (#2) 254 in Verbindung, und eine OCU (Armaturenbrett operator control unit) 256 für das Armaturenbrett ist in Verbindung mit der vorausschauend erfassenden RCU (#2) 254. Der Begriff „Armaturenbrett-OCU 256“ kann im Austausch mit dem Begriff „Armaturenbrett-Steuereinheit oder Armaturenbrett-OCU“ genutzt werden. In dem dargestellten Beispiel umfaßt die Armaturenbrett-OCU 256 ein iPAQ™- Modell eines PDA (personal digital assistant), wie er von Hewlett-Packard aus Palo Alto, Kalifornien, hergestellt wird. Wie oben ausgeführt und in den 6 und 7 dargestellt, kann die Armaturenbrett-OCU 256 eine lokale Steuereinheit aufweisen, die abnehmbar mit dem Fahrzeug verbunden ist, wie zum Beispiel auf dem Armaturenbrett, und kann einen Nutzer mit der Fähigkeit bedienen, wenigstens die lokalen Fahrzeugsteuerungen zu bedienen. Zum Beispiel kann der Benutzer die Armaturenbrett-OCU 256 nutzen, um ein Kommando an das Fahrzeug zu geben, was es in den „Follow Me“-Modus versetzt, einen Fernbedienungs-Modus, einen Teaching-Playback-Modus oder einen GPS-Wegpunkt-Modus. Zusätzliche, lokale Funktionen können Fahrzeugscheinwerfersteuerung und Nutzlastfunktionen umfassen. Die Armaturenbrett-OCU 256 kann CAN-Daten über ein Ethernet empfangen oder ein CAN-Netzwerk und die CAN-Daten dem Benutzer anzeigen.
  • In einigen Ausführungen kommuniziert die Armaturenbrett-OCU 256 mit den RCUs, wie zum Beispiel die Überwachungsebene-Steuergerät-RCU (supervisory robotic level controller) (#1) 238 über einen Ethernet-Netzwerk unter Benutzung eines virtuellen Terminalprotokolls. Das virtuelle Terminalprotokoll kann basierend auf dem ISO 11783-6-Standard sein. Zum Beispiel können die RCUs verkapselte CAN-Daten oder Daten, die unter Benutzung von Software in Ethernet-Byte-Paketen generiert sind, verkapseln und die Daten zur Armaturenbrett-OCU 256 senden. Ein akzeptabler Softwaretyp ist der iRobot Aware™, wie sie von iRobot Corp aus Burlington, Massachusetts, hergestellt ist. Das virtuelle Terminalprotokoll kann zum Beispiel acht Bytes von CAN-Daten oder anderen Daten in ein Ethernet-Paket packen und die Daten an eine Armaturenbrett-OCU 256 senden. Die Armaturenbrett-OCU 256 kann die Daten empfangen und anzeigen. In einigen Ausführungen trennt die OCU 256 die CAN-Daten oder andere Datentypen von den Ethernet-Paketen und zeigt die getrennten Daten an. Das Armaturenbrett-OCU 256 kann die CAN- oder anderen Daten lesen und anzeigen, die über ein Ethernet-Netzwerk empfangen werden, und sie müssen nicht notwendigerweise anderen Prozessen unterworfen werden, bevor die empfangende Information angezeigt wird.
  • Es ist weiter vorteilhaft für die Fern-OCU 250, einen Verbinder zu enthalten, der die gleichen physikalischen und Datenlinkebenen (zum Beispiel Ethernet), wie das lokale Paketnetzwerk, zum Beispiel ein Ethernet-Netzwerk, aufweist, wobei er mit dem OCU 250 Radionetzwerk in einer Durchlassweise verbunden ist. Auf diese Weise kann jedes Gerät, das in einen Verbinder an das Fahrzeug-Ethernet-Netzwerk angestöpselt wird, einen großen, transparenten Durchlass zum Steuergerät oder Zubehör, das in dem Verbinder der Fern-OCU angepasst ist, aufweisen, wie zum Beispiel Kommunikationen, die sich über die gleiche Transportebene (zum Beispiel TCP/IP) durch das Ethernet-Netzwerk ausbreiten durch die Radioverbindung zur Fern-OCU 250, durch die Fern-OCU 250-Verbindung mit der gleichen physikalischen und „Datalink“-Ebene zum Zubehör oder der Steuereinrichtung. Das Zubehör oder die Steuereinrichtung kann auch eine Nutzlast sein, die zum Testen genutzt wird etc., weil das Netzwerk nicht weiß, welches Gerät auf dem Fahrzeug oder auf der Fern-OCU 250 Netzwerk vorhanden ist. Die Fern-OCU 250 kann einen Schalter oder Router umfassen, der den herkömmlichen, physikalischen Datalink-Ebenen entspricht. Der Router kann auch einen Verbinder für einen peripheren Bus (USB, IEEE serielle Verbindungen) oder WPAN umfassen, welche auch eine Umwandlung der herkömmlichen Transportebene umfaßt, die durch andere Elemente genutzt wird.
  • Auf diese Weise verwendet das lokale Paketnetzwerk verschiedene kurzreichweitige, lokale, physikalische und Datenverbindungsebenen (zum Beispiel Ethernet, mesh, drahtloses USB, ZigBee) und eine Verbindung von dem Fahrzeug zur Fern-OCU 250 ist eine langreichweite, physikalische und Datenlinkebene (drahtlos, zum Beispiel ein oder mehr 802.XX, 900MHz Radio, Satellit oder Sichtlinienlaser), wobei jede dieser eine Transportebene (zum Beispiel TCP/IP) teilt. Optional können Verbinder der Fern-OCU 250 ein Gerät verbinden, das in die Fern-OCU 250 durch das Transportebeneprotokoll zu jedem Verbinder des Fahrzeuges (Passagierabteilung oder Nutzlast) und jedem Gerät des Fahrzeuges gekoppelt ist, das in einen solchen Verbinder eingefügt ist. Vorteilhafterweise korrespondieren alle dieser Verbinder zu physikalischen Adressebenen der Geräte, die hierzu zugeordnet sind. Weiter vorteilhafterweise kann wenigstens eine Serveradresse (DHCP) auf dem lokalen Paketnetzwerk vorgesehen werden, um Netzwerkadressen entsprechend der Transportebene zu jedem Gerät, das mit dem Verbinder verbunden ist (Nutzlast, Ladefläche, Mast, Passagierabteilung oder Fern-OCU-Verbinder) zu verbinden. Jeder Verbinder kann ein Vielfachverbinder-Hub sein oder kann mit einem Schalter oder Router versehen werden. Ein Service-Discovery-Protokoll, wie zum Beispiel SLP, UpnP, Bonjour oder andere Null-Konfiguration oder automatische Entwicklungsservices, können durch die Prozessorschaltkreise oder Fern-OCU 250 geschaffen werden und/oder jede Nutzlast, die zu dem lokalen Paketnetzwerk hinzufügbar ist.
  • In einigen Ausführungen der vorliegenden Erfindung werden Mitteilungen von den RCUs durch Erzeugen eines Feldes umfassend CAN-Daten in richtiger Reihenfolge und anschließendes Senden des Arrays über das Ethernet-Netzwerk unter Benutzung eines UDP (user datagram protocol) oder HTTP (hypertext transfer protocol) erzeugt. Wie in 19 dargestellt, ist in dem Kasten 272 eine Nutzlast mit einer Schnittstelle verbunden, wie zum Beispiel als vordere Nutzlast CAN-Schnittstelle 236 in 2A, die Daten an ein RCU über ein Netzwerk senden kann, zum Beispiel das Ethernet oder CAN-Netzwerk. In Box 274 kann ein RCU Daten aufnehmen, und in Box 276 kann der RCU die Daten durch Bestimmen der Komponenten, die die Daten aufnehmen müssen, und dem richtigen Datenformat weiterverarbeiten. Der RCU kann zum Beispiel auf eine Tabelle im Speicher für die Anordnung von verschiedenen Komponenten und dem Netzwerk zugreifen, das mit dem Weg zwischen dem RCU und den Komponenten in Verbindung steht. In Box 278 konvertiert die RCU die Daten in ein entsprechendes Format, wenn dies benötigt ist, um die Daten über das Netzwerk zu senden und übermittelt die Daten an die entsprechende Komponente, wie zum Beispiel die Armaturenbrett-OCU 256, die in 2A dargestellt ist. Zum Beispiel kann in einigen Ausführungen die RCU auf eine Tabelle im Speicher zugreifen, die eine Liste von Komponenten und die Datentypen, die die Komponenten lesen und bearbeiten können umfasst. In einigen Ausführungen kann die Tabelle im Speicher auf neuen Stand gebracht werden, wenn die Nutzlast an ein Interface angekoppelt wird. Das folgende ist ein Beispiel der Bytefolge von zwei Mitteilungen, die von einem RCU an die Armaturenbrett-OCU 256 gesandt werden nach einigen Ausführungen der vorliegenden Erfindung: Beispiel 1:
    Mitteilung: ändere numerischen Wert;
    Datenlänge: 8
    Byte 1: VT-Funktion = 168;
    Byte 2: Objektidentifikation des Objekts, das zu ändern ist (am wenigsten signifikantes Byte);
    Byte 3: Objektidentifikation des Objekts, das zu ändern ist (am meisten signifikantes Byte);
    Byte 4: 255; und
    Byte 5-8: numerischer Wert (Werte größer als 1 Byte werden mit den wenigsten signifikanten Bit als erstes übertragen).
    Beispiel 2:
    Mitteilung: ändere String-Wert
    Datenlänge: abhängig von der String-Größe
    Byte 1: VT-Funktion = 179;
    Byte 2: Objektidentifikation des Objekts, das zu ändern ist (am wenigsten signifikantes Byte);
    Byte 3: Objektidentifikation des Objekts, das zu ändern ist (am meisten signifikantes Byte);
    Byte 4: totale Anzahl von Bytes in zu übertragenen String (wenigstsignifikantes Byte);
    Byte 5: totale Anzahl von Bytes in zu übertragenen String (meistsignifikantes Byte); und
    Byte 6-n: String-Wert (Feld von ASCII-Zeichen).
  • Ein virtuelles Terminalprotokoll kann während der Kommunikation zwischen den Nutzlasten und dem Fahrzeugsteuerungssystem und jeden Komponenten, die mit dem Fahrzeug-Netzwerk kommunizieren ebenso genutzt werden. In Kasten 282 der 19 empfängt die Komponente die Daten, die von der RCU übertragen wurden. In Box 284 kann die Komponente die Daten bearbeiten, um die geeignete Aktion zu bestimmen, die als Antwort auf die Daten auszuführen ist. Dann kann in Box 286 die Komponente die notwendige Aktion durchführen, wenn dies benötigt ist. Zum Beispiel kann eine chemische Erfassungs-Nutzlast mit einer vorderen CAN-Schnittstelle 236 verbunden werden, die das Vorhandensein einer chemischen, gefährlichen Substanz erfaßt und die generelle Anordnung der chemischen Quelle. Die chemische Erfassungseinheit sendet ein CAN-Signal, das das Vorhandensein von gefährlichen Substanzen anzeigt, die Identifikation der Chemikalie und die ungefähre Richtung relativ zum Fahrzeug zu einer nach vorne erfassenden RCU (#2) 254. Die nach vorne erfassende RCU (#2) 254 fügt die CAN-Daten in Ethernet-Pakete zusammen unter Benutzung eines virtuellen Terminalprotokolls und sendet das Ethernet-Paket an die Armaturenbrett-OCU 256. Die Armaturenbrett-OCU 256 teilt die Ethernet-Daten, liest die CAN-Daten und bearbeitet die Daten, um die Information zu bestimmten und Optionen auf dem Armaturenbrett-OCU 256 anzuzeigen. Ein Nutzer, wie zum Beispiel der Betreiber oder Passagier des Fahrzeugs, während das Fahrzeug in autonomem oder manuellem Modus ist, kann die angezeigte Information lesen und Justierungen zu der Fahrt des Fahrzeuges vornehmen und/oder Kommandos an eine oder mehrere Nutzlasten geben, indem Kommandos in die Armaturenbrett-OCU 256 gegeben werden. Die Armaturenbrett-OCU 256 kann die Kommandos, die von dem Benutzer eingegeben wurden, bearbeiten, die CAN-Daten in Ethernet-Pakete unter Benutzung eines virtuellen Terminalprotokolls packen, dies wenigstens in einigen Ausführungen, und die Ethernet-Pakete an die nach vorne erfassende RCU (#2) 254. Die nach vorne erfassende RCU (#2) 254 kann das Ethernet-Paket teilen, die Kommando-CAN-Daten bearbeiten und die Kommandos an die entsprechenden Fahrzeugsteuerungssystemkomponenten, Nutzlast und/oder OCU 250, 256 geben.
  • In dem dargestellen Ausführungsbeispiel ist der überwachende, robotische Ebene-Steuergerät-RCU (#1) 238 auch in Kommunikation mit einer Kamera- und einer Bremsen-RCU (#4) 262. Die Kamera- und Bremsen-RCU (#4) 262 befindet sich in Kommunikation mit einer Rückwärtsfahrkamera 264 und einer Vorwärtsfahrkamera 268. Die Kamera- und Bremsen-RCU (#4) 262 ist auch in Zweisichtkommunikation mit einem Steuerbetätiger und dem Fahrzeugebenen-Überwachungs-Steuergerät VCU (#1) 214 Fahrzeugsteuersektion 202, die in 2B dargestellt ist.
  • Die Auslegung der verschiedenen Steuergeräte und Sensoren, die in den 2A und 2B dargestellt sind, können auf eine Vielzahl von Wegen in Ausführungen der vorliegenden Erfindung implementiert werden. Zum Beispiel können die verschiedenen Steuergeräte kombiniert oder in verschiedenen Wegen in Abhängigkeit von der Anzahl und den Typen der Sensoren, die benutzt werden, geteilt werden, und in Abhängigkeit von der Konfiguration des Fahrzeugs. Auch können verschiedene Sensoren und Instrumente in verschiedenen Weisen genutzt werden. Zum Beispiel können Ausführungen der vorliegenden Erfindung Sensorfusion nutzen, um effizient und effektiv zu arbeiten. Sensorfusion erlaubt es dem Fahrzeug sogar dann zu arbeiten, wenn bestimmte Sensoren nicht tätig sind.
  • Robotische Steuerungseinheit
  • In einigen Ausführungen der vorliegenden Erfindung kann eine robotische Steuerungseinheit (RCU) eine oder mehrere Prozessoren und zugeordnete Speicher umfassen, wie zum Beispiel einen Computer mit einem Motherboard, einem Mikroprozessor, einem Netzwerkschalter, wie zum Beispiel einem Ethernet-Schalter, einem Betätigungssteuergerät, wie zum Beispiel einem reprogrammierbaren Motorsteuergerät, einem Betätigungsverstärker, wie zum Beispiel einem Motorverstärker und einer Stromversorgung innerhalb des einzigen, befestigbaren Gehäuses.
  • Ausführbarer Befehlscode kann in dem Speicher der RCU gespeichert werden, der durch eine CPU ausgeführt werden kann, um es der RCU zu ermöglichen, verschiedenes robotisches Steuerverhalten auszuführen und zwischen diesen umzuschalten. Jede RCU in dem robotischen Steuerungssystem kann mit einer Vielzahl von ausführbaren Befehlscodeabschnitten für verschiedene modulare Rollen innerhalb des Steuerungssystems versehen sein. Zum Beispiel kann jede RCU ausführbaren Code für die Überwachungsrolle, für die Betätigungssteuerung, für die Überwachung von Sensoren, etc. aufweisen. Die RCUs können konfigurierbar sein, um nur einen ausgewählten Abschnitt des ausführbaren Befehlscodes entsprechend der Rolle der jeweiligen RCU auszuführen. Beispiele von Teilen des ausführbaren Befehlscodes können Verhaltensumschaltcode, Steuerverhaltenscode, Sensorbetriebscode, Antriebssteuerungscode, Betätigungselementsteuercode, Datenbankmanagementcode, Datenbankdaten und Datenumwandlungscode sein. Jede RCU kann die Funktion oder Rolle bestimmen, die sie durchführt und welchen ausführbaren Code sie, basierend auf Anordnung, Verbindung mit anderen geeigneten Methoden, wie oben beschrieben, ausführen wird. Dieses schafft eine Auswechselbarkeit der RCUs.
  • Wie oben beschrieben, können Vielfach-RCUs in einem robotischen Steuerungssystem eines Fahrzeuges oder einer mobilen Plattform in Ausführungen der vorliegenden Erfindung genutzt werden. Die RCUs können zusammenarbeiten, wie zum Beispiel mit Bezug auf die Ausführungen, die in 1 und 2 beschrieben sind, um das robotische Steuerungssystem zu verarbeiten und zu berechnen. In einem Ausführungsbeispiel der vorliegenden Erfindung kann ein verteiltes, robotisches Steuerungssystem für ein robotisches Fahrzeug oder eine mobile Plattform eine Roboterplattform aufweisen, die einen Körper besitzt (zum Beispiel wie in 3A-3B dargestellt) und einen Motor, der mit einem Antrieb verbunden ist. Es kann einen definierten Satz von robotischen Steuerroutinen geben, der von der Steuerverhaltenverteilung und dem Steuerverhalten abhängig ist. Es kann Sensortreiber, Treiber/Antriebskontroller geben, Datenbasismanagement und Datenbasen oder Datenumwandler. Die robotischen Steuerungssysteme können weiter eine Vielzahl von austauschbaren, befestigbaren Einheiten (zum Beispiel RCUs 238, 254, 244, 262) aufweisen, wobei jede RCU eine Stromeingabe eine Vielzahl von Netzwerkverbindung und einen Vielfachsteckerverbinder aufweist, der auf dem Äußeren der RCU erhältlich ist. Jeder RCU kann weiter eine Mikroprozessorkarte mit einem dynamischen Befehlscodeausführspeicher (zum Beispiel SDRAM) aufweisen. Der Mikroprozessor kann weiter eine Vielzahl von Protokollübertragern umfassen, wobei die Vielfachsteckerverbinder dazu in der Lage sind, mit einer Vielzahl von Protokollübertragersensoren zu kommunizieren. Die Mikroprozessorkarte kann weiter nichtflüchtigen Speicher umfassen, inklusive ausführbaren Code, wobei jeder Mikroprozessor, basierend auf einer RCU, dazu konfigurierbar ist, einen auswählbaren Abschnitt des auswählbaren Codes auszuführen. Die Mikroprozessorschaltkarte kann weiter einen Paketnetzwerkschalter umfassen, wobei jeder aus einer Vielzahl von Netzwerkverbindern dazu in der Lage ist eine Verbindung zu einem durch den Körper verteilten Paketnetzwerk zu bilden und mit dem Paketnetzwerkschalter zu kommunizieren, wobei das Paketnetzwerk dazu in der Lage ist, Befehle für oder von einer Mikroprozessorkarte weiterzuleiten. Die Vielzahl der Mikroprozessorkarten kann mit Befehlen zum Laden und Ausführen von diskreten Routinen eines vorbestimmten Satzes von robotischen Steuerroutinen versehen werden, wie dies in den 8-10 dargestellt ist, so dass alle aus dem definierten Satz von robotischen Steuerroutinen aus der Vielzahl von RCU ausgeführt werden.
  • Softwarearchitektur
  • 8-18 zeigen Ausführungen von Einzelkartencomputern (SBC)-Softwarearchitektur für ausgewählte, robotische Steuereinheiten. Ein Ausführungsbeispiel eines SBC 800 umfaßt einen Prozessor 802 und eine Netzwerkverbindung 804. Die Netzwerkverbindung 804 kann eine oder mehrere Netzwerkverbindungen sein. Beispiele solcher Netzwerkverbindung 804 umfassen Ethernet, TCP/IP, USB und CAN-Verbindung, wie zum Beispiel J1939.
  • Die Netzwerkverbindungen 804 sind dazu ausgelegt, mit einer Vielzahl von Geräten außerhalb der überwachenden SBC 800 verbunden zu sein, so dass die überwachende SBC 800 eine Vielzahl von Datentypen und/oder Kontrollsignalen senden kann. Die überwachende RCU kann auch ein computerlesbares Medium, wie zum Beispiel den Speicher 806, umfassen. Der Speicher 806 kann jede Art von Speicher sein. Beispiele von Speicher 806 umfassen RAM (random access memory), ROM (read-only memory), optischen Speicher und magnetischen Speicher. Der Speicher 806 kann ein Datenspeicher und/oder dauerhafte Datenspeicherung umfassen, um verschiedene aufgenommene oder berechnete Daten und ausführbaren Befehlscode zu speichern.
  • Beispiele von ausführbarem Befehlscode umfassen ein Betriebssystem (nicht dargestellt), wie zum Beispiel BlueCat Linux oder DSP - BIOS (basic input/output system), einen Datentransport (nicht dargestellt), der Software umfaßt, wie zum Beispiel iRobot Aware™, um in der Kommunikation der überwachenden SBC 800 mit externen Geräten und/oder Applikationen 808 zu helfen. Die Applikation 808 kann ein oder mehrere überwachende RCU-Funktionscodes und Antriebsverhalten umfassen. Zum Beispiel können die Applikationen 808 Konfigurationscode 810 umfassen, der Konfigurationsdateien aus dem Speicher liest, wie zum Beispiel aus einem dauerhaften Speicher, und diese Werte in entsprechende Stellen im Datentransport einfüttert.
  • Die Anwendungen 808 können auch eine Hinderniskarte, die Erfassung und/oder Ausweichbefehle 812, den Fernbedienungsbefehl 814, den Folgebefehl 816, den Wegpunktnavigationsbefehl 818, den Antriebsleiter 820, den Daten-logging-Befehl 822, den Pfad-Wiederabspiel-Befehl 824, den Telemetriebefehl 826, die Armaturenbrett-Anzeigesteuerung 828, den Versionsubgrade-Manager 830 und die Fahrzeugsteuerungseinheit (VCU)- Schnittstelle 832 umfassen. Ausführungen der Anwendungen 808 werden im größeren Detail im folgenden in Bezug auf die 11-18 dargestellt.
  • 9 zeigt ein Ausführungsbeispiel von Softwarearchitektur für einen nach vorne gerichteten Erfassungsengine SBC 900, eingeschlossen auf einer zweiten RCU. Der nach vorne gerichtete Erfassungsengine umfaßt einen Prozessor 902 und eine Netzwerkverbindung 904. Die Netzwerkverbindung kann ein oder mehrere verschiedene Typen von Netzwerkverbindungen, wie oben beschrieben, umfassen, die dazu geeignet sind, Daten über ein oder mehr Netzwerke aufzunehmen und zu senden. Der nach vorne gerichtete Auffassungsmotor SBC 900 kann auch ein lesbares Medium, wie zum Beispiel einen Speicher 906, umfassen. Der Speicher 906 kann jede Art von Speicher sein und kann Daten und Speicher und/oder dauerhafte Datenspeicherung zu verschiedenen aufgenommenen oder berechneten Daten und ausführbaren Befehlscode umfassen.
  • Ein Beispiel von solchen ausführbaren Befehlscode umfaßt Anwendungen 908. Die Anwendungen 908 können eine Vielzahl von Softwarebefehlen und Verhaltensbefehlen umfassen. Zum Beispiel können die Anwendungen 908 einen Laserscanner 910 umfassen, ein Kipp-Steuergerät (nodding motion controller) 912, einen dreidimensionalen Kartengenerator 914. Ausführungen eines Laserscannertreibers, eines Nodding-motion-Steuergerätes und eines dreidimensionalen Kartengenerators werden im folgenden Detail beschrieben.
  • Ausführungen der vorliegenden Erfindung können auch einen dritten RCU umfassen, der ein SBC aufweist, das einen hinteren Erfassungsengine (nicht dargestellt) umfaßt. Der hintere Erfassungsengine kann einen Laserscannertreiber umfassen, der Konfigurationsdaten liest, wobei Konfigurationen des Laserscanners für kontinuierliche Ausgabe von Entfernungsdaten, das Lesen von Entfernungsdaten und das Ausgeben der Daten an ein Netzwerkmassagequeue zur Nutzung durch eine Überwachungs-RCU ausgibt. Der hintere Erfassungsengine kann ähnliche oder die gleichen Verhaltensbefehle, Architektur oder anderes oder den vorderen Erfassungsengine umfassen.
  • 10 zeigt ein Ausführungsbeispiel eines vierten RCUs, der eine Kamera sein kann und das Steuern des RCUs, inklusive eines SBC 1000. Die Kamera und SBC 1000 kann ein Prozessor 1002 und ein oder mehr Netzwerkverbindungen 1004 umfassen. Die Netzwerkverbindungen 1004 können Daten senden und empfangen über ein Netzwerk oder andere Geräte oder andere RCUs.
  • Die Kamera- und Steuer-SBC 1000 kann auch ein lesbares Medium, wie zum Beispiel einen Speicher 1006, umfassen. Der Speicher 1006 kann jeder Typ von Speicher sein und einen Datenspeicher und/oder dauerhaften Datenspeicher umfassen, um verschiedene aufgenommene oder berechnete Daten und ausführbaren Code zu speichern. Ein Beispiel eines solchen ausführbaren Codes umfaßt Anwendungen 1008, die ein oder mehr Softwareprogramme und/oder Verhaltenscode haben. Beispiele solcher Programme oder Code umfassen einen Kameraantriebssteuerkreis 1010, einen Videoformat-Konvertierer 1012 und einen Steuerbetätigungsschaltkreis 1014. Ausführungen des Kameratreibersteuergeräts, des Videoformatkonverters und des Lenkbetätigersteuerschaltkreises werden im folgenden im Detail beschrieben.
  • In einigen Ausführungen der vorliegenden Erfindung können RCUs mit einer Softwarearchitektur geschaffen werden, die eine Anwendungsebene mit einer oder mehr Anwendungen und Typen von Anwendungen umfaßt. Die RCUs können nur eine Anwendung umfassen, während andere RCUs dazu konfiguriert sind, mehr als eine Anwendung zu umfassen. In einigen Ausführungen können die Anwendungen an die RCUs hochgeladen werden. Die 11-12 zeigen Ausführungsbeispiele eines robotischen Ebenensteuergeräts und umfassen eine oder mehr Anwendungstypennetzwerkverbindungen. 11 zeigt eine Softwarearchitektur für einen robotischen Ebenensteuerkreis 1100, der eine Anwendungsebene 1102 umfaßt, die eine oder mehrere Anwendungstypen umfassen kann. Beispiele solcher Anwendungstypen umfassen Verhaltenssteuerung 1103, periphere Kommunikationen und Steuerung 1105 und Datenbasen 1107. Die Verhaltenssteuerung 1103 kann Anwendungen, wie zum Beispiel robotische Steueranwendungen, Monitore und/oder Arbiter umfassen. Diese und andere Typen von Verhaltenssteuerungen werden im folgenden mit Bezug zu den 13-18 beschrieben. Die peripheren Kommunikationen und Steuerung 1105 können Sensorantriebsbefehle, Protokolltransceiver-Überwachungsbefehle, Kamerakommunikation, Steuereinheitsschnittstellen und Telemetrie umfassen. Die Datenbasen 1107 können Bild, Karten und Wegpunktdatenbasen sein.
  • Die RCU-Softwarearchitektur 1100 kann auch eine Datentransportebene 1104 und eine Betriebssystemebene 1106 umfassen. Die Betriebssystemebene 1106 kann ein Betriebssystem, wie zum Beispiel ein Linux-Betriebssystem, oder jede Art von Signalverarbeitungsbefehlen sein. Eine Datenspeicher/Netzwerkverbindungsebene 1108 kann auch umfaßt werden. Die Datenspeicher/Netzwerkverbindungsebene 1108 kann einen Datenspeicher, wie zum Beispiel einen dauerhaften Datenspeicher 1110, und eine oder mehr Verbindungen, wie zum Beispiel eine digitale 1112, ein CAN 1114, ein USB 1116, ein Ethernet 1118 und eine serielle Verbindung 1120 umfassen. Die Netzwerkverbindung kann eine Vielzahl von Daten und andere Datentypen 1122 empfangen und eine Vielzahl von Daten und Typen von Daten 1124 ausgeben.
  • 12 zeigt ein anderes Ausführungsbeispiel einer Robotik-Ebene-Steuergerät-Software-Architektur 1200, die eine Anwendungsebene 1202 umfaßt, die ein oder mehr Befehlstypen umfaßt, die ein oder mehrere Anwendungen aufweisen. Zum Beispiel kann die Anwendungsebene 1202 einen Betätigungssteuerunganwendungstyp 1203 und/oder alternative Signalverarbeitung 1205 umfassen. Die Betätigungssteuerung 1203 kann Motorsteuerungen für Bürstenmotoren, Motorsteuerungen für bürstenlose Motoren, Motorsteuerungen für andere Betätigungseinrichtungen und/oder andere Motorsteuerbefehle umfassen. Die alternative Signalverarbeitung 1205 kann DSP-Signalverarbeitungscode und/oder CPLD-Signalverarbeitungscode umfassen. Die RCU-Software kann auch eine DSP-Betriebssystemebene 1204 umfassen, die eine DSP BIOS oder andere optionale Betriebssysteme umfaßt. Ein Beispiel eines DSP BIOS umfaßt das Texas Instruments™ DSP BIOS.
  • Die 13-18 zeigen besondere Ausführungen der RCU-Softwarearchitektur, inklusive Architektur, die mit Anwendungen, Datentransport und physikalischen Ebeneanordnungen verbunden ist, die mit verschiedenen beispielhaften Konfigurationen in Verbindung stehen. Die Ausführungen der RCU-Softwarearchitektur, die hierin beschrieben sind, betreffen eine RCU, die bestimmte Anwendungen aufweist und bestimmte Funktionen durchführt, die bestimmt werden, wenn die RCU als solche ausgewählt ist, und die die entsprechenden Anwendungen oder ausführbaren Befehle umfaßt. Die RCUs können Geräte mit den gleichen elektronischen oder physikalischen Ausbildungen sein, aber sie können gleiche oder verschiedene Softwareaufspielungen besitzen.
  • Eine Ausführung einer Softwarearchitektur 1300 für das RCU-Überwachungssteuergerät auf Robotikebenen wird in 13 dargestellt. Die RCU kann eine überwachende RCU werden, nachdem sie als solche ausgewählt wurde und die entsprechenden Anwendungen empfängt. Die RCU-Softwarearchitektur 1300 kann eine oder mehr Ebenen umfassen. Zum Beispiel können die Ebenen eine Anwendungsebene 1302 umfassen, die computerausführbaren Code, wie zum Beispiel Anwendungen umfaßt, eine Datentransportebene 1304, die ausführbaren Code, wie zum Beispiel iRobot Aware™, einschließt, um die RCU in der Kommunikation mit externen Geräten zu unterstützen und/oder Anwendungen in der Anwendungsebene 1802, eine Betriebssystemebene 1806 die ein Betriebssystem, wie zum Beispiel BlueCat Linux, einschließt, und eine Datenspeicher/Netzwerkverbindungsebene 1808, die Daten von anderen Geräten aufnehmen oder an diese senden kann und Daten speichern kann. Die Datenspeicherung/Netzwerkverbindungsebene 1808 kann einen Datenspeicher, wie zum Beispiel einen dauerhaften Datenspeicher 1810, umfassen.
  • Die Datenspeicher/Netzwerkverbindungsebene 1808 kann eine oder mehr Netzwerkverbindungen umfassen, die dazu ausgelegt sind, sich mit einer Vielzahl von Geräten außerhalb der RCU zu verbinden und Daten zu ihnen zu senden oder von ihnen zu empfangen oder Steuersignale. Die Netzwerkverbindungen können eine CAN-Verbindung 1812, wie zum Beispiel einen J1939-Verbinder, einen USB-Verbinder 1814, einen Ethernet-Verbinder 1816 umfassen. Die Netzwerkverbindungen können eine Vielzahl von Daten 1818 empfangen oder eine Vielzahl von Daten 1820 senden. Beispiele von Ethernet-Daten 1822, die von dem Ethernet-Verbinder empfangen wurden, umfassen Laserscannerentfernungsdaten, GPS-Positionsdaten, Kompassorientierungsdaten, Fernbedienungskommandos von einer Fernnutzersteuereinheit (OCU), einer Armaturenbrett-Anzeigestatus und Eingabe und Softwareupdates. Ein Beispiel von USB-Daten 1824 umfaßt Softwareupdates ebenfalls. Beispiele von CAN-Daten 1826 umfassen Fahrzeugstatusinformationen, Fahrzeugmodusschalter und diagnostische Kommandos von CAN-Diagnostikanschlüssen. Beispiele von übertragenen Ethernet-Daten 1828 umfassen Telemetriedaten an eine Fern-OCU, Armaturenbrett-Displaybefehle und Softwareupdates an andere RCUs. Ein Beispiel von übertragenen USB-Daten 1830 umfaßt Datenfiles. Beispiele von übertragenen CAN-Daten 1832 umfassen Driverkommandos an ein Überwachungs-VCU und diagnostische Antworten an den CAN-Diagnostikanschluß.
  • Die Anwendungsebene 1802 kann ein oder mehr Anwendungen, wie zum Beispiel RCU-Funktionsanwendungen oder Antriebsverhalten, umfassen. Zum Beispiel können die Anwendungen Konfigurationsbefehle 1801 umfassen, die Konfigurationsfiles vom Speicher lesen, wie zum Beispiel dauerhaften Speicher, und diese Werte in entsprechende Stellen im Datentransport eingeben. Die Anwendungen können auch eine Hinderniskarte und -erfassung 1803 umfassen. Der Hinderniskarten- und Erfassungscode kann Eingabeentfernung und Fahrwegdaten empfangen und eine zweidimensionale Hinderniskarte erzeugen.
  • Andere Anwendungen können Fernbetriebbefehle 1805 umfassen, die Eingabekommandos von einer Fern-OCU empfangen und einen Trajektoriensatz zur Benutzung von einem Drive-Arbiter 1811 ausgeben und verschiedene diskrete Werte und einen Nachverfolgungsmodus oder halb-autonomen Modus 1807, der Hindernisdaten von einer Hinderniskarte empfängt, um ein Ziel oder Objekt, dem es zu folgen gilt, zu lokalisieren und einen Trajektoriensatz zur Benutzung von dem Drive-Arbiter 1811 ausgibt. Wegpunktnavigationsbefehle 1809 können auch enthalten sein, die Eingabewegpunktwerte von einem ausgewählten Pfad empfangen und einen Trajektoriensatz zur Benutzung durch den Drive-Arbiter 1811 ausgeben. Der Drive-Arbiter 1811 kann in den Anwendungen umfaßt werden, um einen Eingabetrajektoriensatz zu empfangen und Prioritäten von verschiedenen Antriebsverhalten zu empfangen, Hindernisdaten, um eine Hinderniskarte zu bilden und Konfigurationsdaten von verschiedenen Konfigurationspublikationen. Der Drive-Arbiter 1811 kann auch ausgewählte Trajektoriendaten an Betätigungselemente oder andere Geräte außerhalb der RCU geben.
  • Die Anwendungen können auch Datenloggingbefehle 1813 umfassen, die Statusdaten von den Fahrzeugsensoren aufnehmen und die Daten an einen Datenspeicher schreiben, wie zum Beispiel dauerhaften Datenspeicher 1810. Nachdem ein Benutzerkommando empfangen wurde, kann der Datenloggingbefehl 1813 Daten drahtlos oder auf einer drahtgebundenen Leitung an eine OCU oder entfernbare Datenspeichergeräte senden. Die Anwendungen können auch pfadbezogene Aufzeichnungen 1815 oder Pfadplayback 1817 Befehle umfassen. Die Pfadaufzeichnungsbefehle 1815 können Ortsdaten von Fahrzeugsensoren erhalten und von einem Benutzer Eingaben und diese Daten zum Beispiel als Darstellung von Wegpunkten in einen Datenspeicher abspeichern, wie zum Beispiel einen dauerhaften Datenspeicher. Die Pfadwiedergabebefehle 1817 können einen Pfad, wie er von einem Nutzer ausgewählt wurde, empfangen und die Wegpunkte, die mit dem Pfad in Zusammenhang stehen, an die Wegpunktnavigation abspielen.
  • Die Anwendungen können auch Telemetriecode 1819 umfassen, der Statusdaten von Fahrzeugsensoren aufnimmt und Pakete an eine Fern-OCU sendet. Eine Armaturenbrett-Anzeigesteuerung 1821 kann auch mit umfaßt werden, die Statusdaten von Fahrzeugsensoren und Eingaben von einer Armaturenbrett-Anzeige aufnimmt und Befehle an die Armaturenbrett-Anzeige sendet.
  • Die Anwendungen können auch einen Versionsupgrademanager 1823 und eine VCU-Schnittstelle 1825 umfassen. Der Versionsupgrademanager 1823 kann Software-Upgrades empfangen und die Software-Upgrades auf andere RCUs verteilen. Die VCU-Schnittstelle 1825 kann Treiber- und diagnostische Kommandos empfangen, und Treiberkommandos an die RCU über entsprechende CAN-Mitteilungen senden und diagnostische Mitteilungen zu anderen RCUs senden und ihre Reporte an den VCU zurückgeben. Hindernisvermeidungscode 1827 kann ebenfalls eingebaut werden. Der Hindernisvermeidungscode 1827 kann Eingabetrajektorien von dem Drive-Arbiter 1811 und Hindernisdaten von der zweidimensionalen Hinderniskarte empfangen, und diese Trajektorien nach Hindernisvermeidungsregeln bewerten.
  • 14 zeigt ein Ausführungsbeispiel von Softwarearchitektur für eine nach vorne erkennenden Engine-RCU 2 1400. Die RCU kann für einen vorwärts erkennenden Engine-RCU werden, nachdem sie als solche ausgewählt ist und entsprechende Anwendungen empfängt. Die Softwarearchitektur des Vorwärts-Erkennungsengines RCU 2 kann eine oder mehr Softwareebenen umfassen. Zum Beispiel können die Ebenen eine Anwendungsebene 1402 umfassen, die computerausführbaren Code, wie zum Beispiel Anwendungen, umfaßt, eine Datentransportebene 1404, die ausführbaren Code, wie zum Beispiel iRobot Aware™ umfaßt, um mit der Kommunikation mit externen Geräten und/oder Anwendungen in der Anwendungsebene 1402 zu helfen, eine Betriebssystemebene 1406, die ein Betriebssystem, wie zum Beispiel BlueCat Linux, umfaßt und eine Datenspeicher/Netzwerkverbindungsebene 1408, die Daten an andere Geräte senden und von diesen empfangen kann und Daten speichern kann. Die Datenspeicher/Netzwerkverbindungsebene 1408 kann Datenspeicherung umfassen, wie zum Beispiel als dauerhafte Datenspeicherung 1410.
  • Die Datenspeicher/Netzwerkverbindungsebene 1408 kann eine oder mehr Netzwerkverbindungen umfassen, um sich mit einer Vielzahl von Geräten außerhalb der RCU zu verbinden und Daten oder Steuersignale zu senden und zu empfangen. Die Netzwerkverbindungen können eine CAN-Verbindung 1412, wie zum Beispiel einen J1939-Verbinder, einen Digitalverbinder 1414, einen Ethernet-Verbinder 1416 und einen seriellen Verbinder 1418, wie zum Beispiel einen RS232- oder einen RS422-Verbinder umfassen. Die Netzwerkverbinder können dazu genutzt werden, eine Vielzahl von Daten 1420 zu empfangen oder eine Vielzahl von Daten 1422 zu senden. Beispiele von seriellen Daten 1424, die von dem seriellen Connector 1418 empfangen werden, umfassen Mitteilungen von einem Laserscanner, wie zum Beispiel einem LMS291 und Höhenmitteilungen von einer NMC- (nodding motion controller) Karte. Ein Beispiel von Ethernet-Daten 1426 umfaßt Scansteuerungskommandos. Ein beispielhaftes digitales Datum 1428 umfaßt horizontale Synchronistationspulsdaten von einem LMS291-Laserscanner. Ein Beispiel von CAN-Daten 1430 umfaßt Höhenmitteilungen von einer NMC-Karte. Beispiele von übertragenen, seriellen Daten 1432 umfassen Kommandos an einen Laserscanner, wie zum Beispiel einen LMS291 und Bewegungssteuerungskommandos, wie zum Beispiel an eine NMC-Karte. Ein Beispiel von Ethernet-Daten 1434 umfaßt Entfernungsdaten an eine andere RCU, wie zum Beispiel über eine Mitteilungsschlange. Ein Beispiel von übertragenen CAN-Daten 1436 umfaßt Bewegungssteuerungskommandos, wie zum Beispiel eine NMC-Karte.
  • Die Anwendungsebene 1402 kann eine oder mehr Anwendungen umfassen, wie zum Beispiel einen RCU-Betriebscode und Antriebsverhalten. Zum Beispiel können die Anwendungen einen Laserscannertreiber, wie zum Beispiel ein LMS29i-Treiber 1401, umfassen, einen NMC-1403, einen dreidimensionalen Kartengenerator 1405. Der LMS291-Treiber 1401 kann Konfigurationsdaten lesen, die einen Laserscanner konfigurieren, wie zum Beispiel einen LMS291, zur dauerhaften Aufgabe von Entfernungsdaten mit einer bestimmten Frequenz. Ein Beispiel einer solchen Frequenz ist 75 Hz. Der LMS291-Treiber 1401 kann auch Entfernungsdaten lesen und sie mit einem Zeitstempel versehen und die Daten an eine Netzwerkmitteilungsschlange bringen, um diese zur Nutzung durch einen dreidimensionalen Kartengenerator zu nutzen.
  • Der NMC 1403 kann Konfigurationsdaten lesen, Kommandos zur Steuerung des Nick/Scan-Verhaltens empfangen und die Scanning-Hardware nach den vorangehenden Kommandos bewegen. Der NMC 1403 kann auch horizontale Synchronisationspulse empfangen als Interrupts und die Zeit der letzten Interrupts feststellen. Zusätzlich kann der NMC Höhenausrichtungsmitteilungen von einer NMC-Karte empfangen, die Zeit des Beginns des letzten Scannens, basiert auf empirisch festgelegten Offset zwischen den horizontalen Synchronisationspulsen, errechnen und diese Zeit dazu nutzen, die Höhendaten mit einem Zeitstempel zu versehen, und die mit einem Zeitstempel versehenen Höhendaten an den drei-dimensionalen Kartengenerator 1405 senden.
  • Der drei-dimensionale Kartengenerator 1405 kann Konfigurationsdaten lesen, Scanns von einem Laserscannertreiber 1405 lesen, zeitgestempelte Höhenmitteilungen von dem NMC 1403 lesen und die Höhe des Kippmechanismus zum Beginn der letzten Bereichsscannung errechnen, basierend auf, zum Beispiel, sinusolidaler Bewegung des Verkippmechanismus. Der drei-dimensionale Kartengenerator 1405 kann auch jeden Scan mit der berechneten Höhe zum Zeitpunkt des Beginns des Scan markieren, die Entfernungsdaten mit den zugehörigen Höheninformation an eine Netzwerkmitteilungsschlange geben zur Benutzung durch eine Überwachungs-RCU und einen Verlust der Synchronisation aufgrund von Fehlern erfassen und eine Resynchronisation durch Verwerfen von Daten, bis eine Übereinstimmung zwischen allen Zeitstempeln erreicht werden kann, resynchronisieren.
  • 15 zeigt ein zweites Ausführungsbeispiel der Softwarearchitektur für einen nach vorne gerichteten Erfassungsengine-RCU 1500. Die Softwarearchitektur 1500 umfaßt eine Vielzahl von Softwareebenen. Zum Beispiel können die Ebenen eine Anwendungsebene 1502 umfassen, die Anwendungen aufweist, eine DSP BIOS-Ebene oder eine optionale Betriebssystemebene 1504, die ein Betriebssystem oder anderen Signalverarbeitungscode umfassen kann und eine Netzwerkverbindungsebene 1506. Ein Beispiel eines Betriebssystems, das eine DSP-Betriebssystemebene 1504 umfaßt, umfaßt ein Texas Instrument™ DSP BIOS.
  • Die Netzwerkverbindungsebene 1506 kann einen oder mehrere Netzwerkverbinder umfassen, wie zum Beispiel digitalen Input/Output 1508, einen Codiererverbinder 1510, einen Hall-Effekt-Verbinder 1512, einen CAN-Connector 1514, wie zum Beispiel einen J1939-Verbinder, einen analogen Input 1516, einen seriellen Verbinder 1518, wie zum Beispiel einen RS232- oder RS422-Verbinder, und eine Motorphasenausgabe 1520. Die Netzwerkverbinder können dazu genutzt werden, eine Vielzahl von Daten 1528 zu empfangen oder eine Vielzahl von Daten 1530 zu senden. Beispiele von seriellen Daten 1532, die von dem seriellen Verbinder 1518 empfangen werden, umfassen die Identifikation von anderen RCUs und eine Kommandozeilenschnittstelle. Ein Beispiel von empfangenen CAN-Daten 1534 umfaßt J1939-Mitteilungen. Ein Beispiel von empfangenen Hall-Effekten 1536 umfaßt eine Kommutation von Hall-Effektsensoren auf Motorwellen. Ein Beispiel des Empfangens von Kodierdaten 1538 umfaßt inkrementierte Kodierdaten auf einem Verkippmechanismus. Ein Beispiel von empfangenen Digitaldaten 1540 umfaßt einen Synchronisationspuls von einem Laserscanner, wie zum Beispiel einem LMS291-Laserscanner. Ein Beispiel von übertragenen CAN-Daten 1542 umfaßt J1939-Mitteilungen. Ein Beispiel von Motorphasendaten 1544 umfaßt die dreiphasigen Motorphasen A, B und C.
  • Eine Anwendung auf der Anwendungsebene 1502 kann eine Nickbewegungsmotorsteuerung 1501 umfassen. Die Nickbewegungsmotorsteuerung 1501 kann mit einem Lasernickbewegungsglied oder einem anderen Gerät unter Benutzung eines J1939-Protokolls und durch einen CAN-Bus erfolgen. Die Nickmotorsteuerung kann auch ein Kommandoleitungsdebugging über die gleiche oder eine andere Netzwerkverbindung schaffen.
  • 16 zeigt ein Ausführungsbeispiel einer Softwarearchitektur für einen rückwärtig erfassenden Engine-RCU 3 1600. Der RCU kann einen rückwärtig erfassenden Engine-RCU werden, nachdem er als solcher bestimmt wurde und entsprechende Anwendungscodes erhalten hat. Die Software für den rückwärtigen Erfassungsengine kann auch eine Vielzahl von Softwareebenen umfassen, wie zum Beispiel die Softwareebene 1502, die eine oder mehrere Anwendungen umfaßt, die Datentransportebene 1604, eine Betriebssystemebene 1606, die ein Betriebssystem, wie zum Beispiel BlueCat Linux umfaßt, und Datenspeicherung/Netzwerkverbindungsebene 1608. Die Datenspeicherung/Netzwerkverbindungsebene 1608 kann eine Datenspeicherung umfassen, wie zum Beispiel eine dauerhafte Datenspeicherung 1610 und ein oder mehrere Netzwerkverbindungen, um es der RCU zu erlauben, Daten zu senden und mit Geräten außerhalb der RCU zu kommunizieren.
  • Die Anwendungsebene 1602 kann eine Laserscannertreiberanwendung umfassen, wie zum Beispiel einen LMS291-Treiber 1601, der Konfigurationsdaten liest, wobei die Konfigurationen des Laserscanners für die kontinuierliche Ausgabe von Entfernungsdaten liest und die Daten an eine Netzwerksmitteilungsschlange zur Nutzung durch eine Überwachungs-RCU gibt. Die Anwendungsebene 1602 kann ähnliche oder den gleichen Verhaltenscode, Architektur oder ähnliches umfassen, wie der Engine zur Erfassung nach vorne.
  • 17 zeigt ein Ausführungsbeispiel einer Softwarearchitektur für eine Kamera und Steuer-RCU 4 1700. Die Kamera- und Steuerarchitektursoftware 1700 kann eine Vielzahl von Softwareebenen, wie zum Beispiel die Anwendungsebene 1702 umfassen, die ein oder mehrere Anwendungen, eine Datentransportebene 1704, eine Betriebssystemebene 1706 umfassen kann, die weiter ein Betriebssystem, wie zum Beispiel BlueCat Linux, umfassen kann und Datenspeicher/Netzwerkverbindungsebene 1708. Die Datenspeicher/Netzwerkverbindungsebene 1708 kann eine Datenspeicherung, wie zum Beispiel eine dauerhafte Datenspeicherung 1712 und eine oder mehrere Netzwerkverbindungen zum Senden und Empfangen von Daten aufweisen. Beispiele von Daten, die bei Bezugszeichen 1732 von der RCU empfangen werden, umfassen Videos aus Antriebskameras, Antriebskameraauswahlkommandos, Softwareupdates und Updates und eine Identifikation von anderen RCUs. Beispiele von übertragenen Daten an Punkt 1734 von der RCU können RCU-Identifikation, Video an ein OCU-Kommando zu Antriebskameras und Kameraleistungssteuerung sein.
  • Die Anwendungsebene 1702 kann ein oder mehr Anwendungen umfassen, wie zum Beispiel eine Kameraantriebssteuerung 1701 und einen Videoformatkonverter 1703. Die Kameraantriebssteuerung 1701 kann eine Antriebskamera, basierend auf Konfigurationsdaten und von Kommandos, die über Netzwerk empfangen werden, konfigurieren, einen aktiven Kameraantrieb, basierend auf Kommandos, auswählen, und Ausgaben von inaktiven Kameras unmöglich machen, um die Netzwerklast zu reduzieren und/oder Kamerastrom an- und auszuschalten. Der Videoformatkonverter 1703 kann Videos, wie zum Beispiel MJPEG-Videos, von der aktiven Antriebskamera lesen, das MJPEG-Video in ein Unterformat konvertieren und einen Mulitcastvideostream im Unterformat an einen OCU senden.
  • 18 zeigt ein anderes Ausführungsbeispiel von Softwarearchitektur für eine Kamera- und Steuer-RCU 4 1800. Die Kamera- und Steuerarchitektur 1800 kann eine Vielzahl von Softwareebenen umfassen, wie zum Beispiel die Anwendungsebene 1802, eine DSP-Betriebssystemebene 1804 und eine Netzwerkverbindungsebene 1806. Die DSP-Betriebssystemebene 1804 kann ein DSP BIOS oder optionale Betriebssysteme umfassen. Die Netzwerksverbindungsebene 1806 kann einen oder mehrere Typen von Netzwerkverbindern umfassen, die dazu benutzt werden können, Daten 1828 aufzunehmen und Daten 1830 zu senden.
  • Die Anwendungsebene 1802 kann ein oder mehrere Anwendungen umfassen. Zum Beispiel können die Anwendungen eine Steuerungsanwendung 1801 für die Steuerbetätigung umfassen. Die Steuerbetätigungssteuerung 1801 kann ein Kommondoleitungsdebugging über einen ersten Netzwerkverbinder vornehmen, wie zum Beispiel einen RS232 und mit einer oder mehreren externen Geräten, wie zum Beispiel Betätigungseinrichtungen, über einen zweiten Netzwerkverbinder, wie zum Beispiel einen CAN-Verbinder, unter Benutzung des J1939-Protokolls.
  • Beispielhaftes Fahrzeug
  • Ausführungen der vorliegenden Erfindung können für eine Vielzahl von Fahrzeugen genutzt werden, wie zum Beispiel bei Kraftfahrzeugen, Lastwagen, Nutzfahrzeugen oder anderen geeigneten autonomen Fahrzeugen. 3A und 3B sind Diagramme von oben dargestellt eines beispielhaften Fahrzeuges in einem Ausführungsbeispiel der vorliegenden Erfindung. Die Fahrzeuge 300, die in den 3A und 3B dargestellt sind, sind sechsrädrige, Diesel angetriebene Nutzfahrzeuge, wie zum Beispiel „Gator™“-Modell Fahrzeuge, die von Deere & Company aus Moline, Illinois, hergestellt werden. Es wird darauf hingewiesen, dass die 3A und 3B das Fahrzeug 500 mit einem abgenommenen Ladekasten am hinteren Teil des Fahrzeuges 300 zeigen. In einigen Ausführungen der vorliegenden Erfindung kann der Ladekasten Nutzlastschnittstellen umfassen, um die abnehmbare Verbindung zu Nutzlasten mit dem Fahrzeug 300 und dem Fahrzeugssteuerungsnetzwerk zu ermöglichen. Die Schnittstellen können Stecker, Verbinder, Koppler, Befestiger oder jede Struktur sein, die es der Nutzlast ermöglicht von der Schnittstelle relativ leicht abgenommen und an ihr befestigt zu werden.
  • Das beispielhafte Fahrzeug 300 umfaßt ein robotisches Steuerungssystem, das eine Anzahl von RCUs aufweist, die jeweils in einem aufsetzbaren Gehäuse enthalten sind. In dem Ausführungsbeispiel, das in den 3A und 3B dargestellt ist, besitzt das robotische Steuerungssystem 4 RCUs 238, 244, 254, 262. Andere Ausführungen des gleichen oder verschiedener Fahrzeuge können mehr oder weniger RCUs haben. Die RCUs 238, 244, 254, 262 können in leeren oder nicht genutzten Räumen des Fahrzeuges 300 befestigt werden. Auf diese Weise wird wertvoller Person oder Nutzlastraum nicht von der Elektronik des robotischen Steuerungssystems belegt. Zum Beispiel kann das überwachende Steuer-RCU für die robotische Ebene in dem Motorraum 302 des Fahrzeuges 300 angeordnet werden. Ein Wärmeschild 304 kann dazu genutzt werden, die RCU (#1) 238 des Steuergeräts für die überwachende, robotische Ebene und andere Elektronik 306, 308 vor der Wärme des Motors zu schützen. In einem Ausführungsbeispiel kann das Wärmeschild 304 ein Siegel an seiner Oberseite haben, sodass es ein Siegel mit der Bodenfläche des Tragkastens (nicht dargestellt) bildet.
  • Die RCU (#2) 254 für die Vorwärtserfassung kann auf der vorderen Laserscanneranordnung 310 positioniert werden. Die RCU (#3) 244 für die rückwärtige Erfassung kann auf der rückwärtigen Laserscanneranordnung 312 positioniert werden. Die Kamera- und Bremsen RCU (#4) 262 können in der Kofferraumhöhlung 314 des Fahrzeuges angeordnet werden. Die Position der RCUs in den Leerräumen, die in den 3A und 3B dargestellt sind, dienen lediglich zur Illustration, und eine Vielzahl von anderen Konfigurationen sind möglich. Das Positionieren und Befestigen der RCUs nahe den Geräten, denen sie Steuersignale senden und von denen sie Signale empfangen, kann Störungsrauschen dieser Signale verringern. 3A illustriert die Anordnung von verschiedenen anderen elektronischen Komponenten des Steuerungssystems für die Robotik auf dem Fahrzeug 300 nach einem Ausführungsbeispiel der vorliegenden Erfindung. Beispiele von solchen anderen Komponenten umfassen einen Baterieequalizer 350, einen GPS 352, ein VCU 354, Kameras 358, Kompaß 360, Radios 362, Leistungszentrum 364 und ein Steuergerät 366.
  • Kamera-Mast-Einheit
  • Fahrzeuge nach einigen Ausführungen der vorliegenden Erfindung umfassen eine Kamera-Mast-Einheit, die abnehmbar mit dem Fahrzeug verbunden ist und eine Schnittstelle, um mit dem Fahrzeugsteuerungssystem und der Stromquelle zu kommunizieren. 4 zeigt eine Ausführung eines Fahrzeuges 400, die eine Kamera-Mast-Einheit 402 besitzt und die mit dem Fahrzeugkörper 404 und dem Nutzer und dem Passagierbereich 406 in Verbindung steht. Der Fahrzeugkörper 404 kann Nutzlastschnittstellen zum Anbringen von zusätzlichen Nutzlasten an das Fahrzeug 400 umfassen und den Nutzlasten eine Schnittstelle zum Kommunizieren mit dem Fahrzeugsteuerungssystem bieten.
  • Die Kamera-Mast-Einheit 402 umfaßt eine Kamera 408, die oben an der Kamera-Mast-Einheit 402 befestigt ist, um als Sichtsensor zur Aufnahme von Bilddaten zu dienen und die Bilddaten an das Fahrzeugsteuerungssystem, wie zum Beispiel die RCUs 238, 244, 254 und 262 oder anderweitig unter Benutzung der Netzwerkschnittstelle weiterzuleiten. Die Bilddaten können von der RCU durch ein Radio an eine OCU 256, 250 oder andere Ferneinrichtungen gesandt werden. Die Kamera-Mast-Einheit 402 besitzt eine Höhe, die so ist, dass die Nutzer und Passagiere nicht mit der Kamerafähigkeit zur Aufnahme von Bilddaten der Umgebung des Fahrzeug in Konflikt geraten. In einigen Ausführungen kann die Kamera-Mast-Einheit 402 mehr als drei Fuß (1 Meter) hoch über der Schnittstelle mit dem Fahrzeug 400 angeordnet sein. In einigen Ausführungen kann die Kameraeinheit weniger als ein Fuß (30 cm) höher als die Höhe eines mittleren Passagiers sein, während er auf der Passagierfläche 406 sitzt.
  • Die Kamera-Mast-Einheit 402 kann auch eine Kammer 410 zum Aufnehmen von zusätzlicher Elektronik oder anderen Strukturen aufweisen, um die Kamera 408 oder andere Fahrzeugstrukturen mit zusätzlicher Funktionalität zu Versehen. Die Kammer 410 kann eine Schnittstelle umfassen, um es zusätzlichen Geräten zu erlauben, sich mit der Kamera-Mast-Einheit 402 zu verbinden und mit ihr zu kommunizieren. Die zusätzlichen Geräte können Videokarten, Kommunikationskomponenten, Verstärker, ein Kompaß, ein GPS-System und 2D und 3D Videoprozessoren sein.
  • Die Kamera-Mast-Einheit kann mit dem Fahrzeugsteuerungssystemnetzwerk zum Beispiel mit einem Schalter oder einem Router, der in dem Fahrzeugsteuernetzwerk enthalten ist, eine Schnittstelle bilden. Die Nutzlastschnittstellen in dem Fahrzeugkörper 404 können zum gleichen oder verschiedenen Schaltern oder Routern optional verbunden werden, um die Kamera 408 mit der Fähigkeit zur Kommunkation direkt mit den Nutzlasten, die in dem Fahrzeugbett 404 enthalten sind, zu versehen. Weiter kann die Kamera-Mast-Einheit 402 mit dem Steuerungssystemnetzwerk des Fahrzeuges durch eine Schnittstelle und nicht durch direkte Verbindung verbunden werden, so dass die Kamera-Mast-Einheit 402 leicht ersetzt werden kann.
  • 5a bis 5c zeigen ein Ausführungsbeispiel der Anordnung einer Kamera-Mast-Einheit 500. Die Kamera 502 ist in einem Kameragehäuse 504 installiert und kann abnehmbar mit einer Kamera-Mastbasis 506 verbunden werden. In einigen Ausführungen sind die Kamera 502 und das Kameragehäuse einstöckig als Struktur ausgebildet. Die Basis 506 kann eine Netzwerkschnittstelle umfassen, um es der Kamera 502 zu erlauben, mit einem Kamera-Mastnetzwerk in der Basis 508 zu kommunizieren. Antennen 508 sind mit dem Kameragehäuse 504 verbunden.
  • Die Antennen 508 übertragen und empfangen Radiosignale zwischen dem Fahrzeugsteuerungssystem und Steuereinheiten, wie zum Beispiel Fern-OCUs und/oder Armaturenbrett-OCUs.
  • Die Kamera-Mastbasis 508 umfaßt eine Kammer 510, um zusätzliche Komponenten und Geräte aufzunehmen. Die zusätzlichen Komponenten und Geräte können zur Ermöglichung der Funktionalität der Kamera 502 beitragen. In einigen Ausführungen können zusätzliche Komponenten und Geräte mit anderen Fahrzeugfunktionen, wie zum Beispiel zusätzlichen Daten, Bearbeitungsfähigkeiten und Unterstützung der Nutzlast in Verbindung stehen. Ein oder mehrere Schutzlinsen 512 können mit dem Kameragehäuse 504 verbunden werden, um Schaden von der Kamera 202 abzuwenden und/oder die Kamera 502 mit zusätzlichen Fokussierfähigkeiten zu versehen. In einigen Ausführungen kann die Kamera 502 mit der Kamerabasiseinheit 506 unter der Benutzung eines Schwenkinterfaces sich verbinden, so dass die Kamera 502 und das Kameragehäuse 504 dazu in der Lage sind, kontrollierbar relativ zur Kamerabasiseinheit 506 zu rotieren.
  • Anschauungsbeispiel
  • Das folgende ist ein Beispiel der Benutzung von Komponenten von einigen Ausführungen der vorliegenden Erfindung, um verschiedene Fahrzeugbetriebsfunktionen durchzuführen. Ein Fahrzeug kann vorgesehen werden, dass in manuellen, autonomen oder robotischen Steuermodi betrieben werden kann, und das Nutzlastschnittstellen in dem Fahrzeugkörper aufweist und eine Kamera-Mast-Einheit-Schnittstelle zwischen dem Fahrzeugkörper und dem Fahrer und dem Bediensitzen aufweist. Ein Fahrzeugführer kann das Fahrzeug inspizieren, um festzustellen, ob die Aufgabe des Transportierens von Personen in ein Gebiet, das bestimmte, gefährliche Chemikalien aufweist, und die Rückkehr an einen Startpunkt ohne diese Personen, es notwendig macht, dass Nutzlasten an das Fahrzeug angesetzt werden und an das Fahrzeugsteuernetzwerk durch Schnittstellen verbunden werden.
  • Das Transportieren von Personen in eine Gebiet, das gefährliche Chemikalien umfaßt, kann erfordern, dass eine chemische Erfassungs-Nutzlast und, wenigstens in einigen Fällen, offensive Geräte, wie zum Beispiel automatische und/oder ferngesteuerte Artillerie vorgesehen werden. Wenn keine Nutzlasten und/oder wenn es andere Nutzlasten neben dem benötigten für die bestimmte Aufgabe gibt, die an dem Fahrzeug angeordnet sind, kann der Fahrzeugführer schnell die Nutzlasten von den Nutzlastschnittstellen entfernen und die benötigten Nutzlasten an die Nutzlastschnittstellen anordnen. Wenn die Nutzlasten angeordnet sind, können sie mit einem Interface verbunden werden, das eine Vielzahl von Anschlüssen aufweist, die mit dem Fahrzeugsteuerungssystem-CAN und/oder Ethernet-Netzwerken mit einem RCU und/oder VCU kommunizieren. Schnittstellenpins können mit den Nutzlasten mit einer Stromquelle verbunden werden, wie zum Beispiel der Stromquelle des Fahrzeugs.
  • Eine Kamera-Mast-Einheit kann an die Nutzlastschnittstelle zwischen dem Fahrzeugkörper und der Fahrer-/Passagierkabine angesetzt werden. Die Kamera-Mast-Einheit kann vier Fuß über die Schnittstelle sich erheben, um es der Kamera zu ermöglichen, Bilder der Fahrzeugumgebung aufzunehmen. Die Kameraschnittstelle kann Stecker umfassen, die die Kamera-Mast-Einheit mit dem Fahrzeugsteuerungssystem und/oder einer Stromquelle verbinden. Die Kamera-Mast-Einheit kann auch Videoprozessorkarten aufweisen, die abnehmbar in der Kammer angeordnet sind. Wenn der Fahrer während der Inspektion feststellt, dass die Prozessorkarten für die jeweilige Aufgabe inadäquat und/oder beschädigt sind, kann der Fahrer schnell die Prozessorkarten entfernen und einen Ersatz installieren. Der Kameraprozessor kann Daten durch die Kamera-Mast-Einheit-Schnittstelle an das Fahrzeugsteuerungssystem senden. Das Fahrzeugsteuerungssystem kann die Kameradaten drahtlos an ein Fern-OCU, wie zum Beispiel einen Laptop, durch Senden der Daten zurück zur Kamera-Mast-Einheit an Antennen übertragen, die an der Kamera-Mast-Einheit befestigt sind. Bedienpersonal einer Fern-OCU kann die Kameradaten empfangen und Justierungen für die Steuerung des Fahrzeugs während jeder Stufe der Operation vornehmen.
  • Nachdem der Fahrer das Fahrzeug inspiziert hat und die geeigneten Nutzlasten und/oder Kamera-Mast-Einheit-Komponenten installiert hat, kann der Fahrer eine Armaturenbrett-OCU, die auf dem Armaturenbrett des Fahrzeuges angeordnet ist, nutzen und die manuellen Steuermodi schließen, um dem Fahrzeug den Befehl zu geben, in einem „teach und playback‟-Modus zu operieren, um zum Beispiel GPS-Wegpunkte aufzunehmen und Fahrzeugbewegungen während eines ersten Abschnittes der Fahrt. Ein Fernbedienpersonal kann die Fahrzeug- und Modusdaten von dem Fahrzeug über ein drahtloses Netzwerk empfangen und die Daten an einen Fernbediener übertragen. Der Fernbediener kann zusammen mit dem Nutzer der Armaturenbrett-OCU oder anderweitig Steuerkommandos an das Fahrzeugsteuerungssystem übertragen. Die Armaturenbrett-OCU kommuniziert mit dem Fahrzeugsteuerungssystem, indem sie Kommandos, die von dem Nutzer an ein RCU und/oder ein VCU über das Fahrzeugsteuerungssystem gegeben werden, sendet. Der RCU und/oder VCU kann Daten, wie zum Beispiel eine Statusinformation an die Armaturenbrett-OCU, zur Anzeige durch den Nutzer senden. Die RCU und/oder VCU nutzt ein virtuelles Terminalprotokoll, um CAN-Daten an eine Armaturenbrett-OCU zu senden, die über ein Ethernet-Netzwerk durch Verkapseln von Gruppen von CAN-Datenbytes in Ethernet-Pakete, genutzt werden und die Ethernet-Pakete über ein Ethernet-Netzwerk rücksenden. Die Armaturenbrett-OCU empfängt die Ethernet-Pakete und kann die CAN-Daten von den Ethernet-Paketen trennen und die Daten dem Nutzer anzeigen.
  • Der Fahrer innerhalb des Fahrzeuges und/oder die Person, die eine Fern-OCU bedient, können das Fahrzeug im manuellen oder autonomen Modus durch, zum Beispiel, Eingabe der entsprechenden Kommandos in die Armaturenbrett-OCU oder Fern-OCU, steuern. Wenn der Fahrer an seinem vorgegebenen Ziel ankommt, gibt der Fahrer ein Kommando in die Armaturenbrett-OCU, damit das Fahrzeug die GPS-Wegpunkte wieder abspielt und zu seiner Startposition zurückkehrt, indem es den aufgezeichneten GPS-Wegpunkten vom letzten zum ersten folgt. Die Armaturenbrett OCU kommuniziert Kommandos an das Fahrzeugsteuerungssystem, die die verschiedenen Fahrzeugkomponenten steuern, um es zurück zu seiner Startposition zu bringen.
  • Die vorangehende Beschreibung der Ausführungen, inklusive der bevorzugten Ausführungen der Erfindung, ist nur zum Zwecke der Illustration gegeben, und die Beschreibung ist nicht dazu geeignet, eine abschließende Liste zu geben oder die Erfindung auf die dargestellte Ausführungsform zu begrenzen. Verschiedene Modifikationen und Änderungen können dem Fachmann offenbar sein ohne vom geistigen Schutzumfang der Erfindung abzuweichen.

Claims (31)

  1. System umfassend: ein Fahrzeugsteuerungssystem zum Steuern eines autonomen Fahrzeugs, Aufnehmen von Daten und Übermitteln eines Steuersignals an wenigstens ein Netzwerk; einen abnehmbar sich mit dem autonomen Fahrzeug verbindenden Nutzlastadapter, wobei die Nutzlast eine Netzwerkschnittstelle umfasst, die dazu eingerichtet ist, Steuersignale von dem Fahrzeugsteuerungssystem über das wenigstens eine Netzwerk zu erhalten, und wobei das Fahrzeugsteuerungssystem die Nutzlastdaten verkapselt und die Nutzlastdaten über das wenigstens eine Netzwerk überträgt; wobei das Fahrzeug mit Nutzlastbuchten versehen ist, die eine oder mehrere Nutzlastschnittstellen sowie einen Stromanschluss umfassen, um Zugriff auf austauschbare Nutzlasten und ein Stromsystem des Fahrzeugs zu erlauben.
  2. System nach Anspruch 1, dadurch gekennzeichnet, dass die Netzwerkschnittstelle wenigstens eines der folgenden Ethernet-Anschluss, CAN-Anschluss oder RS232-Anschluss umfasst.
  3. System nach Anspruch 1, dadurch gekennzeichnet, dass das wenigstens eine Netzwerk ein CAN(Controller Area Network)- und ein Ethernet-Netzwerk umfasst.
  4. System nach Anspruch 3, dadurch gekennzeichnet, dass die Nutzlastdaten CAN-Daten sind, die die Fahrzeugsteuerung in Ethernetpakete zur Verkapselung der Nutzlastdaten übersetzt.
  5. System nach Anspruch 1, weiter umfassend eine Bedienersteuereinheit, die dazu eingerichtet ist, die Nutzlastdaten durch das wenigstens eine Netzwerk zu erhalten.
  6. System nach Anspruch 5, dadurch gekennzeichnet, dass das wenigstens eine Netzwerk eine drahtlose Verbindung umfasst.
  7. System nach Anspruch 1, dadurch gekennzeichnet, dass die Nutzlast dazu eingerichtet ist, mit einer Stromquelle an dem autonomen Fahrzeug verbunden zu werden.
  8. System nach Anspruch 7, dadurch gekennzeichnet, dass die Nutzlast sich mit der Stromquelle durch wenigstens ein Element der Gruppe Stecker, Verbinder, Adapter, Koppler und Befestiger verbindet.
  9. System nach Anspruch 1, dadurch gekennzeichnet, dass die Nutzlast abnehmbar mit einem Kofferraum oder dem Kofferraumboden eines autonomen Fahrzeugs verbunden ist.
  10. System nach Anspruch 1, dadurch gekennzeichnet, dass die Nutzlast wenigstens eines aus der Gruppe Mast, einem chemischen Erfassungssystem, einem Laserscanner, einer Kamera, einem Radio oder einer GPS Einheit (Global Positioning System Unit) umfasst.
  11. System umfassend: ein Fahrzeugsteuerungssystem für ein autonomes Fahrzeug, das dazu eingerichtet ist: ein virtuelles Terminalprotokoll zu benutzen, um CAN(Controller Area Network)-Daten in wenigstens einem Ethernetpaket zu verkapseln; und das wenigstens eine Ethernetpaket über ein Ethernet-Netzwerk zu übertragen; ein robotisches Steuerungssystem, das Vielzweck-Robotersteuereinheiten umfasst, welche miteinander verbunden sind und miteinander und mit anderen Steuerungssystemen und Fahrzeugkomponenten über einen CAN-Bus und ein Ethernet-Netzwerk kommunizieren; und eine Bedienersteuereinheit, die dazu eingerichtet ist, wenigstens ein Ethernetpaket aus dem Ethernet-Netzwerk zu empfangen und die CAN-Daten anzuzeigen.
  12. System nach Anspruch 11, dadurch gekennzeichnet, dass die Bedienersteuereinheit wenigstens eines einer Armaturenbrett-Benutzersteuereinheit oder einer Fernsteuereinheit für den Benutzer ist.
  13. System nach Anspruch 11, weiter umfassend eine Nutzlast mit einer Netzwerkschnittstelle um Daten von wenigstens einem dem Fahrzeugsteuerungssystem oder der Benutzersteuereinheit zu übertragen und zu empfangen.
  14. System nach Anspruch 13, dadurch gekennzeichnet, dass die Netzwerkschnittstelle wenigstens eines von einem Ethernetanschluss, einem CAN-Anschluss oder einem RS232 Anschluss umfasst.
  15. System nach Anspruch 13, dadurch gekennzeichnet, dass die Nutzlast wenigstens eine aus der Gruppe Mast, einem chemischen Erfassungssystem, einem Laserscanner, einer Kamera, einem Radio oder einer GPS Einheit umfasst.
  16. System umfassend: ein Fahrzeugsteuerungssystem auf einem autonomen Fahrzeug in Kommunikation mit einer Fernbedienungssteuereinheit, die dazu eingerichtet ist, das autonome Fahrzeug zu steuern; eine Armaturenbrettbedienersteuereinheit in Kommunikation mit dem Fahrzeugsteuerungssystem und dazu eingerichtet, die lokalen Funktionen des autonomen Fahrzeugs zu steuern; und eine Nutzlast, die abnehmbar an dem autonomen Fahrzeug angekoppelt ist und in Kommunikation mit wenigstens einer aus der Gruppe Fahrzeugsteuerungssystem, Fernbediensteuereinheit oder Armaturenbrettbenutzersteuereinheit steht, wobei das Fahrzeug mit Nutzlastbuchten versehen ist, die eine oder mehrere Nutzlastschnittstellen sowie einen Stromanschluss umfassen, um Zugriff auf austauschbare Nutzlasten und auf ein Stromsystem des Fahrzeugs zu erlauben.
  17. System nach Anspruch 16, dadurch gekennzeichnet, dass die Nutzlast eine GPS-Einheit ist und die Armaturenbrettbenutzersteuereinheit dazu eingerichtet ist, die GPS-Einheit dazu zu veranlassen, GPS-Wegpunkte aufzuzeichnen.
  18. System nach Anspruch 17, dadurch gekennzeichnet, dass die Armaturenbrettbenutzersteuereinheit eingerichtet ist, die GPS-Einheit dazu zu veranlassen, die aufgezeichneten Wegpunkte abzuspielen, und das autonome Fahrzeug zu veranlassen, zu einem aufgezeichneten Wegpunkt zurückzukehren.
  19. System nach Anspruch 16, dadurch gekennzeichnet, dass die Nutzlast eine Kameraeinheit ist und die Armaturenbrettbenutzersteuereinheit dazu eingerichtet ist, die Kameraeinheit dazu zu veranlassen, ein ausgewähltes Objekt anzuvisieren.
  20. System nach Anspruch 19, dadurch gekennzeichnet, dass das Fahrzeugsteuerungssystem das autonome Fahrzeug veranlasst, einer Trajektorie zu dem ausgewählten Objekt zu folgen.
  21. System nach Anspruch 16, dadurch gekennzeichnet, dass das Fahrzeugsteuerungssystem die Route einer Fahrt zum Ziel aufzeichnet und das autonome Fahrzeug dazu veranlasst, der gleichen Route auf einer Rückfahrt zu folgen.
  22. System umfassend: ein Fahrzeugsteuerungssystem zum Steuern eines autonomen Fahrzeugs, Aufnehmen von Daten und Übermitteln eines Steuersignals an wenigstens ein Netzwerk; und einen Mast, der abnehmbar mit einem autonomen Fahrzeug verbunden ist, wobei der Mast umfasst: eine Netzwerkschnittstelle, die dazu eingerichtet ist, mit der Fahrzeugsteuereinheit über wenigstens ein Netzwerk zu kommunizieren, eine Kameraeinheit, die dazu eingerichtet ist, visuelle Bilder zu erfassen und die Bilder an das Fahrzeugsteuerungssystem unter Benutzung der Netzwerkschnittstelle zu übertragen; und eine Kammer zur Aufnahme einer Hilfseinrichtung.
  23. System nach Anspruch 22, dadurch gekennzeichnet, dass die Hilfseinrichtung wenigstens eines folgenden umfasst: chemisches Erfassungssystem, Laserscanner, Radio oder GPS-Einheit.
  24. System nach Anspruch 22, dadurch gekennzeichnet, dass die Netzwerkschnittstelle wenigstens eines der folgenden umfasst: Ethernetanschluss, einen CAN-Anschluss oder einen RS232-Anschluss.
  25. System nach Anspruch 21, dadurch gekennzeichnet, dass das wenigstens eine Netzwerk ein CAN(Controller Area Network)- und ein Ethernet-Netzwerk umfasst.
  26. System nach Anspruch 22, weiter umfassend wenigstens eine Fernbediensteuereinheit oder eine Armaturenbrettbenutzersteuereinheit, die dazu eingerichtet ist, Daten von der Fahrzeugsteuereinheit oder dem Mast zu empfangen und anzuzeigen.
  27. System umfassend: ein Fahrzeugsteuerungssystem zum Steuern eines autonomen Fahrzeugs, wobei das Fahrzeugsteuerungssystem dazu eingerichtet ist, ein virtuelles Terminalprotokoll zu nutzen, um CAN(Controller Area Network)-Daten in wenigstens einem Ethernetpaket zu verkapseln und das wenigstens eine Ethernetpaket über ein Ethernet-Netzwerk zu übertragen, ein robotisches Steuerungssystem, das Vielzweck-Robotersteuereinheiten umfasst, welche miteinander verbunden sind und miteinander und mit anderen Steuerungssystemen und Fahrzeugkomponenten über einen CAN-Bus und ein Ethernet-Netzwerk kommunizieren; und eine Nutzersteuereinheit zum Übertragen eines Steuersignals, das mit wenigstens einer lokalen Steuerfunktion des autonomen Fahrzeugs in Bezug steht, an das Fahrzeugsteuerungssystem, Empfangen der Ethernetpakete und Anzeigen der CAN-Daten.
  28. System nach Anspruch 27, weiter umfassend eine Nutzlast, die dazu eingerichtet ist, abnehmbar mit dem autonomen Fahrzeug verbunden zu werden, wobei die Nutzlast eine Netzwerkschnittstelle umfasst, die dazu eingerichtet ist, Daten zu übertragen und Steuersignale von der Fahrzeugsteuereinheit über wenigstens ein Netzwerk zu empfangen.
  29. System nach Anspruch 28, dadurch gekennzeichnet, dass die Nutzlast als wenigstens eines folgenden ausgeführt ist: eine Kamera aufweisenden Mast, ein chemischen Erfassungssystems, einen Laserscanners, ein Radio oder eine GPS Einheit.
  30. System nach Anspruch 28, dadurch gekennzeichnet, dass die Netzwerkschnittstelle wenigstens eines von einem Ethernetanschluss, einem CAN-Anschluss oder einem RS232-Anschluss umfasst.
  31. System nach Anspruch 27, dadurch gekennzeichnet, dass die Nutzersteuereinheit wenigstens eines einer Armaturenbrett-Benutzersteuereinheit oder einer Fembedienungsnutzersteuereinheit umfasst.
DE112006002894.4T 2005-10-21 2006-10-20 Vernetztes Vielzweck-Roboterfahrzeug Active DE112006002894B4 (de)

Applications Claiming Priority (9)

Application Number Priority Date Filing Date Title
US72938805P 2005-10-21 2005-10-21
US72944505P 2005-10-21 2005-10-21
US60/729,388 2005-10-21
US60/729,445 2005-10-21
US78038906P 2006-03-08 2006-03-08
US60/780,389 2006-03-08
US83870406P 2006-08-18 2006-08-18
US60/838,704 2006-08-18
PCT/US2006/040800 WO2007050406A1 (en) 2005-10-21 2006-10-20 Networked multi-role robotic vehicle

Publications (2)

Publication Number Publication Date
DE112006002894T5 DE112006002894T5 (de) 2008-09-18
DE112006002894B4 true DE112006002894B4 (de) 2021-11-11

Family

ID=37735001

Family Applications (4)

Application Number Title Priority Date Filing Date
DE112006002892.8T Active DE112006002892B4 (de) 2005-10-21 2006-10-20 Systeme und Verfahren zum Umschalten zwischen autonomer und manueller Bedienung eines Fahrzeugs
DE112006003044T Pending DE112006003044T5 (de) 2005-10-21 2006-10-20 Vielseitiges Robotersteuermodul
DE112006002894.4T Active DE112006002894B4 (de) 2005-10-21 2006-10-20 Vernetztes Vielzweck-Roboterfahrzeug
DE112006003007.8T Active DE112006003007B4 (de) 2005-10-21 2006-10-20 Systeme und Verfahren zum Vermeiden von Hindernissen

Family Applications Before (2)

Application Number Title Priority Date Filing Date
DE112006002892.8T Active DE112006002892B4 (de) 2005-10-21 2006-10-20 Systeme und Verfahren zum Umschalten zwischen autonomer und manueller Bedienung eines Fahrzeugs
DE112006003044T Pending DE112006003044T5 (de) 2005-10-21 2006-10-20 Vielseitiges Robotersteuermodul

Family Applications After (1)

Application Number Title Priority Date Filing Date
DE112006003007.8T Active DE112006003007B4 (de) 2005-10-21 2006-10-20 Systeme und Verfahren zum Vermeiden von Hindernissen

Country Status (6)

Country Link
US (8) US8473140B2 (de)
AU (4) AU2006306523B2 (de)
DE (4) DE112006002892B4 (de)
GB (1) GB2445507B (de)
IL (1) IL191001A (de)
WO (4) WO2007050407A1 (de)

Families Citing this family (790)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7510038B2 (en) * 2003-06-11 2009-03-31 Delphi Technologies, Inc. Steering system with lane keeping integration
DE102005008714A1 (de) * 2005-02-25 2006-09-07 Robert Bosch Gmbh Verfahren und System zur Bereitstellung von Sensor-Daten
FR2891600B1 (fr) * 2005-10-05 2009-03-27 Bosch Gmbh Robert Procede de reglage d'un frein de stationnemnt automatique.
DE112006002892B4 (de) * 2005-10-21 2022-01-27 Deere & Company Systeme und Verfahren zum Umschalten zwischen autonomer und manueller Bedienung eines Fahrzeugs
US10331136B2 (en) 2006-02-27 2019-06-25 Perrone Robotics, Inc. General purpose robotics operating system with unmanned and autonomous vehicle extensions
US8050863B2 (en) 2006-03-16 2011-11-01 Gray & Company, Inc. Navigation and control system for autonomous vehicles
US7703020B2 (en) * 2006-03-31 2010-04-20 General Electric Company Medical diagnostic system interface
US8326469B2 (en) * 2006-07-14 2012-12-04 Irobot Corporation Autonomous behaviors for a remote vehicle
US8108092B2 (en) 2006-07-14 2012-01-31 Irobot Corporation Autonomous behaviors for a remote vehicle
DE102006031580A1 (de) 2006-07-03 2008-01-17 Faro Technologies, Inc., Lake Mary Verfahren und Vorrichtung zum dreidimensionalen Erfassen eines Raumbereichs
US7801644B2 (en) 2006-07-05 2010-09-21 Battelle Energy Alliance, Llc Generic robot architecture
US8271132B2 (en) * 2008-03-13 2012-09-18 Battelle Energy Alliance, Llc System and method for seamless task-directed autonomy for robots
US8355818B2 (en) * 2009-09-03 2013-01-15 Battelle Energy Alliance, Llc Robots, systems, and methods for hazard evaluation and visualization
US8965578B2 (en) 2006-07-05 2015-02-24 Battelle Energy Alliance, Llc Real time explosive hazard information sensing, processing, and communication for autonomous operation
US7974738B2 (en) 2006-07-05 2011-07-05 Battelle Energy Alliance, Llc Robotics virtual rail system and method
US8073564B2 (en) * 2006-07-05 2011-12-06 Battelle Energy Alliance, Llc Multi-robot control interface
US8843244B2 (en) 2006-10-06 2014-09-23 Irobot Corporation Autonomous behaviors for a remove vehicle
US9404749B2 (en) * 2006-08-23 2016-08-02 Leica Geosystems Ag Control unit for off-road vehicles including housing configured to fit within pre-existing cavity of off-road-vehicle cab
US8983680B2 (en) * 2006-08-24 2015-03-17 Kairos Autonmi, Inc. Unmanned vehicle retrofitting system
US8051936B1 (en) * 2006-08-30 2011-11-08 The United States Of America As Represented By The Secretary Of The Navy Human-portable remote control driving system
US7600593B2 (en) * 2007-01-05 2009-10-13 Irobot Corporation Robotic vehicle with dynamic range actuators
EP2070076A4 (de) * 2006-10-06 2012-11-21 Irobot Corp Autonomes verhalten für ein fernsteuerfahrzeug
EP2113097A2 (de) * 2006-12-11 2009-11-04 BAE Systems PLC Steuerung eines autonomen fahrzeugsystems
USRE48527E1 (en) 2007-01-05 2021-04-20 Agjunction Llc Optical tracking vehicle control system and method
US7835832B2 (en) * 2007-01-05 2010-11-16 Hemisphere Gps Llc Vehicle control system
US8768558B2 (en) 2007-01-05 2014-07-01 Agjunction Llc Optical tracking vehicle control system and method
EP1967931A3 (de) * 2007-03-06 2013-10-30 Yamaha Hatsudoki Kabushiki Kaisha Fahrzeug
US9932033B2 (en) 2007-05-10 2018-04-03 Allstate Insurance Company Route risk mitigation
US10157422B2 (en) 2007-05-10 2018-12-18 Allstate Insurance Company Road segment safety rating
US8606512B1 (en) 2007-05-10 2013-12-10 Allstate Insurance Company Route risk mitigation
US10096038B2 (en) 2007-05-10 2018-10-09 Allstate Insurance Company Road segment safety rating system
WO2008144135A1 (en) * 2007-05-14 2008-11-27 Irobot Corporation Autonomous behaviors for a remote vehicle
US8255092B2 (en) 2007-05-14 2012-08-28 Irobot Corporation Autonomous behaviors for a remote vehicle
US8918245B2 (en) * 2007-06-05 2014-12-23 Snap-On Incorporated Methods and systems for providing open access to vehicle data
DE202007008557U1 (de) * 2007-06-19 2008-10-30 Liebherr-Werk Bischofshofen Ges.M.B.H. System zum automatischen Bewegen von Material
DE102007043534A1 (de) * 2007-09-12 2009-03-19 Robert Bosch Gmbh Anordnung zum Erfassen einer Umgebung
WO2009038772A2 (en) 2007-09-20 2009-03-26 Evolution Robotics Transferable intelligent control device
US20090088916A1 (en) * 2007-09-28 2009-04-02 Honeywell International Inc. Method and system for automatic path planning and obstacle/collision avoidance of autonomous vehicles
US7979174B2 (en) * 2007-09-28 2011-07-12 Honeywell International Inc. Automatic planning and regulation of the speed of autonomous vehicles
FR2926051B1 (fr) * 2008-01-03 2010-05-21 Rise Ba Dispositif modulaire de pilotage pour un chariot automoteur
US8078399B2 (en) * 2008-03-10 2011-12-13 Honeywell International Inc. Method and device for three-dimensional path planning to avoid obstacles using multiple planes
US8175848B2 (en) * 2008-03-21 2012-05-08 Rochester Institute Of Technology Data processing systems and methods
US20090259399A1 (en) * 2008-04-15 2009-10-15 Caterpillar Inc. Obstacle detection method and system
US8374743B2 (en) 2008-05-16 2013-02-12 GM Global Technology Operations LLC Method and apparatus for driver control of a limited-ability autonomous vehicle
DE102008027282A1 (de) * 2008-06-06 2009-12-10 Claas Industrietechnik Gmbh Landwirtschaftliches Fahrzeug und Betriebsverfahren dafür
US8326954B2 (en) * 2008-07-23 2012-12-04 Caterpillar Inc. System and method for synchronizing configurations in a controller network
US20100023185A1 (en) * 2008-07-28 2010-01-28 Torc Technologies, Llc Devices and methods for waypoint target generation and mission spooling for mobile ground robots
US8224500B2 (en) * 2008-09-11 2012-07-17 Deere & Company Distributed knowledge base program for vehicular localization and work-site management
US9235214B2 (en) * 2008-09-11 2016-01-12 Deere & Company Distributed knowledge base method for vehicular localization and work-site management
US8392065B2 (en) * 2008-09-11 2013-03-05 Deere & Company Leader-follower semi-autonomous vehicle with operator on side
US8195342B2 (en) * 2008-09-11 2012-06-05 Deere & Company Distributed knowledge base for vehicular localization and work-site management
US8229618B2 (en) * 2008-09-11 2012-07-24 Deere & Company Leader-follower fully autonomous vehicle with operator on side
US8478493B2 (en) * 2008-09-11 2013-07-02 Deere & Company High integrity perception program
US8195358B2 (en) 2008-09-11 2012-06-05 Deere & Company Multi-vehicle high integrity perception
US9026315B2 (en) 2010-10-13 2015-05-05 Deere & Company Apparatus for machine coordination which maintains line-of-site contact
US8989972B2 (en) 2008-09-11 2015-03-24 Deere & Company Leader-follower fully-autonomous vehicle with operator on side
US20100063652A1 (en) * 2008-09-11 2010-03-11 Noel Wayne Anderson Garment for Use Near Autonomous Machines
US8818567B2 (en) * 2008-09-11 2014-08-26 Deere & Company High integrity perception for machine localization and safeguarding
US9188980B2 (en) * 2008-09-11 2015-11-17 Deere & Company Vehicle with high integrity perception system
US8121749B1 (en) 2008-09-25 2012-02-21 Honeywell International Inc. System for integrating dynamically observed and static information for route planning in a graph based planner
US8437901B2 (en) * 2008-10-15 2013-05-07 Deere & Company High integrity coordination for multiple off-road vehicles
US8639408B2 (en) * 2008-10-15 2014-01-28 Deere & Company High integrity coordination system for multiple off-road vehicles
US8930058B1 (en) * 2008-10-20 2015-01-06 The United States Of America As Represented By The Secretary Of The Navy System and method for controlling a vehicle traveling along a path
US8126642B2 (en) * 2008-10-24 2012-02-28 Gray & Company, Inc. Control and systems for autonomously driven vehicles
US20100155156A1 (en) * 2008-11-04 2010-06-24 Robotic Technology Inc. Energetically autonomous tactical robot and associated methodology of operation
US8237389B2 (en) * 2008-11-12 2012-08-07 Irobot Corporation Multi mode safety control module
US8170770B2 (en) * 2008-11-18 2012-05-01 Bendix Commercial Vehicle Systems Llc Adaptive cruise control braking with deceleration monitoring
DE102008064896B3 (de) 2008-12-23 2018-08-30 Ipetronik Gmbh & Co. Kg Messanordnung
DE102008062994B4 (de) * 2008-12-23 2017-12-28 Ipetronik Gmbh & Co. Kg Messanordnung
US8386090B1 (en) 2009-02-13 2013-02-26 Brinly-Hardy Company System and method for wireless remote operation of an accessory associated with a vehicle
DE102009010465B3 (de) * 2009-02-13 2010-05-27 Faro Technologies, Inc., Lake Mary Laserscanner
US8295998B2 (en) * 2009-05-11 2012-10-23 General Electric Company System, method, and computer software code for distributing and managing data for use by a plurality of subsystems on a locomotive
US20100217462A1 (en) * 2009-02-23 2010-08-26 Glenn Robert Shaffer Operating system and method for controlling a powered vehicle
KR101540797B1 (ko) * 2009-03-12 2015-07-30 삼성전자 주식회사 무선 통신 기기의 연결 방법 및 이를 이용한 무선 통신 기기
US9551575B2 (en) 2009-03-25 2017-01-24 Faro Technologies, Inc. Laser scanner having a multi-color light source and real-time color receiver
DE102009015920B4 (de) 2009-03-25 2014-11-20 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US9164508B1 (en) 2009-04-16 2015-10-20 Kairos Autonomi Unmanned vehicle retrofitting system
US20100286845A1 (en) * 2009-05-11 2010-11-11 Andrew Karl Wilhelm Rekow Fail-safe system for autonomous vehicle
US8564657B2 (en) * 2009-05-29 2013-10-22 Honda Research Institute Europe Gmbh Object motion detection system based on combining 3D warping techniques and a proper object motion detection
DE102009035337A1 (de) 2009-07-22 2011-01-27 Faro Technologies, Inc., Lake Mary Verfahren zum optischen Abtasten und Vermessen eines Objekts
CA2712576C (en) * 2009-08-11 2012-04-10 Certusview Technologies, Llc Systems and methods for complex event processing of vehicle-related information
US8396597B2 (en) * 2009-08-18 2013-03-12 Deere & Company Distributed robotic guidance
US20110046784A1 (en) * 2009-08-18 2011-02-24 Noel Wayne Anderson Asymmetric stereo vision system
US20110046836A1 (en) * 2009-08-18 2011-02-24 Noel Wayne Anderson Modular and scalable positioning and navigation system
EP2287694B1 (de) * 2009-08-18 2013-04-24 Deere & Company Verteilte optische Steuerung eines fahrbaren Roboters
US9272724B2 (en) * 2009-09-08 2016-03-01 Golomb Mercantile Company Llc Integrated vehicle control system and apparatus
US8160728B2 (en) * 2009-09-14 2012-04-17 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Methods of determining complete sensor requirements for autonomous mobility
US8369992B2 (en) 2009-09-22 2013-02-05 GM Global Technology Operations LLC Embedded diagnostic, prognostic, and health management system and method for a humanoid robot
US8260460B2 (en) 2009-09-22 2012-09-04 GM Global Technology Operations LLC Interactive robot control system and method of use
DE102009048954A1 (de) 2009-10-10 2011-04-14 Daimler Ag Verfahren und Vorrichtung zum automatischen Betreiben eines Fahrzeugs in einem keine Nutzeraktion erfordernden autonomen Fahrbetrieb
US9529083B2 (en) 2009-11-20 2016-12-27 Faro Technologies, Inc. Three-dimensional scanner with enhanced spectroscopic energy detector
US9210288B2 (en) 2009-11-20 2015-12-08 Faro Technologies, Inc. Three-dimensional scanner with dichroic beam splitters to capture a variety of signals
US9113023B2 (en) 2009-11-20 2015-08-18 Faro Technologies, Inc. Three-dimensional scanner with spectroscopic energy detector
DE102009057101A1 (de) 2009-11-20 2011-05-26 Faro Technologies, Inc., Lake Mary Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102009055989B4 (de) 2009-11-20 2017-02-16 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102009055988B3 (de) 2009-11-20 2011-03-17 Faro Technologies, Inc., Lake Mary Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
KR101155565B1 (ko) * 2009-11-27 2012-06-19 한국전자통신연구원 네트워크를 이용한 차량 제어 방법 및 시스템
AT509438A1 (de) * 2010-01-18 2011-08-15 Zeno Track Gmbh Verfahren und system zum erfassen der position eines fahrzeuges in einem definierten bereich
US9879976B2 (en) 2010-01-20 2018-01-30 Faro Technologies, Inc. Articulated arm coordinate measurement machine that uses a 2D camera to determine 3D coordinates of smoothly continuous edge features
US9607239B2 (en) 2010-01-20 2017-03-28 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
JP2013517502A (ja) 2010-01-20 2013-05-16 ファロ テクノロジーズ インコーポレーテッド 複数の通信チャネルを有する可搬型の関節アーム座標測定機
US9163922B2 (en) 2010-01-20 2015-10-20 Faro Technologies, Inc. Coordinate measurement machine with distance meter and camera to determine dimensions within camera images
US9628775B2 (en) 2010-01-20 2017-04-18 Faro Technologies, Inc. Articulated arm coordinate measurement machine having a 2D camera and method of obtaining 3D representations
DE102010001922A1 (de) * 2010-02-15 2011-08-18 Robert Bosch GmbH, 70469 Verfahren und Vorrichtung zum Parken eines Kraftfahrzeugs
DE102010002020A1 (de) * 2010-02-17 2011-08-18 Deere & Company, Ill. Vorrichtung zur Steuerung einer Parksperre für ein Kraftfahrzeug
US8508590B2 (en) * 2010-03-02 2013-08-13 Crown Equipment Limited Method and apparatus for simulating a physical environment to facilitate vehicle operation and task completion
US8538577B2 (en) * 2010-03-05 2013-09-17 Crown Equipment Limited Method and apparatus for sensing object load engagement, transportation and disengagement by automated vehicles
AU2011222509C1 (en) * 2010-03-05 2015-05-28 Infrared5, Inc. System and method for two way communication and controlling content in a web browser
US8260482B1 (en) 2010-04-28 2012-09-04 Google Inc. User interface for displaying internal state of autonomous driving system
US8346426B1 (en) 2010-04-28 2013-01-01 Google Inc. User interface for displaying internal state of autonomous driving system
US8849518B2 (en) * 2010-05-07 2014-09-30 Ford Global Technologies, Llc Method and system for automatic wheel positioning
DE102010020925B4 (de) 2010-05-10 2014-02-27 Faro Technologies, Inc. Verfahren zum optischen Abtasten und Vermessen einer Umgebung
CA2740329C (en) 2010-05-13 2017-06-13 Hubert Roberge Transmission control system and method thereof
JP5503419B2 (ja) * 2010-06-03 2014-05-28 株式会社日立製作所 無人搬送車および走行制御方法
US9304513B2 (en) * 2010-06-16 2016-04-05 Toyota Jidosha Kabushiki Kaisha Driving assistance device
DE102010032725B4 (de) 2010-07-26 2012-04-26 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102010032726B3 (de) 2010-07-26 2011-11-24 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102010032723B3 (de) 2010-07-26 2011-11-24 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102010033561B3 (de) 2010-07-29 2011-12-15 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US8509982B2 (en) 2010-10-05 2013-08-13 Google Inc. Zone driving
US8924067B2 (en) * 2010-10-12 2014-12-30 Caterpillar Inc. Autonomous machine control system
US20120089291A1 (en) * 2010-10-12 2012-04-12 Halder Bibhrajit Autonomous machine control system
US20120109447A1 (en) 2010-11-03 2012-05-03 Broadcom Corporation Vehicle black box
DE102010050790A1 (de) * 2010-11-10 2012-05-10 Claas Selbstfahrende Erntemaschinen Gmbh Verfahren zur Lokalisierung eines landwirtschaftlichen Arbeitsgerätes
DE102010060505A1 (de) * 2010-11-11 2012-05-16 Gottwald Port Technology Gmbh Containertransportfahrzeug
US9168654B2 (en) 2010-11-16 2015-10-27 Faro Technologies, Inc. Coordinate measuring machines with dual layer arm
US8620489B2 (en) * 2010-12-24 2013-12-31 Microsoft Corporation Robotic drive system modularity
US8863256B1 (en) 2011-01-14 2014-10-14 Cisco Technology, Inc. System and method for enabling secure transactions using flexible identity management in a vehicular environment
KR101809973B1 (ko) * 2011-01-24 2017-12-19 삼성전자주식회사 로봇 제어 시스템 및 로봇 제어 방법
WO2012106375A1 (en) * 2011-01-31 2012-08-09 Robotex Inc. Robotic arm system
US8791911B2 (en) 2011-02-09 2014-07-29 Robotzone, Llc Multichannel controller
MX357760B (es) 2011-02-25 2018-07-24 Vnomics Corp Sistema y método para entrenamiento de un operador a bordo del vehículo.
US20120233102A1 (en) * 2011-03-11 2012-09-13 Toyota Motor Engin. & Manufact. N.A.(TEMA) Apparatus and algorithmic process for an adaptive navigation policy in partially observable environments
US9237534B2 (en) * 2011-03-25 2016-01-12 General Motors Llc Mobile application DRx synchronization with embedded vehicle hardware
JP5853205B2 (ja) * 2011-03-29 2016-02-09 パナソニックIpマネジメント株式会社 車両制御装置
FR2973963B1 (fr) * 2011-04-08 2013-04-12 Valeo Sys Controle Moteur Sas Dispositif de transfert de charge et procede de gestion associe
US9188982B2 (en) 2011-04-11 2015-11-17 Crown Equipment Limited Method and apparatus for efficient scheduling for multiple automated non-holonomic vehicles using a coordinated path planner
DE102011007914A1 (de) * 2011-04-21 2012-10-25 Deere & Company Datenkommunikationsschnittstelle für ein landwirtschaftliches Nutzfahrzeug
US9581997B1 (en) * 2011-04-22 2017-02-28 Angel A. Penilla Method and system for cloud-based communication for automatic driverless movement
US8078349B1 (en) * 2011-05-11 2011-12-13 Google Inc. Transitioning a mixed-mode vehicle to autonomous mode
US8655588B2 (en) 2011-05-26 2014-02-18 Crown Equipment Limited Method and apparatus for providing accurate localization for an industrial vehicle
US8738198B2 (en) * 2011-05-26 2014-05-27 Foster-Miller, Inc. Robot surveillance system and method
US8548671B2 (en) 2011-06-06 2013-10-01 Crown Equipment Limited Method and apparatus for automatically calibrating vehicle parameters
US9390617B2 (en) * 2011-06-10 2016-07-12 Robotzone, Llc Camera motion control system with variable autonomy
US8589012B2 (en) 2011-06-14 2013-11-19 Crown Equipment Limited Method and apparatus for facilitating map data processing for industrial vehicle navigation
US8594923B2 (en) 2011-06-14 2013-11-26 Crown Equipment Limited Method and apparatus for sharing map data associated with automated industrial vehicles
US8994521B2 (en) * 2011-06-29 2015-03-31 GM Global Technology Operations LLC Steering wheels for vehicle control in manual and autonomous driving
EP2737375B1 (de) * 2011-07-27 2016-11-16 ABB Schweiz AG System zur befehlssteuerung eines roboters
JP5892360B2 (ja) * 2011-08-02 2016-03-23 ソニー株式会社 ロボット指示装置、ロボット指示方法、プログラム、及び通信システム
US20140058634A1 (en) 2012-08-24 2014-02-27 Crown Equipment Limited Method and apparatus for using unique landmarks to locate industrial vehicles at start-up
CN108415412A (zh) 2011-08-29 2018-08-17 克朗设备公司 车辆导航控制接口
CA2845834C (en) 2011-08-29 2019-04-23 Crown Equipment Corporation Forklift navigation system
CA2845826C (en) 2011-08-29 2018-03-13 Crown Equipment Corporation Multimode vehicular navigation control
US9056754B2 (en) 2011-09-07 2015-06-16 Crown Equipment Limited Method and apparatus for using pre-positioned objects to localize an industrial vehicle
US20140371990A1 (en) * 2011-09-12 2014-12-18 Continental Teves Ag & Co. Ohg Sensor system comprising a vehicle model unit
DE102011117116B4 (de) * 2011-10-27 2014-02-13 Diehl Bgt Defence Gmbh & Co. Kg Steuereinrichtung zum wenigstens teilweise autonomen Betrieb eines Fahrzeugs und Fahrzeug mit solch einer Steuereinrichtung
US9235987B2 (en) * 2011-11-17 2016-01-12 GM Global Technology Operations LLC System and method for closed-loop driver attention management
DE102011121255B3 (de) * 2011-12-15 2013-04-18 Lear Corporation Gmbh Steuersystem eines Kraftfahrzeugs mit vereinfachtem Informationsaustausch
US20130201316A1 (en) 2012-01-09 2013-08-08 May Patents Ltd. System and method for server based control
US8855847B2 (en) 2012-01-20 2014-10-07 Toyota Motor Engineering & Manufacturing North America, Inc. Intelligent navigation system
DE102012100609A1 (de) 2012-01-25 2013-07-25 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
DE102012201333A1 (de) 2012-01-31 2013-08-01 Deere & Company Landwirtschaftliche Maschine mit einem System zur selbsttätigen Einstellung eines Bearbeitungsparameters und zugehöriges Verfahren
DE102012002823A1 (de) 2012-02-11 2012-09-13 Daimler Ag Steuerungseinrichtung für ein Fahrzeug
US20140309930A1 (en) * 2013-04-15 2014-10-16 Flextronics Ap, Llc Automatic camera image retrieval based on route traffic and conditions
TWI486874B (zh) * 2012-03-27 2015-06-01 華擎科技股份有限公司 電子裝置及開機方法
US9584711B2 (en) * 2012-04-04 2017-02-28 Schlumberger Technology Corporation Imaging methods and systems for controlling equipment in remote environments
US20130268138A1 (en) * 2012-04-05 2013-10-10 Caterpillar Inc. High Availability For Autonomous Machine Control System
CN103359050B (zh) * 2012-04-06 2016-03-30 比亚迪股份有限公司 车辆、车用智能钥匙装置、车辆遥控驾驶***及方法
CN103359051B (zh) * 2012-04-06 2016-03-30 比亚迪股份有限公司 车辆、车用智能钥匙装置、车辆遥控驾驶***及方法
CN103359060B (zh) * 2012-04-06 2016-01-13 比亚迪股份有限公司 车辆、车用智能钥匙装置、车辆遥控驾驶***及方法
US8718861B1 (en) 2012-04-11 2014-05-06 Google Inc. Determining when to drive autonomously
US9315178B1 (en) * 2012-04-13 2016-04-19 Google Inc. Model checking for autonomous vehicles
US8700251B1 (en) 2012-04-13 2014-04-15 Google Inc. System and method for automatically detecting key behaviors by vehicles
NL2008674C2 (nl) * 2012-04-20 2013-10-23 Lely Patent Nv Samenstel van autonome voertuigen.
US8744700B2 (en) * 2012-04-25 2014-06-03 Darren Beams Reversing vehicle remote telematics detection
US9080723B2 (en) * 2012-05-17 2015-07-14 Caterpillar Inc. Personnel classification and response system
US9014903B1 (en) * 2012-05-22 2015-04-21 Google Inc. Determination of object heading based on point cloud
US8909375B2 (en) * 2012-05-25 2014-12-09 The United States Of America, As Represented By The Secretary Of The Navy Nodding mechanism for a single-scan sensor
US9651141B2 (en) * 2012-06-26 2017-05-16 Schaeffler Technologies AG & Co. KG Method for controlling a motor vehicle transmission
US8997362B2 (en) 2012-07-17 2015-04-07 Faro Technologies, Inc. Portable articulated arm coordinate measuring machine with optical communications bus
US9969081B2 (en) * 2012-07-27 2018-05-15 Alberto Daniel Lacaze Method and system for the directed control of robotic assets
US8983662B2 (en) 2012-08-03 2015-03-17 Toyota Motor Engineering & Manufacturing North America, Inc. Robots comprising projectors for projecting images on identified projection surfaces
DE102012107544B3 (de) 2012-08-17 2013-05-23 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
JP6202544B2 (ja) 2012-08-27 2017-09-27 アクティエボラゲット エレクトロラックス ロボット位置決めシステム
US9056395B1 (en) * 2012-09-05 2015-06-16 Google Inc. Construction zone sign detection using light detection and ranging
US9195914B2 (en) 2012-09-05 2015-11-24 Google Inc. Construction zone sign detection
US8996228B1 (en) * 2012-09-05 2015-03-31 Google Inc. Construction zone object detection using light detection and ranging
GB2505679B (en) * 2012-09-06 2015-02-18 Jaguar Land Rover Ltd Vehicle control system and method
US9367798B2 (en) 2012-09-20 2016-06-14 Brain Corporation Spiking neuron network adaptive control apparatus and methods
US9633564B2 (en) 2012-09-27 2017-04-25 Google Inc. Determining changes in a driving environment based on vehicle behavior
US8949016B1 (en) 2012-09-28 2015-02-03 Google Inc. Systems and methods for determining whether a driving environment has changed
US9513107B2 (en) 2012-10-05 2016-12-06 Faro Technologies, Inc. Registration calculation between three-dimensional (3D) scans based on two-dimensional (2D) scan data from a 3D scanner
US10067231B2 (en) 2012-10-05 2018-09-04 Faro Technologies, Inc. Registration calculation of three-dimensional scanner data performed between scans based on measurements by two-dimensional scanner
DE102012109481A1 (de) 2012-10-05 2014-04-10 Faro Technologies, Inc. Vorrichtung zum optischen Abtasten und Vermessen einer Umgebung
US9529358B2 (en) 2012-11-06 2016-12-27 Kvaser Ab Remote control system and method and usage related to such a system
CN102929279B (zh) * 2012-11-07 2014-11-05 无锡普智联科高新技术有限公司 基于三维空间密集存储区域的多机器人路径规划方法
US8874282B2 (en) 2012-11-14 2014-10-28 Lars-Berno Fredriksson Model vehicle remote control system
DE102012220818A1 (de) * 2012-11-14 2014-06-12 Continental Automotive Gmbh Vorrichtung zur Stromversorgung in einem Fahrzeug
US8942863B2 (en) * 2012-11-15 2015-01-27 Caterpillar Inc. Worksite position control system having integrity checking
US8825258B2 (en) 2012-11-30 2014-09-02 Google Inc. Engaging and disengaging for autonomous driving
US9213331B2 (en) * 2012-12-19 2015-12-15 Caterpillar Inc. Remote control system for a machine
KR101449210B1 (ko) * 2012-12-27 2014-10-08 현대자동차주식회사 자율 주행 차량의 운전모드 전환 장치 및 그 방법
RU2632543C2 (ru) * 2013-01-11 2017-10-05 Ниссан Мотор Ко., Лтд. Устройство рулевого управления и способ рулевого управления
US20140214256A1 (en) * 2013-01-25 2014-07-31 GM Global Technology Operations LLC Steering system for an autonomously driven vehicle and methods of steering the same
US9014874B2 (en) * 2013-01-29 2015-04-21 Foster-Miller, Inc. Tactical robot controller
WO2014133700A1 (en) 2013-02-26 2014-09-04 Force Jason Mobile platform based biomass powered harvester
KR101883475B1 (ko) * 2013-02-28 2018-07-31 한화지상방산 주식회사 소형통합제어장치
US9008890B1 (en) 2013-03-15 2015-04-14 Google Inc. Augmented trajectories for autonomous vehicles
US8849494B1 (en) 2013-03-15 2014-09-30 Google Inc. Data selection by an autonomous vehicle for trajectory modification
US9333983B2 (en) * 2013-03-15 2016-05-10 Volkswagen Ag Dual-state steering wheel/input device
US8996224B1 (en) * 2013-03-15 2015-03-31 Google Inc. Detecting that an autonomous vehicle is in a stuck condition
US9342074B2 (en) * 2013-04-05 2016-05-17 Google Inc. Systems and methods for transitioning control of an autonomous vehicle to a driver
JP6217952B2 (ja) 2013-04-15 2017-10-25 アクティエボラゲット エレクトロラックス ロボット真空掃除機
CN110710920B (zh) 2013-04-15 2021-12-14 伊莱克斯公司 具有伸出的侧刷的机器人真空吸尘器
US9513932B2 (en) * 2013-04-30 2016-12-06 Deere & Company Virtual terminal display for a vehicle
CN104238380B (zh) * 2013-06-06 2018-04-27 泰科电子(上海)有限公司 一种用于电器的智能连接器模块
KR101491260B1 (ko) * 2013-06-07 2015-02-06 현대자동차주식회사 자동차용 ecu 다중 진단 시스템 및 방법
US20150005937A1 (en) * 2013-06-27 2015-01-01 Brain Corporation Action selection apparatus and methods
US10915113B2 (en) * 2013-07-02 2021-02-09 Ubiquity Robotics, Inc. Versatile autonomous mobile platform with 3-d imaging system
KR102096398B1 (ko) * 2013-07-03 2020-04-03 삼성전자주식회사 자율 이동 로봇의 위치 인식 방법
KR101470190B1 (ko) * 2013-07-09 2014-12-05 현대자동차주식회사 자율주행 시스템의 고장 처리 장치 및 그 방법
CN103425131B (zh) * 2013-08-15 2015-12-23 江苏大学 基于非光滑控制和扰动观测的农用拖拉机导航控制方法
IN2013MU02698A (de) * 2013-08-19 2015-06-19 Deere & Co
DE102013013867A1 (de) * 2013-08-20 2015-03-12 Audi Ag Kraftfahrzeug und Verfahren zur Steuerung eines Kraftfahrzeugs
DE102013110864A1 (de) * 2013-10-01 2015-04-02 Volkswagen Aktiengesellschaft Verfahren für ein Fahrerassistenzsystem eines Fahrzeugs
DE102013220905A1 (de) * 2013-10-15 2015-04-16 Continental Automotive Gmbh Verfahren zum Führen eines Kraftfahrzeugs und Kraftfahrzeug zum Ausführen des Verfahrens
US9489623B1 (en) 2013-10-15 2016-11-08 Brain Corporation Apparatus and methods for backward propagation of errors in a spiking neuron network
DE102013222048B4 (de) 2013-10-30 2023-10-05 Volkswagen Aktiengesellschaft Verfahren und Vorrichtung zum Aktivieren oder Deaktivieren einer automatischen Fahrfunktion
US20150127192A1 (en) * 2013-11-06 2015-05-07 Hitachi, Ltd Wireless vehicle control system
US9434431B2 (en) 2013-11-11 2016-09-06 Lit Motors Corporation Intuitive drive-by-wire steering with redundant mechanical control
US9096150B2 (en) * 2013-11-20 2015-08-04 Ford Global Technologies, Llc Autonomous vehicle with reconfigurable seats
US9580033B2 (en) * 2013-11-20 2017-02-28 Ford Global Technologies, Llc Dual airbags in vehicle with reconfigurable interior
US9199553B2 (en) 2013-11-20 2015-12-01 Ford Global Technologies Autonomous vehicle with reconfigurable seats
US9227531B2 (en) 2013-11-20 2016-01-05 Ford Global Technologies, Llc Autonomous vehicle with reconfigurable seats
US9073574B2 (en) * 2013-11-20 2015-07-07 Ford Global Technologies, Llc Autonomous vehicle with reconfigurable interior
US9108584B2 (en) 2013-11-20 2015-08-18 Ford Global Technologies, Llc Multi-stage airbag in vehicle with reconfigurable interior
US9364178B2 (en) 2013-11-26 2016-06-14 Elwha Llc Robotic vehicle control
US8989944B1 (en) 2013-11-26 2015-03-24 Google Inc. Methods and devices for determining movements of an object in an environment
EP3754381A1 (de) 2013-12-10 2020-12-23 SZ DJI Technology Co., Ltd. Sensorfusion
US20150168953A1 (en) * 2013-12-13 2015-06-18 Itrack Llc Autonomous self-leveling vehicle
EP3084539B1 (de) 2013-12-19 2019-02-20 Aktiebolaget Electrolux Priorisierung von reinigungsbereichen
JP6455737B2 (ja) 2013-12-19 2019-01-23 アクチエボラゲット エレクトロルックス 方法、ロボット掃除機、コンピュータプログラムおよびコンピュータプログラム製品
EP3084540B1 (de) 2013-12-19 2021-04-14 Aktiebolaget Electrolux Robotische reinigungsvorrichtung und verfahren dazu
JP6494118B2 (ja) 2013-12-19 2019-04-03 アクチエボラゲット エレクトロルックス 障害物の乗り上げの検出に伴うロボット掃除機の制御方法、並びに、当該方法を有するロボット掃除機、プログラム、及びコンピュータ製品
US10617271B2 (en) 2013-12-19 2020-04-14 Aktiebolaget Electrolux Robotic cleaning device and method for landmark recognition
KR102116596B1 (ko) 2013-12-19 2020-05-28 에이비 엘렉트로룩스 나선형 패턴으로 이동하는 사이드 브러시를 구비한 로봇 진공 청소기
EP3082541B1 (de) 2013-12-19 2018-04-04 Aktiebolaget Electrolux Angepasste geschwindigkeitskontrolle der rotierenden seitenbürste
CN105848545B (zh) 2013-12-20 2019-02-19 伊莱克斯公司 灰尘容器
US9352745B1 (en) * 2013-12-30 2016-05-31 Daniel Theobald Method and apparatus for transporting a payload
US9283674B2 (en) 2014-01-07 2016-03-15 Irobot Corporation Remotely operating a mobile robot
JP5850957B2 (ja) * 2014-01-15 2016-02-03 ファナック株式会社 遠隔地にあるロボット遠隔監視システム
WO2015111083A1 (en) * 2014-01-23 2015-07-30 Mahindra & Mahindra Limited Multiple mode control system for a vehicle
US9355423B1 (en) 2014-01-24 2016-05-31 Allstate Insurance Company Reward system related to a vehicle-to-vehicle communication system
JP6028745B2 (ja) * 2014-01-24 2016-11-16 トヨタ自動車株式会社 車両用操舵制御装置
US9390451B1 (en) 2014-01-24 2016-07-12 Allstate Insurance Company Insurance system related to a vehicle-to-vehicle communication system
US10096067B1 (en) 2014-01-24 2018-10-09 Allstate Insurance Company Reward system related to a vehicle-to-vehicle communication system
EP2907730B1 (de) 2014-01-29 2017-09-06 Steering Solutions IP Holding Corporation Erkennung von Händen am Lenkrad
US9739226B2 (en) * 2014-02-07 2017-08-22 Ford Global Technologies, Llc Walk-away vehicle shutdown
KR101536141B1 (ko) 2014-02-13 2015-07-13 현대자동차주식회사 이더넷과 can 통신 간의 신호 변환을 제공하는 차량용 장치 및 그 제어방법
KR101491622B1 (ko) * 2014-02-17 2015-02-11 연세대학교 산학협력단 자율 주행형 차량의 주행 제어 장치 및 방법
US10796369B1 (en) 2014-02-19 2020-10-06 Allstate Insurance Company Determining a property of an insurance policy based on the level of autonomy of a vehicle
US9940676B1 (en) 2014-02-19 2018-04-10 Allstate Insurance Company Insurance system for analysis of autonomous driving
US10783587B1 (en) 2014-02-19 2020-09-22 Allstate Insurance Company Determining a driver score based on the driver's response to autonomous features of a vehicle
US10783586B1 (en) 2014-02-19 2020-09-22 Allstate Insurance Company Determining a property of an insurance policy based on the density of vehicles
US10803525B1 (en) * 2014-02-19 2020-10-13 Allstate Insurance Company Determining a property of an insurance policy based on the autonomous features of a vehicle
US10046793B2 (en) * 2014-02-26 2018-08-14 GM Global Technology Operations LLC Methods and systems for automated driving
DE102014203541A1 (de) * 2014-02-27 2015-08-27 Continental Teves Ag & Co. Ohg Fahrerlos betreibbares Fahrzeug und Verfahren zum Betrieb eines solchen Fahrzeugs
US9722937B2 (en) * 2014-02-28 2017-08-01 Rockwell Automation Technologies, Inc. Enhanced motor drive communication system and method
US9722526B2 (en) * 2014-02-28 2017-08-01 Rockwell Automation Technologies, Inc. Modular motor drive communication system and method
US9720410B2 (en) 2014-03-03 2017-08-01 Waymo Llc Remote assistance for autonomous vehicles in predetermined situations
US9465388B1 (en) 2014-03-03 2016-10-11 Google Inc. Remote assistance for an autonomous vehicle in low confidence situations
US9547989B2 (en) 2014-03-04 2017-01-17 Google Inc. Reporting road event data and sharing with other vehicles
US20150195765A1 (en) * 2014-03-25 2015-07-09 Sanjay Bhardwaj Method, Apparatus and System for Connected Automobiles
WO2015150871A1 (en) * 2014-04-02 2015-10-08 Continental Automotive Gmbh Early rear view camera video display in a multiprocessor architecture
US9681272B2 (en) 2014-04-23 2017-06-13 At&T Intellectual Property I, L.P. Facilitating mesh networks of connected movable objects
US9304515B2 (en) * 2014-04-24 2016-04-05 Lenovo Enterprise Solutions (Singapore) Pte. Ltd. Regional operation modes for autonomous vehicles
US9365213B2 (en) * 2014-04-30 2016-06-14 Here Global B.V. Mode transition for an autonomous vehicle
EP3148752B1 (de) * 2014-05-09 2022-01-19 Carnegie Mellon University Systeme und verfahren für moduleinheiten in elektromechanischen systemen
US11669090B2 (en) 2014-05-20 2023-06-06 State Farm Mutual Automobile Insurance Company Autonomous vehicle operation feature monitoring and evaluation of effectiveness
US10373259B1 (en) 2014-05-20 2019-08-06 State Farm Mutual Automobile Insurance Company Fully autonomous vehicle insurance pricing
US9972054B1 (en) 2014-05-20 2018-05-15 State Farm Mutual Automobile Insurance Company Accident fault determination for autonomous vehicles
US20210133871A1 (en) 2014-05-20 2021-05-06 State Farm Mutual Automobile Insurance Company Autonomous vehicle operation feature usage recommendations
US10599155B1 (en) 2014-05-20 2020-03-24 State Farm Mutual Automobile Insurance Company Autonomous vehicle operation feature monitoring and evaluation of effectiveness
US20150336575A1 (en) * 2014-05-21 2015-11-26 GM Global Technology Operations LLC Collision avoidance with static targets in narrow spaces
US9499348B2 (en) 2014-05-23 2016-11-22 Ty-Crop Manufacturing Ltd. Material handling conveyor vehicle
WO2015180021A1 (zh) * 2014-05-26 2015-12-03 中国科学院自动化研究所 剪枝机器人***
JP2015230573A (ja) * 2014-06-05 2015-12-21 アルパイン株式会社 車両運転支援装置、方法およびプログラム
CA2893686A1 (en) * 2014-06-09 2015-12-09 Ty-Crop Manufacturing Ltd. Control system for material handling conveyor vehicle
US9798007B2 (en) 2014-07-01 2017-10-24 Sikorsky Aircraft Corporation Obstacle data model construction system with range sensor shadows and use in motion planning
ES2681802T3 (es) 2014-07-10 2018-09-17 Aktiebolaget Electrolux Método para detectar un error de medición en un dispositivo de limpieza robotizado
US10055726B2 (en) * 2014-07-14 2018-08-21 Jpmorgan Chase Bank, N.A. Systems and methods for management of mobile banking resources
US9726463B2 (en) 2014-07-16 2017-08-08 Robtozone, LLC Multichannel controller for target shooting range
DE102014213959A1 (de) 2014-07-17 2016-01-21 Continental Automotive Gmbh Verfahren zum Überwachen eines automatisierten Fahrens
US10540723B1 (en) 2014-07-21 2020-01-21 State Farm Mutual Automobile Insurance Company Methods of providing insurance savings based upon telematics and usage-based insurance
US20160027303A1 (en) * 2014-07-22 2016-01-28 Advanced Technology & Research Corp. Active detection system for low ground clearance vehicles
CN107577247B (zh) 2014-07-30 2021-06-25 深圳市大疆创新科技有限公司 目标追踪***及方法
US10209062B1 (en) 2014-08-01 2019-02-19 Google Llc Use of offline algorithm to determine location from previous sensor data when location is requested
US9844880B1 (en) 2014-08-07 2017-12-19 Kairos Autonomi, Inc. Unmanned vehicle retrofitting applique assembly
US9321461B1 (en) 2014-08-29 2016-04-26 Google Inc. Change detection using curve alignment
WO2016033797A1 (en) 2014-09-05 2016-03-10 SZ DJI Technology Co., Ltd. Multi-sensor environmental mapping
JP6181300B2 (ja) 2014-09-05 2017-08-16 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 無人航空機の速度を制御するシステム
CN105517666B (zh) * 2014-09-05 2019-08-27 深圳市大疆创新科技有限公司 基于情景的飞行模式选择
WO2016037636A1 (en) 2014-09-08 2016-03-17 Aktiebolaget Electrolux Robotic vacuum cleaner
DE102014217848A1 (de) * 2014-09-08 2016-03-10 Continental Automotive Gmbh Fahrerassistenzsystem
CN106659345B (zh) 2014-09-08 2019-09-03 伊莱克斯公司 机器人真空吸尘器
CN105487424A (zh) * 2014-09-16 2016-04-13 陕西汽车集团有限责任公司 专用车上装电气控制***用控制装置及专用车
US10457327B2 (en) * 2014-09-26 2019-10-29 Nissan North America, Inc. Method and system of assisting a driver of a vehicle
US9248834B1 (en) 2014-10-02 2016-02-02 Google Inc. Predicting trajectories of objects based on contextual information
US10188029B1 (en) * 2014-10-20 2019-01-29 Hydro-Gear Limited Partnership Method of generating a three-dimensional map of a lawn and its use to improve mowing efficiency
DE102014221682A1 (de) * 2014-10-24 2016-04-28 Robert Bosch Gmbh Verfahren und Vorrichtung zum Betreiben eines Fahrzeugs
JP6520048B2 (ja) * 2014-10-30 2019-05-29 村田機械株式会社 移動体
US10166994B1 (en) 2014-11-13 2019-01-01 State Farm Mutual Automobile Insurance Company Autonomous vehicle operating status assessment
US9494935B2 (en) * 2014-11-13 2016-11-15 Toyota Motor Engineering & Manufacturing North America, Inc. Remote operation of autonomous vehicle in unexpected environment
DE102014116882B4 (de) * 2014-11-18 2018-05-24 B. Strautmann & Söhne GmbH u. Co. KG Verfahren zur Entnahme von Futtermitteln aus Fahrsilos
EP3222391B1 (de) 2014-11-19 2020-04-22 Positec Technology (China) Co., Ltd. Selbstbewegender roboter
CN105701789A (zh) * 2014-11-26 2016-06-22 沈阳飞机工业(集团)有限公司 飞机近场飞行轨迹跟踪方法
EP3230814B1 (de) 2014-12-10 2021-02-17 Aktiebolaget Electrolux Verwendung eines lasersensors zur bodentypdetektion
CN107072454A (zh) 2014-12-12 2017-08-18 伊莱克斯公司 侧刷和机器人吸尘器
KR101941938B1 (ko) * 2014-12-15 2019-01-24 한화디펜스 주식회사 소형통합제어장치
CA3174624A1 (en) * 2014-12-15 2016-06-23 Polaris Industries Inc. Autonomous ready vehicle
WO2016095965A2 (en) 2014-12-16 2016-06-23 Aktiebolaget Electrolux Experience-based roadmap for a robotic cleaning device
WO2016095966A1 (en) 2014-12-16 2016-06-23 Aktiebolaget Electrolux Cleaning method for a robotic cleaning device
US10500955B2 (en) * 2014-12-30 2019-12-10 Visteon Global Technologies, Inc. Automatic upgrade of a vehicle-based processor based on a physical component change
US9471062B1 (en) * 2014-12-30 2016-10-18 Daniel Theobald Vehicle operating method and system
US10518407B2 (en) 2015-01-06 2019-12-31 Discovery Robotics Apparatus and methods for providing a reconfigurable robotic platform
US11400595B2 (en) 2015-01-06 2022-08-02 Nexus Robotics Llc Robotic platform with area cleaning mode
US20160209185A1 (en) * 2015-01-15 2016-07-21 George Ford Remote control target and method of use
DE102015201010A1 (de) * 2015-01-22 2016-07-28 Robert Bosch Gmbh Vorrichtung zum Ansteuern eines Kraftfahrzeugs
JP6375237B2 (ja) * 2015-01-28 2018-08-15 日立オートモティブシステムズ株式会社 自動運転制御装置
US9679735B2 (en) * 2015-03-06 2017-06-13 Asa Electronics, Llc Travel lockout monitoring system
JP6631018B2 (ja) * 2015-03-10 2020-01-15 オムロン株式会社 リアクトル、基板モジュール、および電気機器
US10175040B2 (en) * 2015-03-20 2019-01-08 Process Metrix Characterization of refractory lining of metallurgical vessels using autonomous scanners
JP6304086B2 (ja) * 2015-03-23 2018-04-04 トヨタ自動車株式会社 自動運転装置
US9751558B2 (en) 2015-03-25 2017-09-05 Ford Global Technologies, Llc Handwheel obstruction detection and inertia compensation
US9616928B2 (en) 2015-03-25 2017-04-11 Ford Global Technologies, Llc Steering angle control for multiple features
US9989636B2 (en) 2015-03-26 2018-06-05 Deere & Company Multi-use detection system for work vehicle
US10459524B2 (en) * 2015-04-14 2019-10-29 Northrop Grumman Systems Corporation Multi-sensor control system and method for remote signaling control of unmanned vehicles
US9499202B2 (en) * 2015-04-15 2016-11-22 Delphi Technologies, Inc. Steering system and method for autonomous vehicles
JP2016203718A (ja) * 2015-04-17 2016-12-08 トヨタ自動車株式会社 車両の制御装置
CN107405034B (zh) 2015-04-17 2022-09-13 伊莱克斯公司 机器人清洁设备以及控制所述机器人清洁设备的方法
US10351159B2 (en) 2015-05-01 2019-07-16 Steering Solutions Ip Holding Corporation Retractable steering column with a radially projecting attachment
US10589774B2 (en) 2015-05-01 2020-03-17 Steering Solutions Ip Holding Corporation Counter rotation steering wheel
US9612596B2 (en) * 2015-05-05 2017-04-04 Ford Global Technologies, Llc Hands-off steering wheel governed by pedestrian detection
US10167015B2 (en) 2015-05-11 2019-01-01 GM Global Technology Operations LLC System for retrofitting vehicle automation
US9919724B2 (en) 2015-05-29 2018-03-20 Steering Solutions Ip Holding Corporation Retractable steering column with manual retrieval
US9690290B2 (en) * 2015-06-04 2017-06-27 Toyota Motor Engineering & Manufacturing North America, Inc. Situation-based transfer of vehicle sensor data during remote operation of autonomous vehicles
CA2932588C (en) 2015-06-08 2023-08-01 Ty-Crop Manufacturing Ltd. Conveyor transition for material handling
US11560169B2 (en) 2015-06-11 2023-01-24 Steering Solutions Ip Holding Corporation Retractable steering column system and method
US10343706B2 (en) 2015-06-11 2019-07-09 Steering Solutions Ip Holding Corporation Retractable steering column system, vehicle having the same, and method
JP2017001597A (ja) 2015-06-15 2017-01-05 トヨタ自動車株式会社 自動運転装置
DE102016110791A1 (de) 2015-06-15 2016-12-15 Steering Solutions Ip Holding Corporation Gestensteuerung für ein einfahrbares Lenkrad
US10577009B2 (en) 2015-06-16 2020-03-03 Steering Solutions Ip Holding Corporation Retractable steering column assembly and method
DE102015211218A1 (de) 2015-06-18 2016-12-22 Robert Bosch Gmbh Steuereinrichtung und Verfahren zur Steuerung einer autonomen mobilen Plattform
US9802638B1 (en) * 2015-06-19 2017-10-31 Waymo Llc Removable manual controls for an autonomous vehicle
US9828016B2 (en) 2015-06-24 2017-11-28 Steering Solutions Ip Holding Corporation Retractable steering column system, vehicle having the same, and method
US20160375931A1 (en) 2015-06-25 2016-12-29 Steering Solutions Ip Holding Corporation Rotation control system for a steering wheel and method
DE102016111473A1 (de) 2015-06-25 2016-12-29 Steering Solutions Ip Holding Corporation Stationäre lenkradbaugruppe und verfahren
US10112639B2 (en) 2015-06-26 2018-10-30 Steering Solutions Ip Holding Corporation Vehicle steering arrangement and method of making same
US9944307B2 (en) 2015-06-26 2018-04-17 Steering Solutions Ip Holding Corporation Steering assembly and method of monitoring a space within vehicle
US9840271B2 (en) 2015-06-29 2017-12-12 Steering Solutions Ip Holding Corporation Retractable steering column with rake limiter
US9845103B2 (en) 2015-06-29 2017-12-19 Steering Solutions Ip Holding Corporation Steering arrangement
EP3118071B1 (de) * 2015-07-13 2021-09-08 Volvo Car Corporation Sicherheitsbremsvorrichtung und verfahren zur sicherheitsbremsung eines autonomen fahrzeugs
US9588517B2 (en) 2015-07-14 2017-03-07 Delphi Technologies, Inc. Automated vehicle control take-over alert timing based on infotainment activation
GB201512964D0 (en) * 2015-07-22 2015-09-02 Cambridge Medical Robotics Ltd Communication paths for robot arms
JP6350428B2 (ja) * 2015-07-22 2018-07-04 トヨタ自動車株式会社 車載記録システム
KR101962889B1 (ko) * 2015-07-27 2019-03-28 한국전자통신연구원 작업환경 변화에 적응적인 로봇 동작 데이터 제공장치 및 그 방법
US9869560B2 (en) 2015-07-31 2018-01-16 International Business Machines Corporation Self-driving vehicle's response to a proximate emergency vehicle
US9849864B2 (en) 2015-07-31 2017-12-26 Ford Global Technologies, Llc Vehicle parking assist system
US9849904B2 (en) 2015-07-31 2017-12-26 Steering Solutions Ip Holding Corporation Retractable steering column with dual actuators
US9785145B2 (en) * 2015-08-07 2017-10-10 International Business Machines Corporation Controlling driving modes of self-driving vehicles
US9483948B1 (en) 2015-08-07 2016-11-01 International Business Machines Corporation Automated control of interactions between self-driving vehicles and pedestrians
US9721397B2 (en) 2015-08-11 2017-08-01 International Business Machines Corporation Automatic toll booth interaction with self-driving vehicles
KR102294634B1 (ko) * 2015-08-12 2021-08-26 현대자동차주식회사 네트워크에서 통신 노드의 동작 방법
US9764736B2 (en) * 2015-08-14 2017-09-19 Toyota Motor Engineering & Manufacturing North America, Inc. Autonomous vehicle operation relative to unexpected dynamic objects
US9718471B2 (en) 2015-08-18 2017-08-01 International Business Machines Corporation Automated spatial separation of self-driving vehicles from manually operated vehicles
DE102015215807A1 (de) * 2015-08-19 2017-02-23 Zf Friedrichshafen Ag Entfernte Fahrerunterstützung
US9481366B1 (en) 2015-08-19 2016-11-01 International Business Machines Corporation Automated control of interactions between self-driving vehicles and animals
US9896100B2 (en) 2015-08-24 2018-02-20 International Business Machines Corporation Automated spatial separation of self-driving vehicles from other vehicles based on occupant preferences
US9805601B1 (en) 2015-08-28 2017-10-31 State Farm Mutual Automobile Insurance Company Vehicular traffic alerts for avoidance of abnormal traffic conditions
US9845106B2 (en) 2015-08-31 2017-12-19 Steering Solutions Ip Holding Corporation Overload protection for belt drive mechanism
FR3040573B1 (fr) * 2015-08-31 2018-10-19 Kerlink Architecture de station de base modulable pour reseau de capteurs sans-fil.
CN106483875B (zh) * 2015-08-31 2021-09-03 比亚迪股份有限公司 汽车控制器、***以及在汽车控制器中使用的方法
US9731726B2 (en) 2015-09-02 2017-08-15 International Business Machines Corporation Redirecting self-driving vehicles to a product provider based on physiological states of occupants of the self-driving vehicles
JP6736831B2 (ja) 2015-09-03 2020-08-05 アクチエボラゲット エレクトロルックス ロボット清掃デバイスのシステム、清掃デバイスを制御する方法、コンピュータプログラム及びコンピュータプログラム製品
JP6697702B2 (ja) * 2015-09-10 2020-05-27 パナソニックIpマネジメント株式会社 自動停止装置および自動停止方法
US9513632B1 (en) 2015-09-16 2016-12-06 International Business Machines Corporation Driving mode alerts from self-driving vehicles
US9566986B1 (en) 2015-09-25 2017-02-14 International Business Machines Corporation Controlling driving modes of self-driving vehicles
JP6567376B2 (ja) * 2015-09-25 2019-08-28 パナソニック株式会社 装置
US10061313B2 (en) * 2015-09-28 2018-08-28 Uber Technologies, Inc. Autonomous vehicle with independent auxiliary control units
EP3153346B1 (de) * 2015-10-07 2019-09-25 Volvo Car Corporation Sitzsystem für autonome fahrzeuge
US9981656B2 (en) 2015-10-13 2018-05-29 Ford Global Technologies, Llc Vehicle parking assist system
US9824453B1 (en) * 2015-10-14 2017-11-21 Allstate Insurance Company Three dimensional image scan for vehicle
US9481367B1 (en) 2015-10-14 2016-11-01 International Business Machines Corporation Automated control of interactions between self-driving vehicles and animals
US9834224B2 (en) 2015-10-15 2017-12-05 International Business Machines Corporation Controlling driving modes of self-driving vehicles
US10160472B2 (en) 2015-10-20 2018-12-25 Steering Solutions Ip Holding Corporation Steering column with stationary hub
DE112015006932T5 (de) 2015-10-20 2018-06-21 Ford Global Technologies, Llc Unterstützen von Hindurchschlängeln von Motorrädern
US9944291B2 (en) 2015-10-27 2018-04-17 International Business Machines Corporation Controlling driving modes of self-driving vehicles
US9751532B2 (en) 2015-10-27 2017-09-05 International Business Machines Corporation Controlling spacing of self-driving vehicles based on social network relationships
US9809155B2 (en) 2015-10-27 2017-11-07 Steering Solutions Ip Holding Corporation Retractable steering column assembly having lever, vehicle having retractable steering column assembly, and method
US10328933B2 (en) 2015-10-29 2019-06-25 Ford Global Technologies, Llc Cognitive reverse speed limiting
US10607293B2 (en) 2015-10-30 2020-03-31 International Business Machines Corporation Automated insurance toggling for self-driving vehicles
US10248119B2 (en) 2015-11-04 2019-04-02 Zoox, Inc. Interactive autonomous vehicle command controller
US9754490B2 (en) 2015-11-04 2017-09-05 Zoox, Inc. Software application to request and control an autonomous vehicle service
US10334050B2 (en) * 2015-11-04 2019-06-25 Zoox, Inc. Software application and logic to modify configuration of an autonomous vehicle
US10401852B2 (en) 2015-11-04 2019-09-03 Zoox, Inc. Teleoperation system and method for trajectory modification of autonomous vehicles
US9632502B1 (en) 2015-11-04 2017-04-25 Zoox, Inc. Machine-learning systems and techniques to optimize teleoperation and/or planner decisions
US9630619B1 (en) 2015-11-04 2017-04-25 Zoox, Inc. Robotic vehicle active safety systems and methods
US11283877B2 (en) 2015-11-04 2022-03-22 Zoox, Inc. Software application and logic to modify configuration of an autonomous vehicle
US9606539B1 (en) 2015-11-04 2017-03-28 Zoox, Inc. Autonomous vehicle fleet service and system
WO2017079341A2 (en) 2015-11-04 2017-05-11 Zoox, Inc. Automated extraction of semantic information to enhance incremental mapping modifications for robotic vehicles
US10176525B2 (en) 2015-11-09 2019-01-08 International Business Machines Corporation Dynamically adjusting insurance policy parameters for a self-driving vehicle
US9791861B2 (en) 2015-11-12 2017-10-17 International Business Machines Corporation Autonomously servicing self-driving vehicles
US10692126B2 (en) 2015-11-17 2020-06-23 Nio Usa, Inc. Network-based system for selling and servicing cars
TW201718297A (zh) * 2015-11-27 2017-06-01 鴻海精密工業股份有限公司 車輛駕駛模式切換系統和方法
DE102015223688A1 (de) * 2015-11-30 2017-06-01 Bayerische Motoren Werke Aktiengesellschaft Anordnung, Fortbewegungsmittel und Verfahren zur Übernahme einer Fahraufgabe durch einen Insassen eines in einem hochautomatisierten Fahrzustand befindlichen Fortbewegungsmittels
US10029725B2 (en) 2015-12-03 2018-07-24 Steering Solutions Ip Holding Corporation Torque feedback system for a steer-by-wire vehicle, vehicle having steering column, and method of providing feedback in vehicle
US10036642B2 (en) 2015-12-08 2018-07-31 Uber Technologies, Inc. Automated vehicle communications system
US10050760B2 (en) 2015-12-08 2018-08-14 Uber Technologies, Inc. Backend communications system for a fleet of autonomous vehicles
US9895945B2 (en) 2015-12-08 2018-02-20 Ford Global Technologies, Llc Trailer backup assist system with hitch assist
JP6690213B2 (ja) * 2015-12-09 2020-04-28 セイコーエプソン株式会社 ロボット、制御装置およびロボットシステム
US10061326B2 (en) 2015-12-09 2018-08-28 International Business Machines Corporation Mishap amelioration based on second-order sensing by a self-driving vehicle
DE102015225157A1 (de) * 2015-12-14 2017-06-14 Robert Bosch Gmbh Verfahren zum Übertragen, Empfangen und Verarbeiten von Datenwerten, sowie eine Übertragungs- und Empfangsvorrichtung
US10073965B2 (en) * 2015-12-15 2018-09-11 Nagravision S.A. Methods and systems for validating an autonomous system that includes a dynamic-code module and a static-code module
CN105425803B (zh) * 2015-12-16 2020-05-19 纳恩博(北京)科技有限公司 自主避障方法、装置和***
US9481393B1 (en) * 2015-12-22 2016-11-01 Uber Technologies, Inc. Integrated clutch steering system
US9855816B2 (en) * 2015-12-22 2018-01-02 Uber Technologies, Inc. Thermal reduction system for an automated vehicle
DE102015122844A1 (de) 2015-12-27 2017-06-29 Faro Technologies, Inc. 3D-Messvorrichtung mit Batteriepack
WO2017122562A1 (ja) * 2016-01-13 2017-07-20 日立オートモティブシステムズ株式会社 操舵装置
US10456910B2 (en) * 2016-01-14 2019-10-29 Purdue Research Foundation Educational systems comprising programmable controllers and methods of teaching therewith
US10324463B1 (en) 2016-01-22 2019-06-18 State Farm Mutual Automobile Insurance Company Autonomous vehicle operation adjustment based upon route
US11719545B2 (en) 2016-01-22 2023-08-08 Hyundai Motor Company Autonomous vehicle component damage and salvage assessment
US11441916B1 (en) 2016-01-22 2022-09-13 State Farm Mutual Automobile Insurance Company Autonomous vehicle trip routing
US10134278B1 (en) 2016-01-22 2018-11-20 State Farm Mutual Automobile Insurance Company Autonomous vehicle application
US10395332B1 (en) 2016-01-22 2019-08-27 State Farm Mutual Automobile Insurance Company Coordinated autonomous vehicle automatic area scanning
US10295363B1 (en) 2016-01-22 2019-05-21 State Farm Mutual Automobile Insurance Company Autonomous operation suitability assessment and mapping
US11242051B1 (en) 2016-01-22 2022-02-08 State Farm Mutual Automobile Insurance Company Autonomous vehicle action communications
US9836973B2 (en) 2016-01-27 2017-12-05 International Business Machines Corporation Selectively controlling a self-driving vehicle's access to a roadway
US10328949B2 (en) * 2016-01-28 2019-06-25 Toyota Motor Engineering & Manufacturing North America, Inc. Sensor blind spot indication for vehicles
US9896123B2 (en) 2016-01-29 2018-02-20 Tk Holdings Inc. Systems and methods for detecting steering wheel contact
US10269075B2 (en) 2016-02-02 2019-04-23 Allstate Insurance Company Subjective route risk mapping and mitigation
US9645581B1 (en) * 2016-02-04 2017-05-09 Zerotech (Shenzhen) Intelligence Robot Co., Ltd Method and apparatus for navigating unmanned aerial vehicle
US10037031B2 (en) 2016-02-05 2018-07-31 Ford Global Technologies, Llc Vehicle operation states
US10787176B2 (en) * 2016-02-19 2020-09-29 A Truly Electric Car Company Plug-compatible interface between cars and their human and/or computer drivers
JP2017154542A (ja) * 2016-02-29 2017-09-07 株式会社デンソー 運転切替装置
US20170253237A1 (en) * 2016-03-02 2017-09-07 Magna Electronics Inc. Vehicle vision system with automatic parking function
US10322682B2 (en) 2016-03-03 2019-06-18 Steering Solutions Ip Holding Corporation Steering wheel with keyboard
EP3430424B1 (de) 2016-03-15 2021-07-21 Aktiebolaget Electrolux Roboterreinigungsvorrichtung und verfahren an der roboterreinigungsvorrichtung zum durchführen einer klippenerkennung
US9616896B1 (en) 2016-03-15 2017-04-11 Uber Technologies, Inc. System for switching control of an autonomous vehicle
US9580080B1 (en) * 2016-03-15 2017-02-28 Uber Technologies, Inc. Drive-by-wire control system
US9488984B1 (en) * 2016-03-17 2016-11-08 Jeff Williams Method, device and system for navigation of an autonomous supply chain node vehicle in a storage center using virtual image-code tape
US20170277182A1 (en) * 2016-03-24 2017-09-28 Magna Electronics Inc. Control system for selective autonomous vehicle control
CN109154819A (zh) * 2016-03-31 2019-01-04 株式会社未来机械 自走式机器人
DE102016105876A1 (de) * 2016-03-31 2017-10-05 Connaught Electronics Ltd. Elektronisches Steuergerät für ein Fahrzeug mit separater Datenverbindung, Assistenzsystem, Fahrzeug sowie Verfahren
EP3439522B1 (de) 2016-04-08 2023-06-07 A&K Robotics Inc. Zwischen manuellem und autonomem betrieb umwandelbarer autowäscher
US10496102B2 (en) 2016-04-11 2019-12-03 Steering Solutions Ip Holding Corporation Steering system for autonomous vehicle
US9896096B2 (en) * 2016-04-11 2018-02-20 David E. Newman Systems and methods for hazard mitigation
US10255648B2 (en) 2016-04-14 2019-04-09 Eric John Wengreen Self-driving vehicle systems and methods
US9429947B1 (en) 2016-04-14 2016-08-30 Eric John Wengreen Self-driving vehicle systems and methods
DE102017108692A1 (de) 2016-04-25 2017-10-26 Steering Solutions Ip Holding Corporation Steuerung einer elektrischen Servolenkung unter Verwendung von Systemzustandsvorhersagen
US10152891B2 (en) 2016-05-02 2018-12-11 Cnh Industrial America Llc System for avoiding collisions between autonomous vehicles conducting agricultural operations
US11122953B2 (en) 2016-05-11 2021-09-21 Aktiebolaget Electrolux Robotic cleaning device
JP6569596B2 (ja) * 2016-05-20 2019-09-04 トヨタ自動車株式会社 車両
US10685391B2 (en) 2016-05-24 2020-06-16 International Business Machines Corporation Directing movement of a self-driving vehicle based on sales activity
US10351161B2 (en) 2016-05-27 2019-07-16 Steering Solutions Ip Holding Corporation Steering column with manual retraction
US11580870B2 (en) 2016-05-27 2023-02-14 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methodologies for providing training on warnings in a vehicle
US10372126B2 (en) 2016-05-27 2019-08-06 Cnh Industrial America Llc Dynamic in-cabin autonomous vehicle control systems
DE102016209203A1 (de) * 2016-05-27 2017-11-30 Robert Bosch Gmbh Verfahren und Vorrichtung zum automatischen Anhalten eines Kraftfahrzeugs, das zumindest zeitweise automatisch auf einer Fahrroute geführt wird
US10073460B2 (en) * 2016-06-10 2018-09-11 Trimble Inc. Providing auto-guidance of a mobile machine without requiring a graphical interface display
US10421476B2 (en) 2016-06-21 2019-09-24 Steering Solutions Ip Holding Corporation Self-locking telescope actuator of a steering column assembly
US11378954B2 (en) * 2016-06-28 2022-07-05 Faraday&Future Inc. Multi-processor SoC system
US10457313B2 (en) 2016-06-28 2019-10-29 Steering Solutions Ip Holding Corporation ADAS wheel locking device
JP6778872B2 (ja) * 2016-06-28 2020-11-04 パナソニックIpマネジメント株式会社 運転支援装置及び運転支援方法
US10509407B2 (en) * 2016-07-01 2019-12-17 Samsung Electronics Co., Ltd. Apparatus and method for a vehicle platform
US10852744B2 (en) * 2016-07-01 2020-12-01 Uatc, Llc Detecting deviations in driving behavior for autonomous vehicles
US20180012197A1 (en) 2016-07-07 2018-01-11 NextEv USA, Inc. Battery exchange licensing program based on state of charge of battery pack
EP3269678B1 (de) 2016-07-14 2019-03-06 Toyota Material Handling Manufacturing Sweden AB Flurförderer
EP3269680B1 (de) 2016-07-14 2020-09-30 Toyota Material Handling Manufacturing Sweden AB Flurförderer
US10007264B2 (en) 2016-07-14 2018-06-26 Baidu Usa Llc Autonomous vehicle human driver takeover mechanism using electrodes
EP3269679B1 (de) 2016-07-14 2019-09-11 Toyota Material Handling Manufacturing Sweden AB Flurförderer
US10363958B2 (en) 2016-07-26 2019-07-30 Steering Solutions Ip Holding Corporation Electric power steering mode determination and transitioning
US10232856B2 (en) 2016-07-28 2019-03-19 Ford Global Technologies, Llc Vehicle user-communication system and method
US10160477B2 (en) 2016-08-01 2018-12-25 Steering Solutions Ip Holding Corporation Electric power steering column assembly
US9928734B2 (en) 2016-08-02 2018-03-27 Nio Usa, Inc. Vehicle-to-pedestrian communication systems
US10606264B2 (en) 2016-08-08 2020-03-31 Nissan Motor Co., Ltd. Control method and control device of automatic driving vehicle
US10059318B2 (en) * 2016-08-11 2018-08-28 Goodrich Corporation Emergency brake system with dual input
JP6412070B2 (ja) * 2016-08-12 2018-10-24 トヨタ自動車株式会社 運転支援装置及び運転支援方法
US10543852B2 (en) * 2016-08-20 2020-01-28 Toyota Motor Engineering & Manufacturing North America, Inc. Environmental driver comfort feedback for autonomous vehicle
EP3503068B1 (de) * 2016-08-22 2023-03-29 Sony Mobile Communications Inc. Fahrzeug und steuerungsverfahren
US10189496B2 (en) 2016-08-22 2019-01-29 Steering Solutions Ip Holding Corporation Steering assembly having a telescope drive lock assembly
MX2019001857A (es) * 2016-08-29 2019-11-12 Crinklaw Farm Services Inc Sistema y metodo agricola robotico.
CN107701712B (zh) * 2016-08-30 2021-10-01 宁波高发汽车控制***股份有限公司 一种无人驾驶汽车换挡器执行机构控制***
US10663965B2 (en) * 2016-09-01 2020-05-26 Ford Global Technologies, Llc Permissions for partially autonomous vehicle operation
CA3026002C (en) * 2016-09-06 2021-04-20 Advanced Intelligent Systems Inc. Mobile work station for transporting a plurality of articles
US10384708B2 (en) 2016-09-12 2019-08-20 Steering Solutions Ip Holding Corporation Intermediate shaft assembly for steer-by-wire steering system
US10650621B1 (en) 2016-09-13 2020-05-12 Iocurrents, Inc. Interfacing with a vehicular controller area network
US10160473B2 (en) 2016-09-13 2018-12-25 Steering Solutions Ip Holding Corporation Steering column decoupling system
US10093322B2 (en) 2016-09-15 2018-10-09 International Business Machines Corporation Automatically providing explanations for actions taken by a self-driving vehicle
US10643256B2 (en) 2016-09-16 2020-05-05 International Business Machines Corporation Configuring a self-driving vehicle for charitable donations pickup and delivery
CN109789779B (zh) * 2016-09-16 2022-03-04 富士胶片株式会社 投影型显示装置及其控制方法
US10346152B2 (en) 2016-09-20 2019-07-09 At&T Intellectual Property I, L.P. Facilitating use of a universal integrated circuit card (UICC) for secure device updates
US10144383B2 (en) 2016-09-29 2018-12-04 Steering Solutions Ip Holding Corporation Steering wheel with video screen and airbag
US10683171B2 (en) 2016-09-30 2020-06-16 Staples, Inc. Hybrid modular storage fetching system
CA3038898A1 (en) 2016-09-30 2018-04-05 Staples, Inc. Hybrid modular storage fetching system
US10589931B2 (en) 2016-09-30 2020-03-17 Staples, Inc. Hybrid modular storage fetching system
US10399591B2 (en) 2016-10-03 2019-09-03 Steering Solutions Ip Holding Corporation Steering compensation with grip sensing
US11155267B2 (en) 2016-10-11 2021-10-26 Samsung Electronics Co., Ltd. Mobile sensor platform
US10239552B2 (en) 2016-10-14 2019-03-26 Steering Solutions Ip Holding Corporation Rotation control assembly for a steering column
US10481602B2 (en) * 2016-10-17 2019-11-19 Steering Solutions Ip Holding Corporation Sensor fusion for autonomous driving transition control
US9829883B1 (en) 2016-10-17 2017-11-28 Ford Global Technologies, Llc Trailer backup assist system having remote control and user sight management
CN107972660A (zh) * 2016-10-19 2018-05-01 法乐第(北京)网络科技有限公司 一种自动驾驶***
JP7061964B2 (ja) * 2016-11-01 2022-05-02 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ データ生成方法及びデータ生成装置
US9663118B1 (en) * 2016-11-02 2017-05-30 Smartdrive Systems, Inc. Autonomous vehicle operator performance tracking
US9823657B1 (en) 2016-11-02 2017-11-21 Smartdrive Systems, Inc. Measuring operator readiness and readiness testing triggering in an autonomous vehicle
US10528055B2 (en) * 2016-11-03 2020-01-07 Ford Global Technologies, Llc Road sign recognition
DE102016221690A1 (de) * 2016-11-04 2018-05-09 Audi Ag Verfahren zum Übertragen von Datenpaketen zwischen einem Ethernet und einem Bussystem in einem Kraftfahrzeug sowie Gatewayvorrichtung und Kraftfahrzeug
US10031523B2 (en) 2016-11-07 2018-07-24 Nio Usa, Inc. Method and system for behavioral sharing in autonomous vehicles
US10694357B2 (en) 2016-11-11 2020-06-23 Nio Usa, Inc. Using vehicle sensor data to monitor pedestrian health
US10708547B2 (en) 2016-11-11 2020-07-07 Nio Usa, Inc. Using vehicle sensor data to monitor environmental and geologic conditions
US10410064B2 (en) 2016-11-11 2019-09-10 Nio Usa, Inc. System for tracking and identifying vehicles and pedestrians
US10310605B2 (en) 2016-11-15 2019-06-04 Steering Solutions Ip Holding Corporation Haptic feedback for steering system controls
US10421475B2 (en) 2016-11-15 2019-09-24 Steering Solutions Ip Holding Corporation Electric actuator mechanism for retractable steering column assembly with manual override
US10699305B2 (en) 2016-11-21 2020-06-30 Nio Usa, Inc. Smart refill assistant for electric vehicles
US9862403B1 (en) 2016-11-29 2018-01-09 Steering Solutions Ip Holding Corporation Manually retractable steering column assembly for autonomous vehicle
US10351160B2 (en) 2016-11-30 2019-07-16 Steering Solutions Ip Holding Corporation Steering column assembly having a sensor assembly
US10249104B2 (en) 2016-12-06 2019-04-02 Nio Usa, Inc. Lease observation and event recording
US10780915B2 (en) 2016-12-07 2020-09-22 Steering Solutions Ip Holding Corporation Vehicle steering system having a user experience based automated driving to manual driving transition system and method
US9811086B1 (en) 2016-12-14 2017-11-07 Uber Technologies, Inc. Vehicle management system
US10671063B2 (en) 2016-12-14 2020-06-02 Uatc, Llc Vehicle control device
US10395441B2 (en) 2016-12-14 2019-08-27 Uber Technologies, Inc. Vehicle management system
DE102016225516B4 (de) * 2016-12-20 2019-11-14 Bayerische Motoren Werke Aktiengesellschaft Messsystem und Messverfahren für ein Fahrzeug
CN106656712A (zh) * 2016-12-30 2017-05-10 深圳市优必选科技有限公司 用于总线的异常处理方法、用于机器人的控制器
US10259452B2 (en) 2017-01-04 2019-04-16 International Business Machines Corporation Self-driving vehicle collision management system
US10529147B2 (en) 2017-01-05 2020-01-07 International Business Machines Corporation Self-driving vehicle road safety flare deploying system
US10363893B2 (en) 2017-01-05 2019-07-30 International Business Machines Corporation Self-driving vehicle contextual lock control system
CN106878127B (zh) * 2017-01-09 2019-12-31 浙江大学 带有新型视频监控的水下机器人有线操控***
US10074223B2 (en) 2017-01-13 2018-09-11 Nio Usa, Inc. Secured vehicle for user use only
US10031521B1 (en) 2017-01-16 2018-07-24 Nio Usa, Inc. Method and system for using weather information in operation of autonomous vehicles
US9984572B1 (en) 2017-01-16 2018-05-29 Nio Usa, Inc. Method and system for sharing parking space availability among autonomous vehicles
US10471829B2 (en) 2017-01-16 2019-11-12 Nio Usa, Inc. Self-destruct zone and autonomous vehicle navigation
US10286915B2 (en) 2017-01-17 2019-05-14 Nio Usa, Inc. Machine learning for personalized driving
DE102017200655A1 (de) 2017-01-17 2018-07-19 Audi Ag Verfahren zum Bereitstellen von aktuatorbasierten Fahrzeugfunktionen in einem Kraftfahrzeug sowie Kraftfahrzeug-Recheneinrichtung und Kraftfahrzeug
US10464530B2 (en) 2017-01-17 2019-11-05 Nio Usa, Inc. Voice biometric pre-purchase enrollment for autonomous vehicles
WO2018133076A1 (zh) * 2017-01-22 2018-07-26 四川金瑞麒智能科学技术有限公司 一种智能轮椅的机械传动控制方法与***
JP7262776B2 (ja) 2017-01-26 2023-04-24 ザ・リージェンツ・オブ・ザ・ユニバーシティ・オブ・ミシガン シーンの2次元表現を生成する方法、及び、移動可能な物体の位置を判定するための方法
JP6773574B2 (ja) * 2017-01-30 2020-10-21 ヤンマーパワーテクノロジー株式会社 作業車両制御装置
DE102017000841A1 (de) * 2017-01-31 2018-08-02 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Starten eines Kraftfahrzeugantriebs
JP6617726B2 (ja) * 2017-02-01 2019-12-11 トヨタ自動車株式会社 運転制御装置
US10897469B2 (en) 2017-02-02 2021-01-19 Nio Usa, Inc. System and method for firewalls between vehicle networks
US10538268B2 (en) * 2017-02-07 2020-01-21 Ford Global Technologies, Llc Steering-wheel control mechanism for autonomous vehicle
US10259496B2 (en) 2017-02-07 2019-04-16 Ford Global Technologies, Llc Steering-wheel feedback mechanism
EP3360757B1 (de) 2017-02-10 2019-10-02 Volvo Car Corporation Lenkdrehmomentverwalter für ein verbessertes fahrerassistenzsystem eines strassenfahrzeugs
US10370022B2 (en) 2017-02-13 2019-08-06 Steering Solutions Ip Holding Corporation Steering column assembly for autonomous vehicle
US10385930B2 (en) 2017-02-21 2019-08-20 Steering Solutions Ip Holding Corporation Ball coupling assembly for steering column assembly
IL250762B (en) * 2017-02-23 2020-09-30 Appelman Dina Method and system for unmanned vehicle navigation
US10220857B2 (en) 2017-02-23 2019-03-05 Uber Technologies, Inc. Vehicle control system
CA3055702A1 (en) 2017-03-07 2018-09-13 Nissan Motor Co., Ltd. Traveling assistance method and driving control device
US10152060B2 (en) 2017-03-08 2018-12-11 International Business Machines Corporation Protecting contents of a smart vault being transported by a self-driving vehicle
JP6690581B2 (ja) * 2017-03-09 2020-04-28 オムロン株式会社 運転モード切替制御装置、方法およびプログラム
DE102018105406B4 (de) * 2017-03-10 2022-11-03 Steering Solutions Ip Holding Corporation System und verfahren zur lenkungssteuerung für ein autonomes fahrzeug
EP3375696B1 (de) 2017-03-17 2019-11-20 Volvo Car Corporation Lenkdrehmomentverwalter für ein verbessertes fahrerassistenzsystem eines strassenfahrzeugs
US11087200B2 (en) 2017-03-17 2021-08-10 The Regents Of The University Of Michigan Method and apparatus for constructing informative outcomes to guide multi-policy decision making
US10150432B2 (en) 2017-03-20 2018-12-11 Ford Global Technologies, Llc Autonomous vehicle conversion
EP3378733B1 (de) 2017-03-20 2020-01-15 Volvo Car Corporation Vorrichtung und verfahren für situationsabhängige lenkradwinkelsteuerung (had- oder adas)
EP3378731B1 (de) * 2017-03-20 2020-01-15 Volvo Car Corporation Vorrichtung und verfahren für fahreraktivitätsabhängiges lenkradwinkelsteuergerät (adas)
US10661764B1 (en) 2017-03-28 2020-05-26 Apple Inc. Braking system control state transitions
US10168697B2 (en) 2017-03-31 2019-01-01 At&T Intellectual Property I, L.P. Assistance for an autonomous vehicle using crowd-sourced responses
WO2018186387A1 (ja) * 2017-04-03 2018-10-11 テイ・エス テック株式会社 生体センサーの配置構造
CN106990789B (zh) * 2017-04-11 2021-08-31 北京机械设备研究所 一种特种环境侦查***及特种环境的快速侦察方法
US10449927B2 (en) 2017-04-13 2019-10-22 Steering Solutions Ip Holding Corporation Steering system having anti-theft capabilities
US10838422B2 (en) * 2017-04-13 2020-11-17 Panasonic Intellectual Property Corporation Of America Information processing method and information processing apparatus
US10317907B2 (en) * 2017-04-28 2019-06-11 GM Global Technology Operations LLC Systems and methods for obstacle avoidance and path planning in autonomous vehicles
US10086809B1 (en) * 2017-05-02 2018-10-02 Delphi Technologies, Inc. Automatic braking system
BE1024929B1 (nl) 2017-05-09 2018-08-13 Cnh Industrial Belgium Nv Verbeteringen in of met betrekking tot voertuig/aanhangwagen-combinaties
US20220375335A1 (en) 2017-05-17 2022-11-24 Cavh Llc Autonomous Vehicle and Cloud Control System
US10692365B2 (en) 2017-06-20 2020-06-23 Cavh Llc Intelligent road infrastructure system (IRIS): systems and methods
GB201707973D0 (en) 2017-05-18 2017-07-05 Jaguar Land Rover Ltd A vehicle control system, method and computer program for a vehicle control multilayer architecture
KR20200013657A (ko) 2017-06-02 2020-02-07 에이비 엘렉트로룩스 로봇 청소 장치 전방의 표면의 레벨차를 검출하는 방법
EP3639167A4 (de) * 2017-06-16 2021-02-17 Bayerische Motoren Werke Aktiengesellschaft Verfahren und vorrichtung zur auswahl einer karte für ein bewegtes objekt, system und fahrzeug/roboter
CN109116861A (zh) * 2017-06-23 2019-01-01 无锡飞天侠科技有限公司 一种无人机地面控制***
US10343698B2 (en) 2017-06-27 2019-07-09 Uber Technologies, Inc. Disabling onboard input devices in an autonomous vehicle
US10234302B2 (en) 2017-06-27 2019-03-19 Nio Usa, Inc. Adaptive route and motion planning based on learned external and internal vehicle environment
EP3421308B1 (de) * 2017-06-29 2021-08-11 Volvo Car Corporation Verfahren und fahrzeug zur aktivierung eines autonomen bremsmanövers
KR102064220B1 (ko) * 2017-07-06 2020-01-09 엘지전자 주식회사 차량용 주행 시스템 및 차량
US10369974B2 (en) 2017-07-14 2019-08-06 Nio Usa, Inc. Control and coordination of driverless fuel replenishment for autonomous vehicles
US10710633B2 (en) 2017-07-14 2020-07-14 Nio Usa, Inc. Control of complex parking maneuvers and autonomous fuel replenishment of driverless vehicles
US10300789B2 (en) * 2017-07-25 2019-05-28 Denso International America, Inc. Vehicle heads-up display
US10585429B2 (en) * 2017-08-01 2020-03-10 Dynamic Research, Inc. Robotic steering controller for optimal free response evaluation
US10837790B2 (en) 2017-08-01 2020-11-17 Nio Usa, Inc. Productive and accident-free driving modes for a vehicle
EP3441837B1 (de) * 2017-08-07 2023-11-15 Nokia Solutions and Networks Oy Unbemannte fahrzeuge
WO2019035997A1 (en) 2017-08-17 2019-02-21 Sri International ADVANCED CONTROL SYSTEM HAVING MULTIPLE CONTROL PARADIGMS
US20190066548A1 (en) * 2017-08-22 2019-02-28 Ford Global Technologies, Llc Vehicle emblem assembly
US11460842B2 (en) * 2017-08-28 2022-10-04 Motional Ad Llc Mixed-mode driving of a vehicle having autonomous driving capabilities
US11112793B2 (en) 2017-08-28 2021-09-07 Motional Ad Llc Mixed-mode driving of a vehicle having autonomous driving capabilities
US20190064805A1 (en) * 2017-08-28 2019-02-28 nuTonomy Inc. Mixed-mode driving of a vehicle having autonomous driving capabilities
WO2019043446A1 (en) 2017-09-04 2019-03-07 Nng Software Developing And Commercial Llc METHOD AND APPARATUS FOR COLLECTING AND USING SENSOR DATA FROM A VEHICLE
DE102017215592A1 (de) * 2017-09-05 2019-03-07 Volkswagen Aktiengesellschaft Fahrassistenzvorrichtung eingerichtet zur teilautonomen und vollautonomen Führung eines Kraftfahrzeugs, Verfahren und Kraftfahrzeug
US11430331B2 (en) 2017-09-08 2022-08-30 Uatc, Llc Power and thermal management systems and methods for autonomous vehicles
CN109509210B (zh) * 2017-09-15 2020-11-24 百度在线网络技术(北京)有限公司 障碍物跟踪方法和装置
DE102017216457A1 (de) * 2017-09-18 2019-03-21 Robert Bosch Gmbh Verfahren zur Bestimmung einer maximalen Geschwindigkeit eines Fahrzeugs während eines Einparkmanövers
CN111093447B (zh) 2017-09-26 2022-09-02 伊莱克斯公司 机器人清洁设备的移动控制
US10635109B2 (en) 2017-10-17 2020-04-28 Nio Usa, Inc. Vehicle path-planner monitor and controller
KR102106875B1 (ko) * 2017-10-24 2020-05-08 엔에이치엔 주식회사 차량학습에 기반한 자율주행 중 사고 회피 시스템 및 방법
US10606274B2 (en) 2017-10-30 2020-03-31 Nio Usa, Inc. Visual place recognition based self-localization for autonomous vehicles
US10935978B2 (en) 2017-10-30 2021-03-02 Nio Usa, Inc. Vehicle self-localization using particle filters and visual odometry
US10717412B2 (en) 2017-11-13 2020-07-21 Nio Usa, Inc. System and method for controlling a vehicle using secondary access methods
DE102017220559A1 (de) * 2017-11-17 2019-05-23 Robert Bosch Gmbh Konzept zum Laden eines elektrischen Energiespeichers eines Kraftfahrzeugs
EP3486140B1 (de) 2017-11-20 2021-01-20 Steering Solutions IP Holding Corporation Sichtbasiertes aktives lenksystem
US11347218B2 (en) * 2017-11-21 2022-05-31 Shawn Wang Portable universal autonomous driving system
KR102037324B1 (ko) * 2017-11-30 2019-10-28 엘지전자 주식회사 자율주행 차량 및 그 제어 방법
US10562526B2 (en) 2017-12-11 2020-02-18 Ford Global Technologies, Llc Vehicle component operation
US10647329B2 (en) 2017-12-12 2020-05-12 Uatc, Llc Disengaging autonomous control of vehicle
US20200389469A1 (en) 2017-12-24 2020-12-10 Arilou Information Security Technologies Ltd. System and method for tunnel-based malware detection
US10967875B2 (en) 2018-01-05 2021-04-06 Honda Motor Co., Ltd. Control system for autonomous all-terrain vehicle (ATV)
US10274950B1 (en) 2018-01-06 2019-04-30 Drivent Technologies Inc. Self-driving vehicle systems and methods
US10299216B1 (en) 2018-01-06 2019-05-21 Eric John Wengreen Self-driving vehicle actions in response to a low battery
US11073838B2 (en) 2018-01-06 2021-07-27 Drivent Llc Self-driving vehicle systems and methods
US10303181B1 (en) 2018-11-29 2019-05-28 Eric John Wengreen Self-driving vehicle systems and methods
US10890909B2 (en) 2018-01-09 2021-01-12 International Business Machines Corporation Automobile driving mode determination
CN108182817A (zh) * 2018-01-11 2018-06-19 北京图森未来科技有限公司 自动驾驶辅助***、路侧端辅助***和车载端辅助***
DE102018200388A1 (de) * 2018-01-11 2019-07-11 Robert Bosch Gmbh Verfahren zum Betreiben eines Fahrzeugs mit einem in eine Querdynamik des Fahrzeugs eingreifenden Fahrerassistenzsystem
US11022971B2 (en) * 2018-01-16 2021-06-01 Nio Usa, Inc. Event data recordation to identify and resolve anomalies associated with control of driverless vehicles
US10962973B2 (en) 2018-01-30 2021-03-30 Uatc, Llc Autonomous vehicle safe stop
CA3088142A1 (en) 2018-02-06 2019-08-15 Cavh Llc Intelligent road infrastructure system (iris): systems and methods
JP7063652B2 (ja) * 2018-02-19 2022-05-09 株式会社デンソーテン 車両遠隔操作装置、車両遠隔操作システム及び車両遠隔操作方法
EP3759007B1 (de) * 2018-03-02 2023-10-25 ST Engineering Land Systems Ltd. Hybridantrieb durch drahtsystem für den betrieb eines raupenfahrzeuges
US11269326B2 (en) 2018-03-07 2022-03-08 Mile Auto, Inc. Monitoring and tracking mode of operation of vehicles to determine services
JP2019155957A (ja) * 2018-03-07 2019-09-19 本田技研工業株式会社 車両用制御装置及び車両
US11027420B2 (en) 2018-03-14 2021-06-08 Fedex Corporate Services, Inc. Modular cargo storage apparatus for use on a base platform of a modular autonomous bot apparatus that transports an item being shipped
US10875566B2 (en) 2018-03-22 2020-12-29 Steering Solutions Ip Holding Corporation Stow release assembly for a manually adjustable steering column assembly
US10906536B2 (en) 2018-04-11 2021-02-02 Aurora Innovation, Inc. Control of autonomous vehicle based on determined yaw parameter(s) of additional vehicle
US11550061B2 (en) 2018-04-11 2023-01-10 Aurora Operations, Inc. Control of autonomous vehicle based on environmental object classification determined using phase coherent LIDAR data
EP3928329B1 (de) 2018-04-23 2024-04-03 SharkNinja Operating LLC Verfahren zur begrenzung von reinigungsoperationen einer robotischen oberflächenreinigungsvorrichtung innerhalb eines interessierenden bereichs
WO2019204931A1 (en) * 2018-04-25 2019-10-31 Flir Unmanned Aerial Systems Ulc Systems and methods for communicating with payload on an unmanned vehicle
US10908609B2 (en) * 2018-04-30 2021-02-02 Toyota Research Institute, Inc. Apparatus and method for autonomous driving
US10899006B2 (en) 2018-05-01 2021-01-26 X Development Llc Robot navigation using 2D and 3D path planning
US11641790B2 (en) 2018-05-09 2023-05-09 Deere & Company Method of planning a path for a vehicle having a work tool and a vehicle path planning system
EP3794421A4 (de) 2018-05-09 2022-12-21 Cavh Llc Systeme und verfahren zur fahrintelligenzzuweisung zwischen fahrzeugen und autobahnen
EP3797377A1 (de) * 2018-05-22 2021-03-31 Starship Technologies OÜ Verfahren und system zur analyse von roboterumgebungen
US10369966B1 (en) 2018-05-23 2019-08-06 Nio Usa, Inc. Controlling access to a vehicle using wireless access devices
CN108480950B (zh) * 2018-05-24 2023-07-25 刘玉华 一种用于自动更换部件的设备
JP7059806B2 (ja) * 2018-05-29 2022-04-26 株式会社オートネットワーク技術研究所 車載通信システム、車載中継装置、通信プログラム及び通信方法
US20190367019A1 (en) * 2018-05-31 2019-12-05 TuSimple System and method for proximate vehicle intention prediction for autonomous vehicles
US11104334B2 (en) 2018-05-31 2021-08-31 Tusimple, Inc. System and method for proximate vehicle intention prediction for autonomous vehicles
WO2019246246A1 (en) 2018-06-20 2019-12-26 Cavh Llc Connected automated vehicle highway systems and methods related to heavy vehicles
US20210356279A1 (en) 2018-07-08 2021-11-18 Nng Software Developing And Commercial Llc. A Method and Apparatus for Optimal Navigation to Multiple Locations
WO2020014224A1 (en) 2018-07-10 2020-01-16 Cavh Llc Fixed-route service system for cavh systems
WO2020014227A1 (en) * 2018-07-10 2020-01-16 Cavh Llc Route-specific services for connected automated vehicle highway systems
US10564641B2 (en) 2018-07-20 2020-02-18 May Mobility, Inc. Multi-perspective system and method for behavioral policy selection by an autonomous agent
US10614709B2 (en) 2018-07-24 2020-04-07 May Mobility, Inc. Systems and methods for implementing multimodal safety operations with an autonomous agent
US10466057B1 (en) 2018-07-30 2019-11-05 Wesley Edward Schwie Self-driving vehicle systems and methods
US10974756B2 (en) 2018-07-31 2021-04-13 Steering Solutions Ip Holding Corporation Clutch device latching system and method
US11738643B2 (en) 2019-02-27 2023-08-29 Clark Equipment Company Display integrated into door
CA3108621A1 (en) 2018-08-06 2020-02-13 Clark Equipment Company Augmented loader controls
US11590997B1 (en) 2018-08-07 2023-02-28 Staples, Inc. Autonomous shopping cart
US11084410B1 (en) 2018-08-07 2021-08-10 Staples, Inc. Automated guided vehicle for transporting shelving units
US11630447B1 (en) 2018-08-10 2023-04-18 Staples, Inc. Automated guided vehicle for transporting objects
US10683067B2 (en) * 2018-08-10 2020-06-16 Buffalo Automation Group Inc. Sensor system for maritime vessels
US10765026B2 (en) 2018-08-17 2020-09-01 Microsoft Technology Licensing, Llc Automated data center
US20210325868A1 (en) * 2018-08-23 2021-10-21 Precision Planting Llc Expandable network architecture for communications between machines and implements
EP3617828A1 (de) 2018-08-28 2020-03-04 Nilfisk A/S Autonomes oberflächenbehandlungsfahrzeug mit schnellwandmodus
US10858033B2 (en) * 2018-08-29 2020-12-08 Steering Solutions Ip Holding Corporation Driver intervention detection during steering column assembly power stowing and unstowing
US11513526B2 (en) 2018-08-30 2022-11-29 Elta Systems Ltd. Method of navigating a vehicle and system thereof
CN109186463B (zh) * 2018-09-04 2021-12-07 浙江梧斯源通信科技股份有限公司 应用于可移动机器人的防跌落方法
US11487300B2 (en) * 2018-09-13 2022-11-01 Toyota Motor Engineering & Manufacturing North America, Inc. Home improvement store autonomous workhorse
US10223844B1 (en) 2018-09-18 2019-03-05 Wesley Edward Schwie Self-driving vehicle systems and methods
US10471804B1 (en) 2018-09-18 2019-11-12 Drivent Llc Self-driving vehicle systems and methods
US10493952B1 (en) 2019-03-21 2019-12-03 Drivent Llc Self-driving vehicle systems and methods
US10479319B1 (en) 2019-03-21 2019-11-19 Drivent Llc Self-driving vehicle systems and methods
US10282625B1 (en) 2018-10-01 2019-05-07 Eric John Wengreen Self-driving vehicle systems and methods
US10289922B1 (en) 2018-09-18 2019-05-14 Eric John Wengreen System for managing lost, mislaid, or abandoned property in a self-driving vehicle
CN109035740A (zh) * 2018-09-27 2018-12-18 上海节卡机器人科技有限公司 机器人的控制方法、装置和远程控制***
US10794714B2 (en) 2018-10-01 2020-10-06 Drivent Llc Self-driving vehicle systems and methods
US10900792B2 (en) 2018-10-22 2021-01-26 Drivent Llc Self-driving vehicle systems and methods
US11221621B2 (en) 2019-03-21 2022-01-11 Drivent Llc Self-driving vehicle systems and methods
US11644833B2 (en) 2018-10-01 2023-05-09 Drivent Llc Self-driving vehicle systems and methods
US10832569B2 (en) 2019-04-02 2020-11-10 Drivent Llc Vehicle detection systems
KR102574289B1 (ko) * 2018-10-08 2023-09-05 주식회사 에이치엘클레무브 후진 주행 제어 장치 및 그 후진 주행 제어 방법
US10240938B1 (en) 2018-10-22 2019-03-26 Drivent Technologies Inc. Self-driving vehicle systems and methods
WO2020086557A1 (en) * 2018-10-24 2020-04-30 Discovery Robotics Apparatus and method for operations of a robotic platform
JP6998287B2 (ja) * 2018-10-29 2022-02-10 ヤンマーパワーテクノロジー株式会社 走行車両
US10474154B1 (en) 2018-11-01 2019-11-12 Drivent Llc Self-driving vehicle systems and methods
US10286908B1 (en) 2018-11-01 2019-05-14 Eric John Wengreen Self-driving vehicle systems and methods
US11403492B2 (en) 2018-11-02 2022-08-02 Aurora Operations, Inc. Generating labeled training instances for autonomous vehicles
US11256263B2 (en) 2018-11-02 2022-02-22 Aurora Operations, Inc. Generating targeted training instances for autonomous vehicles
US11829143B2 (en) 2018-11-02 2023-11-28 Aurora Operations, Inc. Labeling autonomous vehicle data
US11086319B2 (en) 2018-11-02 2021-08-10 Aurora Operations, Inc. Generating testing instances for autonomous vehicles
US11163312B2 (en) 2018-11-02 2021-11-02 Aurora Operations, Inc. Removable automotive LIDAR data collection POD
US11209821B2 (en) 2018-11-02 2021-12-28 Aurora Operations, Inc. Labeling autonomous vehicle data
US11214967B1 (en) 2018-11-08 2022-01-04 Scepaniak IP Holdings, LLC Roof rock spreader
US11613041B1 (en) 2018-11-08 2023-03-28 Scepaniak IP Holdings, LLC Coping nailer
US11465279B2 (en) * 2018-11-29 2022-10-11 X Development Llc Robot base position planning
US10942516B2 (en) 2018-12-12 2021-03-09 Valeo Schalter Und Sensoren Gmbh Vehicle path updates via remote vehicle control
US10908604B2 (en) * 2018-12-14 2021-02-02 Valeo Schalter Und Sensoren Gmbh Remote operation of vehicles in close-quarter environments
US11543531B2 (en) 2018-12-19 2023-01-03 Fca Us Llc Semi-automatic LIDAR annotation system for autonomous driving
US10816635B1 (en) 2018-12-20 2020-10-27 Autonomous Roadway Intelligence, Llc Autonomous vehicle localization system
US10820349B2 (en) 2018-12-20 2020-10-27 Autonomous Roadway Intelligence, Llc Wireless message collision avoidance with high throughput
DE102018222556A1 (de) * 2018-12-20 2020-06-25 Robert Bosch Gmbh Notstop-Verfahren und Vorrichtung für ein zumindest teilweise automatisiert fahrendes Fahrzeug
US10525881B1 (en) * 2018-12-21 2020-01-07 Robert Bosch Gmbh Wheel orientation warning system
US11119487B2 (en) 2018-12-31 2021-09-14 Staples, Inc. Automated preparation of deliveries in delivery vehicles using automated guided vehicles
US11180069B2 (en) 2018-12-31 2021-11-23 Staples, Inc. Automated loading of delivery vehicles using automated guided vehicles
WO2020148746A1 (en) 2019-01-20 2020-07-23 Arilou Information Security Technologies Ltd. System and method for data compression based on data position in frames structure
CN111464978A (zh) * 2019-01-22 2020-07-28 岳秀兰 主次无线设备通过物联网连接建立的车辆远程驾驶体系
US10377342B1 (en) 2019-02-04 2019-08-13 Drivent Technologies Inc. Self-driving vehicle systems and methods
US10744976B1 (en) 2019-02-04 2020-08-18 Drivent Llc Self-driving vehicle systems and methods
US10969470B2 (en) 2019-02-15 2021-04-06 May Mobility, Inc. Systems and methods for intelligently calibrating infrastructure devices using onboard sensors of an autonomous agent
US11285988B1 (en) 2019-02-18 2022-03-29 Apple Inc. Passenger vehicle and retractable driver input devices thereof
DE102019202182A1 (de) * 2019-02-19 2020-08-20 Zf Friedrichshafen Ag Verfahren zum Steuern eines Nutzfahrzeugs
WO2020170237A1 (en) 2019-02-19 2020-08-27 Edgy Bees Ltd. Estimating real-time delay of a video data stream
US11338848B2 (en) * 2019-02-20 2022-05-24 Caterpillar Inc. Alignment of steering controller angle and machine steering angle for transitioning between manual and autonomous operating modes
CN109814573B (zh) * 2019-02-21 2022-08-02 百度在线网络技术(北京)有限公司 无人驾驶控制方法、装置、设备及计算机可读存储介质
US11367361B2 (en) * 2019-02-22 2022-06-21 Kyndryl, Inc. Emulating unmanned aerial vehicle (UAV)
CL2019000600A1 (es) * 2019-03-11 2019-05-17 Univ Chile Un método de asistencia para la tele-operación de vehículos en túneles, por ejemplo, túneles mineros
US10809734B2 (en) 2019-03-13 2020-10-20 Mobile Industrial Robots A/S Route planning in an autonomous device
US11378951B2 (en) * 2019-03-21 2022-07-05 Lg Electronics Inc. Method for monitoring and controlling autonomous vehicle
JP7287048B2 (ja) * 2019-03-27 2023-06-06 セイコーエプソン株式会社 ロボット
JP7123845B2 (ja) * 2019-03-29 2022-08-23 本田技研工業株式会社 車両制御システム
US11124401B1 (en) 2019-03-31 2021-09-21 Staples, Inc. Automated loading of delivery vehicles
WO2020214787A1 (en) * 2019-04-16 2020-10-22 University Of Louisville Research Foundation, Inc. Adaptive robotic nursing assistant
US11188077B2 (en) * 2019-04-24 2021-11-30 Hyundai Motor Company Apparatus and method for controlling driving of vehicle
US10807527B1 (en) 2019-05-01 2020-10-20 Smartdrive Systems, Inc. Systems and methods for verifying whether vehicle operators are paying attention
US11861957B2 (en) * 2019-05-09 2024-01-02 Argo AI, LLC Time master and sensor data collection for robotic system
US20200356090A1 (en) * 2019-05-09 2020-11-12 Gm Cruise Holdings Llc Client control for an autonomous vehicle ridesharing service
US11518349B2 (en) * 2019-06-06 2022-12-06 Caterpillar Inc. Automatic break application for emergency stop
DE102019208546A1 (de) * 2019-06-12 2020-12-17 Continental Reifen Deutschland Gmbh Reifenaufbauanlage und Verfahren zum Aufbauen eines Reifens
US10713950B1 (en) 2019-06-13 2020-07-14 Autonomous Roadway Intelligence, Llc Rapid wireless communication for vehicle collision mitigation
US10820182B1 (en) 2019-06-13 2020-10-27 David E. Newman Wireless protocols for emergency message transmission
US10939471B2 (en) 2019-06-13 2021-03-02 David E. Newman Managed transmission of wireless DAT messages
US11711238B2 (en) 2019-06-21 2023-07-25 Stevyn Pompelio Methods for operator control unit and payload communication
US11358593B2 (en) 2019-07-09 2022-06-14 King Fahd University Of Petroleum And Minerals Dual direction accident prevention and assistive braking system
US11087477B2 (en) 2019-07-29 2021-08-10 Honda Motor Co., Ltd. Trajectory prediction
JP7344044B2 (ja) * 2019-08-13 2023-09-13 株式会社Subaru 車両用運転支援装置
JP7389582B2 (ja) * 2019-08-21 2023-11-30 株式会社Subaru 車両用運転支援装置
US11422570B2 (en) 2019-08-27 2022-08-23 Ford Global Technologies, Llc Systems and methods for managing a transportation device fleet using teleoperation commands
US11932306B2 (en) 2019-09-14 2024-03-19 Honda Motor Co., Ltd. Trajectory planner
US11927674B2 (en) * 2019-09-16 2024-03-12 Honda Motor Co., Ltd. System and method for providing a comprehensive trajectory planner for a person-following vehicle
KR20220068239A (ko) * 2019-09-20 2022-05-25 소나투스, 인코포레이티드 추가 차량 통신 제어를 위한 시스템, 방법, 및 장치
US11538287B2 (en) * 2019-09-20 2022-12-27 Sonatus, Inc. System, method, and apparatus for managing vehicle data collection
JP7305274B2 (ja) * 2019-09-25 2023-07-10 日立建機株式会社 建設機械
JP7173944B2 (ja) * 2019-10-08 2022-11-16 株式会社クボタ 電動作業車
DE102019216156A1 (de) * 2019-10-21 2021-04-22 Zf Active Safety Gmbh Steuerungssystem und Steuerungsverfahren
US20210122385A1 (en) * 2019-10-28 2021-04-29 Pony Ai Inc. Systems and methods for emergency bus protection in an autonomous vehicle
WO2021097105A1 (en) 2019-11-12 2021-05-20 Clark Equipment Company Display integrated into door
KR20190134554A (ko) 2019-11-15 2019-12-04 엘지전자 주식회사 동적 장애물을 식별하는 방법 및 이를 구현한 로봇
US20220405675A1 (en) * 2019-11-18 2022-12-22 Hyundai Doosan Infracore Co., Ltd. Method of making work plans for construction machinery
US11385058B2 (en) * 2019-11-26 2022-07-12 Toyota Motor Engineering & Manufacturing North America, Inc. Systems, vehicles, and methods for detecting and mapping off-road obstacles
US11318865B2 (en) * 2019-12-13 2022-05-03 Uatc, Llc Autonomous vehicle having a configurable passenger seat
JP7272262B2 (ja) * 2019-12-25 2023-05-12 トヨタ自動車株式会社 車両の代替制動装置
IT202000000025A1 (it) * 2020-01-02 2021-07-02 Alba Robot Srl Dispositivo per la movimentazione autonoma di apparati a rotelle e relativo metodo di installazione
US20210243941A1 (en) * 2020-02-07 2021-08-12 Ag Leader Technology Planter Obstruction Monitoring And Associated Devices And Methods
US11126165B2 (en) 2020-02-11 2021-09-21 Uatc, Llc Vehicle computing system cooling systems
JP6937856B2 (ja) * 2020-02-13 2021-09-22 本田技研工業株式会社 運転支援装置および車両
US11772583B2 (en) 2020-03-06 2023-10-03 Sonatus, Inc. System, method, and apparatus for managing vehicle automation
US11225228B2 (en) * 2020-03-11 2022-01-18 Baidu Usa Llc Method for enhancing in-path obstacle detection with safety redundancy autonomous system
US11592299B2 (en) 2020-03-19 2023-02-28 Mobile Industrial Robots A/S Using static scores to control vehicle operations
US11443624B2 (en) 2020-03-23 2022-09-13 Toyota Motor North America, Inc. Automatic warning of navigating towards a dangerous area or event
US11538343B2 (en) 2020-03-23 2022-12-27 Toyota Motor North America, Inc. Automatic warning of atypical audio indicating a transport event
US11720398B2 (en) 2020-03-31 2023-08-08 Ford Global Technologies, Llc Harvesting vehicle hardware accelerators and GPU computing capabilities when idle
US11685049B2 (en) 2020-04-22 2023-06-27 Boston Dynamics, Inc. Robot localization using variance sampling
CA3178770A1 (en) * 2020-05-14 2021-11-18 Jared Ernest Kocer Obstacle monitoring systems and methods for same
US11608066B1 (en) 2020-05-19 2023-03-21 Waymo Llc Responding to input on a brake pedal of a brake by wire system for an autonomous vehicle
WO2022006418A1 (en) 2020-07-01 2022-01-06 May Mobility, Inc. Method and system for dynamically curating autonomous vehicle policies
WO2022015764A1 (en) * 2020-07-13 2022-01-20 Brain Corporation Systems and methods for engaging brakes on a robotic device
CN111959269A (zh) * 2020-07-20 2020-11-20 易显智能科技有限责任公司 一种油门控制器、车辆安全防护***和方法以及车辆
JP7476329B2 (ja) * 2020-09-23 2024-04-30 上海西邦電気有限公司 レーザ障害物除去装置に適用される設備安全保護方法
US20220089167A1 (en) * 2020-09-24 2022-03-24 Nuro, Inc. Methods and Apparatus for Providing State Estimation in Autonomous Vehicles
US11206169B1 (en) 2020-11-13 2021-12-21 Ultralogic 5G, Llc Asymmetric modulation for high-reliability 5G communications
US20220174867A1 (en) * 2020-12-04 2022-06-09 Scythe Robotics, Inc. Autonomous lawn mower
US11202198B1 (en) 2020-12-04 2021-12-14 Ultralogic 5G, Llc Managed database of recipient addresses for fast 5G message delivery
CN114620019B (zh) * 2020-12-08 2023-08-15 山东新松工业软件研究院股份有限公司 一种四驱开发平台及其制动***和制动方法
CN112666858B (zh) * 2020-12-11 2024-02-06 珠海格力电器股份有限公司 一种机器人的控制装置及机器人
EP4260009A1 (de) 2020-12-14 2023-10-18 May Mobility, Inc. Autonomes fahrzeugsicherheitsplattformsystem und verfahren
JP2024500672A (ja) 2020-12-17 2024-01-10 メイ モビリティー,インコーポレイテッド 自律エージェントの環境表現を動的に更新するための方法およびシステム
US11932213B2 (en) * 2021-03-26 2024-03-19 Toyota Research Institute, Inc. System and method for controlling one or more brakes of a vehicle
IT202100007709A1 (it) 2021-03-29 2022-09-29 Proxima Robotics S R L Dispositivo di navigazione autonoma per robot mobili e metodo di realizzazione di tale dispositivo
JP2024512980A (ja) 2021-04-02 2024-03-21 メイ モビリティー,インコーポレイテッド 不完全な環境情報で自律エージェントを動作させる方法及びシステム
US11622495B2 (en) * 2021-06-01 2023-04-11 Gint Co., Ltd. Method of automatically combining farm vehicle and work machine and farm vehicle
WO2022256249A1 (en) 2021-06-02 2022-12-08 May Mobility, Inc. Method and system for remote assistance of an autonomous agent
US11623637B2 (en) * 2021-06-28 2023-04-11 Ford Global Technologies, Llc Assisted parking maneuvers for vehicles coupled in a towed recharging arrangement
US11984794B2 (en) 2021-10-08 2024-05-14 Dana Heavy Vehicle Systems Group, Llc Cooling and lubrication system for an electric motor and gearbox assembly
WO2023073412A1 (en) * 2021-10-29 2023-05-04 Ptt Exploration And Production Public Company Limited A method and system for controlling motion of a climbing robot
CN113928286B (zh) * 2021-11-25 2022-06-24 华为数字能源技术有限公司 制动模式切换装置和用于车辆的制动控制***
WO2023144523A1 (en) * 2022-01-25 2023-08-03 Gama Healthcare Ltd Methods for controlling the movement of a robot for disinfection
WO2023154568A1 (en) 2022-02-14 2023-08-17 May Mobility, Inc. Method and system for conditional operation of an autonomous agent
US11829155B2 (en) * 2022-02-15 2023-11-28 EarthSense, Inc. System and method for navigating under-canopy robots using multi-sensor fusion
WO2023245227A1 (en) * 2022-06-19 2023-12-28 Mohideen Farlin Anooz Vehicle control arrangement
US20240010209A1 (en) * 2022-07-06 2024-01-11 Gm Cruise Holdings Llc Environmental and electromagnetic seal for autonomous vehicle control systems
US20240036579A1 (en) * 2022-08-01 2024-02-01 Trimble Inc. Avoiding collisions with autonomous off-road vehicles
WO2024038424A1 (en) * 2022-08-19 2024-02-22 Institut Teknologi Bandung Manual control to electric signal control tools on container trucks based on hydraulic motors
CN115469672B (zh) * 2022-11-02 2023-03-07 成都铂升科技有限公司 一种室内分布式灯光机器人集群控制方法
CN115743001B (zh) * 2022-11-29 2024-05-28 重庆长安汽车股份有限公司 车辆控制方法、装置、电子设备、存储介质及程序产品

Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5170352A (en) 1990-05-07 1992-12-08 Fmc Corporation Multi-purpose autonomous vehicle with path plotting
US5684696A (en) 1990-02-05 1997-11-04 Caterpillar Inc. System and method for enabling an autonomous vehicle to track a desired path
US6434462B1 (en) 2001-06-28 2002-08-13 Deere & Company GPS control of a tractor-towed implement
US20030038842A1 (en) 1998-02-17 2003-02-27 National Instruments Corporation System and method for configuring a reconfigurable system
US6535793B2 (en) 2000-05-01 2003-03-18 Irobot Corporation Method and system for remote control of mobile robot
US6633800B1 (en) 2001-01-31 2003-10-14 Ainsworth Inc. Remote control system
US6694260B1 (en) 2003-05-09 2004-02-17 Deere & Company Inertial augmentation for GPS navigation on ground vehicles
US6789014B1 (en) 2003-05-09 2004-09-07 Deere & Company Direct modification of DGPS information with inertial measurement data
US6813557B2 (en) 2003-03-27 2004-11-02 Deere & Company Method and system for controlling a vehicle having multiple control modes
US6845297B2 (en) 2000-05-01 2005-01-18 Irobot Corporation Method and system for remote control of mobile robot
US6901319B1 (en) 2004-07-06 2005-05-31 Deere & Company System and method for controlling a ground vehicle
US10972082B2 (en) 2019-03-17 2021-04-06 Nparbor, Inc. Method and apparatus for cross correlation
US10971718B2 (en) 2014-05-27 2021-04-06 Gentex Corporation Electrochemical energy storage devices
US10971724B2 (en) 2018-10-15 2021-04-06 Global Graphene Group, Inc. Method of producing electrochemically stable anode particulates for lithium secondary batteries

Family Cites Families (118)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6337552B1 (en) 1999-01-20 2002-01-08 Sony Corporation Robot apparatus
DE2715608C3 (de) * 1977-04-07 1983-04-28 Gebr.Claas Maschinenfabrik GmbH, 4834 Harsewinkel Schaltvorrichtung für Lenkautomaten an landwirtschaftlichen Maschinen
US4202037A (en) * 1977-04-22 1980-05-06 Der Loos Hendrik Van Computer microscope apparatus and method for superimposing an electronically-produced image from the computer memory upon the image in the microscope's field of view
GB2039078B (en) * 1978-12-27 1982-11-24 Ibm Sampled data servo positioning system
US4361202A (en) 1979-06-15 1982-11-30 Michael Minovitch Automated road transportation system
GB2128842B (en) 1982-08-06 1986-04-16 Univ London Method of presenting visual information
DE3404202A1 (de) 1984-02-07 1987-05-14 Wegmann & Co Einrichtung zur ferngesteuerten fuehrung von kampfpanzern
US4579209A (en) * 1984-04-30 1986-04-01 Butterworth Inc. Clutch and throttle system for remote control of engine speed
US4791544A (en) 1984-09-21 1988-12-13 Veeco Instruments Regulating control for single-ended switching power supply
CA1311852C (en) 1987-01-09 1992-12-22 James R. Allard Knowledge acquisition tool for automated knowledge extraction
US4987402A (en) 1987-01-21 1991-01-22 Electronic Security Products Of California Alarm system for sensing and vocally warning of an unauthorized approach towards a protected object or zone
US5220497A (en) 1987-11-20 1993-06-15 North American Philips Corp. Method and apparatus for controlling high speed vehicles
DE3800077A1 (de) * 1988-01-05 1989-07-13 Bosch Gmbh Robert Dezentrale ein/ausgabebaugruppe fuer elektronische steuerungen
US4945647A (en) 1989-03-23 1990-08-07 Allied-Signal Inc. North finding system
US5610815A (en) * 1989-12-11 1997-03-11 Caterpillar Inc. Integrated vehicle positioning and navigation system, apparatus and method
WO1991009375A1 (en) 1989-12-11 1991-06-27 Caterpillar Inc. Integrated vehicle positioning and navigation system, apparatus and method
US5227973A (en) 1991-02-26 1993-07-13 Siemens Corporate Research, Inc. Control arbitration system for a mobile robot vehicle
US5245422A (en) 1991-06-28 1993-09-14 Zexel Corporation System and method for automatically steering a vehicle within a lane in a road
US6400996B1 (en) 1999-02-01 2002-06-04 Steven M. Hoffberg Adaptive pattern recognition based control system and method
DE4200694B4 (de) * 1992-01-14 2004-04-29 Robert Bosch Gmbh Verfahren zur Geschwindigkeits- und Abstandsregelung eines Fahrzeugs
DE4392671C2 (de) * 1992-06-10 2000-06-21 Ford Werke Ag Kommunikationssystem für Kraftfahrzeuge
US5563478A (en) * 1992-08-18 1996-10-08 Nikon Corporation Drive control device for an ultrasonic motor
US5455409A (en) 1993-08-16 1995-10-03 Texas Digital Systems, Inc. Apparatus and method for monitoring a plurality of coded articles and for identifying the location of selected articles
US5662849A (en) * 1993-09-10 1997-09-02 Fulsz Technologies Ltd. Method and apparatus for forming compression dosage units within the product package
JP2944867B2 (ja) * 1993-10-26 1999-09-06 三菱電機株式会社 電動パワーステアリング制御装置
US5511147A (en) * 1994-01-12 1996-04-23 Uti Corporation Graphical interface for robot
JP3186401B2 (ja) 1994-02-10 2001-07-11 三菱電機株式会社 車両用距離データ処理装置
DE4415497C1 (de) 1994-05-03 1995-05-24 Siemens Ag Wegesuchverfahren für eine selbstbewegliche mobile Einheit
US5675229A (en) * 1994-09-21 1997-10-07 Abb Robotics Inc. Apparatus and method for adjusting robot positioning
DE19507957C1 (de) 1995-03-07 1996-09-12 Daimler Benz Ag Fahrzeug mit optischer Abtasteinrichtung für einen seitlichen Fahrbahnbereich
US5652849A (en) 1995-03-16 1997-07-29 Regents Of The University Of Michigan Apparatus and method for remote control using a visual information stream
US5873853A (en) * 1995-05-23 1999-02-23 Baxter International Inc. Portable pump apparatus for continuous ambulatory peritoneal dialysis and a method for providing same
US6418324B1 (en) * 1995-06-01 2002-07-09 Padcom, Incorporated Apparatus and method for transparent wireless communication between a remote device and host system
US6053270A (en) 1995-11-02 2000-04-25 Honda Giken Kogyo Kabushiki Kaisha Steering angle correcting system in vehicle
US6008985A (en) * 1995-11-20 1999-12-28 The Foxboro Company Industrial field controlling device with controller and expansion modules
US5794164A (en) * 1995-11-29 1998-08-11 Microsoft Corporation Vehicle computer system
US5715902A (en) 1996-01-29 1998-02-10 The United States Of America As Represented By The Secretary Of The Army Retrofit unit for vehicle steering mechanism
JP3581911B2 (ja) 1996-06-07 2004-10-27 コニカミノルタホールディングス株式会社 移動走行車
US5831826A (en) * 1996-09-20 1998-11-03 Motorola, Inc. Heat transfer apparatus suitable for use in a circuit board assembly
US6169742B1 (en) * 1997-02-14 2001-01-02 Advanced Micro Devices, Inc. Multiport data network switch having direct media access control link to external management
US6108031A (en) 1997-05-08 2000-08-22 Kaman Sciences Corporation Virtual reality teleoperated remote control vehicle
US6253161B1 (en) * 1997-07-10 2001-06-26 Universite Laval Integrated motion vision sensor
WO1999005580A2 (de) 1997-07-23 1999-02-04 Duschek Horst Juergen Verfahren zum kontrollieren eines unbemannten fortbewegungsmittels und unbemanntes fortbewegungsmittelsystem zum durchführen dieses verfahrens
JPH11144185A (ja) 1997-09-03 1999-05-28 Honda Motor Co Ltd 自動運転制御誘導システム
US6198992B1 (en) 1997-10-10 2001-03-06 Trimble Navigation Limited Override for guidance control system
JPH11149315A (ja) 1997-11-19 1999-06-02 Mitsubishi Heavy Ind Ltd ロボット制御システム
US6055042A (en) 1997-12-16 2000-04-25 Caterpillar Inc. Method and apparatus for detecting obstacles using multiple sensors for range selective detection
US5984880A (en) 1998-01-20 1999-11-16 Lander; Ralph H Tactile feedback controlled by various medium
US6233504B1 (en) 1998-04-16 2001-05-15 California Institute Of Technology Tool actuation and force feedback on robot-assisted microsurgery system
US6356819B1 (en) * 1998-04-20 2002-03-12 Trimble Navigation Limited Safety system for guidance control system
US6243759B1 (en) 1998-05-08 2001-06-05 International Business Machines Corporation Method and system for configuring dynamic interfaces
AU4690899A (en) * 1998-06-18 2000-01-05 Kline & Walker Llc Automated devices to control equipment and machines with remote control and accountability worldwide
JP4014731B2 (ja) 1998-07-08 2007-11-28 矢崎総業株式会社 リングネットワークシステム
DE19832531A1 (de) * 1998-07-22 2000-02-10 Bosch Gmbh Robert Steuerung für eine Mehrzahl von elektrischen Verbrauchern eines Kraftfahrzeugs
US6088020A (en) * 1998-08-12 2000-07-11 Mitsubishi Electric Information Technology Center America, Inc. (Ita) Haptic device
US6113395A (en) * 1998-08-18 2000-09-05 Hon; David C. Selectable instruments with homing devices for haptic virtual reality medical simulation
JP2000094373A (ja) 1998-09-28 2000-04-04 Katsunori Takahashi インターネットロボット
US6259980B1 (en) * 1998-10-21 2001-07-10 Northrop Grumman Corporation Automated control system for remote vehicles
US6236916B1 (en) 1999-03-29 2001-05-22 Caterpillar Inc. Autoguidance system and method for an agricultural machine
JP4197209B2 (ja) 1999-05-21 2008-12-17 株式会社小松製作所 車両の無人走行システム
JP4623897B2 (ja) 1999-06-24 2011-02-02 シーメンス アクチエンゲゼルシヤフト 船の推進駆動システム
US6714121B1 (en) * 1999-08-09 2004-03-30 Micron Technology, Inc. RFID material tracking method and apparatus
US6480762B1 (en) 1999-09-27 2002-11-12 Olympus Optical Co., Ltd. Medical apparatus supporting system
WO2001026328A2 (en) * 1999-10-06 2001-04-12 Sensoria Corporation Apparatus for networking sensors
JP3595468B2 (ja) * 1999-11-02 2004-12-02 ペンタックス株式会社 双眼鏡とその製造方法
US6678155B1 (en) * 1999-12-14 2004-01-13 Hewlett-Packard Company Modular system of internet service provider focused computer services
JP4233723B2 (ja) * 2000-02-28 2009-03-04 本田技研工業株式会社 障害物検出装置、障害物検出方法、及び障害物検出プログラムを記録した記録媒体
US6898492B2 (en) * 2000-03-15 2005-05-24 De Leon Hilary Laing Self-contained flight data recorder with wireless data retrieval
DE60113552T3 (de) 2000-05-17 2009-07-30 The Boeing Co., Chicago Intuitives fahrzeug und maschinensteuerung
US6445983B1 (en) 2000-07-07 2002-09-03 Case Corporation Sensor-fusion navigator for automated guidance of off-road vehicles
JP3498910B2 (ja) 2000-09-05 2004-02-23 日産自動車株式会社 車線追従制御装置
DE10047746A1 (de) * 2000-09-27 2002-04-11 Bayerische Motoren Werke Ag Verfahren zur Längsregelung eines Fahrzeuges, bei dem Informationen eines Navigationssystems erfasst werden
GB0030727D0 (en) * 2000-12-15 2001-01-31 Lumitech Uk Ltd Methods and kits for detecting kinase activity
US6604348B2 (en) * 2001-02-06 2003-08-12 Deere & Company Mower with engine-driven blade and electrical propulsion
US7024257B2 (en) * 2001-02-09 2006-04-04 Motion Engineering, Inc. System for motion control, method of using the system for motion control, and computer-readable instructions for use with the system for motion control
US20020136939A1 (en) * 2001-02-15 2002-09-26 Grieve M. James Fuel cell and battery voltage controlling method and system
DE10129135B4 (de) * 2001-06-16 2013-10-24 Deere & Company Einrichtung zur Positionsbestimmung eines landwirtschaftlichen Arbeitsfahrzeugs sowie ein landwirtschaftliches Arbeitsfahrzeug mit dieser
KR100413684B1 (ko) 2001-07-05 2003-12-31 삼성전자주식회사 서로 다른 미들웨어를 가진 디바이스들간 통신을 가능하게하는 게이트웨이, 홈네트웍시스템 및 데이터 중계방법
US20030033463A1 (en) 2001-08-10 2003-02-13 Garnett Paul J. Computer system storage
US20030080772A1 (en) * 2001-08-31 2003-05-01 Davide Giacomini Programmable compact motor drive module
US6873911B2 (en) * 2002-02-01 2005-03-29 Nissan Motor Co., Ltd. Method and system for vehicle operator assistance improvement
EP1547361B1 (de) * 2002-09-13 2016-04-06 iRobot Corporation Navigationssteuersystem für eine robotische einrichtung
AU2003299058A1 (en) 2002-09-27 2004-04-19 Manickam A. Gounder Vehicle monitoring and reporting system
JP3750644B2 (ja) 2002-09-27 2006-03-01 日産自動車株式会社 車両用運転操作補助装置、車両用運転操作補助方法、およびその方法を適用した車両
DE10245465A1 (de) 2002-09-28 2004-04-15 Rexroth Indramat Gmbh Kommunikationssystem mit anschließbarem Interfaceelement
AU2003287302A1 (en) * 2002-10-31 2004-06-07 Mattel, Inc. Remote controlled toy vehicle, toy vehicle control system and game using remote controlled toy vehicle
CA2412815A1 (fr) 2002-11-27 2004-05-27 Martin Deschambault Plate-forme robotique mobile et modulaire offrant plusieurs modes de locomotion pour effectuer des mouvements evolues en trois dimensions
US6927699B2 (en) 2002-12-05 2005-08-09 Denso Corporation Object recognition apparatus for vehicle, and inter-vehicle distance control unit
DE10258753B4 (de) * 2002-12-16 2006-05-18 Daimlerchrysler Ag Verteiltes Steuergerät
FI115678B (fi) 2003-03-25 2005-06-15 Sandvik Tamrock Oy Järjestely kaivosajoneuvon törmäyksenestoon
US7046166B2 (en) * 2003-04-29 2006-05-16 Rockwell Scientific Licensing, Llc Modular wireless integrated network sensor (WINS) node with a dual bus architecture
US6975246B1 (en) 2003-05-13 2005-12-13 Itt Manufacturing Enterprises, Inc. Collision avoidance using limited range gated video
JP4209257B2 (ja) 2003-05-29 2009-01-14 三菱重工業株式会社 分散型コントローラとその動作方法、及び、分散型コントローラを備えるフォークリフト
JP4239689B2 (ja) 2003-05-30 2009-03-18 スズキ株式会社 車両用警報システム及び車両用警報発生方法
US7516244B2 (en) * 2003-07-02 2009-04-07 Caterpillar Inc. Systems and methods for providing server operations in a work machine
US20050021195A1 (en) 2003-07-21 2005-01-27 Rapistan Systems Advertising Corp. Dynamic object avoidance with automated guided vehicle
US6988583B2 (en) * 2003-10-30 2006-01-24 Deere & Company Electrical steering system for manned or unmanned operation
JP4311210B2 (ja) 2004-01-19 2009-08-12 株式会社デンソー 車両リアルタイム制御システム、送信ecuおよび受信ecu
US7123522B2 (en) * 2004-03-10 2006-10-17 Micron Technology, Inc. Method and apparatus for achieving low power consumption during power down
US7447593B2 (en) 2004-03-26 2008-11-04 Raytheon Company System and method for adaptive path planning
US20050264998A1 (en) * 2004-05-25 2005-12-01 3M Innovative Properties Company Heat sink assembly
DE202004011226U1 (de) 2004-07-16 2005-08-25 Dbt Gmbh Einzelsteuergerät für Schildausbaugestelle
US7084588B2 (en) * 2004-07-30 2006-08-01 Ballard Power Systems Corporation Method, apparatus and article for motor control voltage dropout detection
JP5038589B2 (ja) * 2004-10-04 2012-10-03 株式会社日立製作所 ディスクアレイ装置及びその負荷分散方法
US7248968B2 (en) 2004-10-29 2007-07-24 Deere & Company Obstacle detection using stereo vision
JP4316477B2 (ja) 2004-11-18 2009-08-19 パナソニック株式会社 移動ロボットの追従方法
WO2006086519A1 (en) 2005-02-08 2006-08-17 Seegrid Corporation Multidimensional evidence grids and system and methods for applying same
US7299057B2 (en) * 2005-02-23 2007-11-20 Deere & Company Vehicular navigation based on site specific sensor quality data
US7368798B2 (en) 2005-03-28 2008-05-06 Akros Silicon Inc. Integrated DC/DC converter substrate connections
US20060237968A1 (en) 2005-04-20 2006-10-26 Rockwell Scientific Licensing, Llc High efficiency power converter for energy harvesting devices
DE112006002892B4 (de) 2005-10-21 2022-01-27 Deere & Company Systeme und Verfahren zum Umschalten zwischen autonomer und manueller Bedienung eines Fahrzeugs
WO2008013568A2 (en) 2005-12-30 2008-01-31 Irobot Corporation Autonomous mobile robot
US8805601B2 (en) 2006-02-28 2014-08-12 Toyota Jidosha Kabushiki Kaisha Object path prediction method, apparatus, and program, and automatic operation system
JP4835489B2 (ja) * 2007-03-28 2011-12-14 コニカミノルタビジネステクノロジーズ株式会社 給紙装置及び画像形成装置
KR101461185B1 (ko) * 2007-11-09 2014-11-14 삼성전자 주식회사 스트럭쳐드 라이트를 이용한 3차원 맵 생성 장치 및 방법
CN101651553B (zh) 2009-09-03 2013-02-27 华为技术有限公司 用户侧组播业务主备保护***、方法及路由设备
WO2015183182A1 (en) 2014-05-28 2015-12-03 Starview International Pte Ltd Optical transceiver device and method
US9401367B2 (en) 2014-09-30 2016-07-26 Wafertech, Llc Nonvolatile memory cell with improved isolation structures

Patent Citations (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5684696A (en) 1990-02-05 1997-11-04 Caterpillar Inc. System and method for enabling an autonomous vehicle to track a desired path
US5170352A (en) 1990-05-07 1992-12-08 Fmc Corporation Multi-purpose autonomous vehicle with path plotting
US20030038842A1 (en) 1998-02-17 2003-02-27 National Instruments Corporation System and method for configuring a reconfigurable system
US6845297B2 (en) 2000-05-01 2005-01-18 Irobot Corporation Method and system for remote control of mobile robot
US6535793B2 (en) 2000-05-01 2003-03-18 Irobot Corporation Method and system for remote control of mobile robot
US6633800B1 (en) 2001-01-31 2003-10-14 Ainsworth Inc. Remote control system
US6434462B1 (en) 2001-06-28 2002-08-13 Deere & Company GPS control of a tractor-towed implement
US6813557B2 (en) 2003-03-27 2004-11-02 Deere & Company Method and system for controlling a vehicle having multiple control modes
US6694260B1 (en) 2003-05-09 2004-02-17 Deere & Company Inertial augmentation for GPS navigation on ground vehicles
US6789014B1 (en) 2003-05-09 2004-09-07 Deere & Company Direct modification of DGPS information with inertial measurement data
US6901319B1 (en) 2004-07-06 2005-05-31 Deere & Company System and method for controlling a ground vehicle
US10971718B2 (en) 2014-05-27 2021-04-06 Gentex Corporation Electrochemical energy storage devices
US10971724B2 (en) 2018-10-15 2021-04-06 Global Graphene Group, Inc. Method of producing electrochemically stable anode particulates for lithium secondary batteries
US10972082B2 (en) 2019-03-17 2021-04-06 Nparbor, Inc. Method and apparatus for cross correlation

Also Published As

Publication number Publication date
AU2006306523B2 (en) 2011-05-19
US9098080B2 (en) 2015-08-04
GB2445507B (en) 2011-08-24
US9429944B2 (en) 2016-08-30
WO2007048003A3 (en) 2007-08-02
AU2006304812B2 (en) 2012-02-02
US20120046820A1 (en) 2012-02-23
US20140350768A1 (en) 2014-11-27
IL191001A (en) 2013-04-30
US20070219666A1 (en) 2007-09-20
DE112006003007T5 (de) 2008-10-16
WO2007050406A1 (en) 2007-05-03
AU2006306523A1 (en) 2007-05-03
US20070198144A1 (en) 2007-08-23
US20070198145A1 (en) 2007-08-23
AU2006306522B9 (en) 2011-12-08
WO2007048003A2 (en) 2007-04-26
WO2007050407A1 (en) 2007-05-03
US20070193798A1 (en) 2007-08-23
GB2445507A (en) 2008-07-09
US9043016B2 (en) 2015-05-26
DE112006003044T5 (de) 2008-10-23
WO2007048029A3 (en) 2007-07-26
DE112006002892T5 (de) 2008-11-06
US7894951B2 (en) 2011-02-22
GB0807131D0 (en) 2008-05-21
WO2007048029A2 (en) 2007-04-26
DE112006002894T5 (de) 2008-09-18
DE112006003007B4 (de) 2021-09-02
US20110071718A1 (en) 2011-03-24
US8020657B2 (en) 2011-09-20
US8874300B2 (en) 2014-10-28
DE112006002892B4 (de) 2022-01-27
US20150301532A1 (en) 2015-10-22
AU2006304838A1 (en) 2007-04-26
US8473140B2 (en) 2013-06-25
AU2006304812A1 (en) 2007-04-26
AU2006306522B2 (en) 2011-07-28
AU2006306522A1 (en) 2007-05-03
AU2006304838B2 (en) 2011-07-28

Similar Documents

Publication Publication Date Title
DE112006002894B4 (de) Vernetztes Vielzweck-Roboterfahrzeug
EP3070564B1 (de) Fahrzeugverbund und verfahren zum bilden und betreiben eines fahrzeugverbundes
DE102018106527A1 (de) Elektronische Steuereinheiten, Fahrzeuge und Verfahren zum Umschalten einer Fahrzeugsteuerung aus einem autonomen Fahrmodus
EP3709853B1 (de) Bodenbearbeitung mittels eines autonomen mobilen roboters
DE102012201870A1 (de) Verfahren zum automatischen Auslösen einer Selbstlokalisierung
DE112016007429T5 (de) Entferntes Betriebssystem, Transportsystem und entferntes Betriebsverfahren
WO2013050194A1 (de) Verfahren zum navigieren eines fahrzeuges auf einem parkplatz
DE112018006730T5 (de) Steuervorrichtung und steuerverfahren, programm und mobiles objekt
DE112018005910T5 (de) Steuervorrichtung und steuerverfahren, programm und mobiler körper
DE102022100152A1 (de) Sichtbasierte roboternavigation durch koppeln von tiefem bestärkendem lernen und einem wegplanungsalgorithmus
DE102016122990A1 (de) Verfahren zum autonomen Manövrieren eines Kraftfahrzeugs auf einer Parkfläche mit Bestimmung einer Positionsabweichung, Infrastrukturvorrichtung, Fahrerassistenzsystemen, Kraftfahrzeugs sowie Kommunikationssystem
EP4116790B1 (de) Steuer- und navigationsvorrichtung für ein autonom bewegtes system und autonom bewegtes system
EP3559773B1 (de) Verfahren zur navigation und selbstlokalisierung eines sich autonom fortbewegenden bearbeitungsgerätes
AU2011239326B2 (en) Networked multi-role robotic vehicle
AU2011239328A1 (en) Systems and methods for obstacle avoidance
DE102020122085A1 (de) Systeme und verfahren zum verwalten einer flotte von transportvorrichtungen unter verwendung von teleoperationsbefehlen
DE102020206134A1 (de) Verfahren zum Betrieb eines Kraftfahrzeugs
DE112021000967T5 (de) Parkassistenzvorrichtung und Parkassistenzverfahren
Romanov et al. MAD Robot: Concept and Prototype Description of the Robot for Multi-Spectral Power Equipment Diagnostics. Part II
Spofford et al. Off-road perception testbed vehicle design and evaluation
WO2023227300A1 (de) Anpassungsgerät zur ermöglichung des automatisierten betriebes eines fahrzeuges durch umrüstung
DE102020132059A1 (de) Bedienerschnittstelle für eine autonome Maschine
DE102023132481A1 (de) Gegenseitige überwachung von hochleistungsrechen (hpc)-systemen zum steuern eines fahrzeugbetriebs
DE102023134044A1 (de) System und verfahren zum eingliedern in einen bestehenden automatisierten fahrzeugeinweisungskonvoi unter verwendung von drahtloser kommunikation
Munkeby et al. Unmanned ground vehicle Demonstration II program

Legal Events

Date Code Title Description
R012 Request for examination validly filed

Effective date: 20131004

R016 Response to examination communication
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G05D0001020000

Ipc: G05D0001430000