DE19704983A1 - Autonomes System, insbesondere autonome Plattform - Google Patents

Autonomes System, insbesondere autonome Plattform

Info

Publication number
DE19704983A1
DE19704983A1 DE19704983A DE19704983A DE19704983A1 DE 19704983 A1 DE19704983 A1 DE 19704983A1 DE 19704983 A DE19704983 A DE 19704983A DE 19704983 A DE19704983 A DE 19704983A DE 19704983 A1 DE19704983 A1 DE 19704983A1
Authority
DE
Germany
Prior art keywords
autonomous system
sensors
behavior
real world
autonomous
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE19704983A
Other languages
English (en)
Other versions
DE19704983B4 (de
Inventor
Uwe Dr Krogmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Diehl BGT Defence GmbH and Co KG
Original Assignee
Bodenseewerk Geratetechnik GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Bodenseewerk Geratetechnik GmbH filed Critical Bodenseewerk Geratetechnik GmbH
Priority to DE19704983A priority Critical patent/DE19704983B4/de
Publication of DE19704983A1 publication Critical patent/DE19704983A1/de
Application granted granted Critical
Publication of DE19704983B4 publication Critical patent/DE19704983B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05BCONTROL OR REGULATING SYSTEMS IN GENERAL; FUNCTIONAL ELEMENTS OF SUCH SYSTEMS; MONITORING OR TESTING ARRANGEMENTS FOR SUCH SYSTEMS OR ELEMENTS
    • G05B17/00Systems involving the use of models or simulators of said systems
    • G05B17/02Systems involving the use of models or simulators of said systems electric
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Artificial Intelligence (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Evolutionary Computation (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Automation & Control Theory (AREA)
  • Control Of Position, Course, Altitude, Or Attitude Of Moving Bodies (AREA)
  • Feedback Control In General (AREA)

Description

Die Erfindung betrifft ein autonomes System mit integrierten Sensoren.
Unter einem "autonomen System" wird dabei ein System verstanden, das als unabhängige Einheit über einen ausgedehnten Zeitraum hinweg funktioniert und dabei eine Vielfalt von Handlungen vornimmt, die zur Erreichung vorgegebener Ziele erforderlich sind, wobei es auf von den Sensoren erzeugte Stimuli anspricht.
Bei einem solchen autonomen System sind folgende Voraussetzungen gegeben:
  • Dem System ist eine Umgebung ("reale Welt") zugeordnet.
    Es findet eine Wechselwirkung zwischen dem System und der Umgebung über Eingangs- und Ausgangs-Informationen und ggf. Ausgangs-Aktionen statt.
    Die Wechselwirkungen des Systems konzentrieren sich auf die Erfüllung von Aufgaben innerhalb der Umgebung nach einem zielgerichteten Verhalten, wobei sich das System an Änderungen der Umgebung anpaßt.
Die Wechselwirkung des autonomen Systems mit der es umgebenden Welt kann in die folgenden Elemente eines Erkennen-Handeln-Zyklus (oder Stimulus-Reaktion-Zyklus) aufgelöst werden:
  • Erkennen des Ist-Zustands der Welt und Vergleichen dieses Ist-Zustandes mit einem Soll-Zustand, der dem Ziel der Wechselwirkung entspricht (Überwachen),
    Analysieren der Abweichungen von Ist- und Soll-Zustand (Diagnose),
    "Nachdenken" über Handlungen, welche den Zustand der Welt ändern sollen (Planerzeugung),
    Entscheiden über die Handlungen, die zum Erreichen des Soll-Zustandes erforderlich sind (Planauswahl), und
    Durchführen der Handlungen die zum Erreichen des Soll-Zustandes erforderlich sind (Plandurchführung).
Um diese Funktionen zu erfüllen, müssen vor allem geeignete Sensor- und Effektor-Systeme vorgesehen sein. Im Fall eines unbemannten, autonomen Systems müssen Informations-Ver­ arbeitungsmittel vorhanden sein, welche Maschinen- Intelligenz zur Durchführung der erwähnten Aufgaben einsetzen.
Das autonome System kann eine Plattform sein. Der Ausdruck "Plattform" umfaßt dabei alle beweglichen Gebilde wie Flugzeuge, Flugkörper, Raum-, Land- oder Seefahrzeuge. Die Erfindung wird im folgenden unter Bezugnahme auf ein unbemanntes Flugzeug beschrieben. Die Anwendbarkeit der Erfindung ist aber nicht auf solche "Plattformen" beschränkt.
Bekannte autonome Systeme dieser Art sind von ihrem Konstrukteur so programmiert, daß sie sich in einer gewünschten Weise in der realen Welt verhalten. Das bedeutet, daß der Konstrukteur im voraus alle denkbaren Szenarien und alle denkbaren Veränderungen der realen Welt erkennen und in dem Programm berücksichtigen muß. Das ist praktisch aber nicht möglich: Es sind nicht alle möglichen Szenarien vorhersehbar. Informationen über die reale Welt sind häufig unscharf. Die reale Welt kann sich in nicht vorhersehbarer Weise verändern.
Der Erfindung liegt die Aufgabe zugrunde, ein autonomes System der eingangs genannten Art zu realisieren.
Erfindungsgemäß wird diese Aufgabe dadurch gelöst, daß
  • (a) das System aus einer Mehrzahl von Funktionsmodulen aufgebaut ist, die jedes mit künstlicher Intelligenz versehen sind, indem sie eine Struktur aufweisen, die eine Selbstorganisierung, ein Lernen und eine Anpassung an sich ändernde Situationen gestatten,
  • (b) die Funktionsmodule wenigstens teilweise miteinander kommunizieren und zusammen ein Modell der realen Welt bilden,
  • (c) das System über die Sensoren und Effektoren mit der realen Welt in Wechselwirkung tritt.
Das autonome System wird somit nicht mit einem festen Programm programmiert, um in der realen Welt zu operieren. Vielmehr wird das System so strukturiert, daß es Lernen und sich an eine veränderte oder nicht von vornherein bekannte Umwelt anpassen kann. Eine solche Strukturierung kann in der Anwendung neuronaler Netze bestehen. Signale können mit unscharfer Logik (Fuzzy Logic) verarbeitet werden, um Unschärfen in der Kenntnis der realen Welt zu berücksichtigen. Für die Selbstorganisation (wie z. B. Optimierung und Adaption von Struktur und Parametern) können genetische oder evolutionäre Algorithmen Verwendung finden.
Das autonome System wird aber nicht von einer einheitlichen Rechnerstruktur beherrscht, die alle Sensor-Informationen erhält und alle Funktionen des autonomen Systems steuert. Das wäre schwierig zu realisieren. Vielmehr enthält das autonome System eine Mehrzahl von Funktionsmoduln, die jedes eine bestimmte Aufgabe erfüllt. Jedes der Funktionsmodule ist für sich so strukturiert, daß es lern- und anpassungsfähig ist. Die Funktionsmodule können weiterhin Informationen von einer Wissens- und Datenbank erhalten. Die Funktionsmodule kommunizieren wenigstens teilweise miteinander. Dabei können einzelne Funktionsmodule "nebeneinander" ihre jeweilige Aufgabe erfüllen. Es kann aber auch eine gewisse hierarchische Verknüpfung der Funktionsmodule bestehen. Insgesamt bilden die Funktionsmodule ein Modell der realen Welt. Sie "wissen", wie sich das autonome System in der realen Welt verhalten muß, um ein vorgegebenes Ziel zu erreichen.
Ausgestaltungen der Erfindung sind Gegenstand der Unteransprüche.
Ein Ausführungsbeispiel der Erfindung ist nachstehend unter Bezugnahme auf die zugehörigen Zeichnungen näher erläutert.
Fig. 1 zeigt als Blockdiagramm die wesentlichen Elemente einer autonom operierenden, aber mit einer Basis-Station über eine Kommunikations-Einrichtung verbundenen Plattform, z. B. eines unbemannten Flugzeugs.
Fig. 2 ist eine schematische Darstellung und zeigt die Architektur des autonomen Systems mit den Funktionsmoduln und ihre Wechselwirkung mit der realen Welt.
Fig. 3 veranschaulicht die verschiedenen Funktionsmodule.
Fig. 4 ist eine schematische Darstellung und veranschaulicht den Aufbau eines Funktionsmoduls.
Fig. 5 veranschaulicht ein autonomes System, das teilweise mit programmierten, hierarchisch gegliederten Funktionsmoduln und teilweise mit lernfähigen und anpassungsfähigen Funktionsmoduln aufgebaut ist.
Fig. 6 veranschaulicht die Wirkungsweise eines autonomen Systems, bei dem aus einem Gesamtmodell der realen Welt spezielle Modelle herausziehbar sind, aus denen durch einen Inferenz-Mechanismus Schlußfolgerungen für Einwirkungen des Systems über die Effektoren ableitbar sind.
Fig. 7 ist eine schematische Darstellung eines Funktionmoduls für die Verknüpfung der Sensordaten, z. B. für die Ziel-Erkennung, -Identifizierung und- Klassifizierung bei einer Mehrsensor-Anordnung.
Fig. 8 ist eine schematische Darstellung und veranschaulicht ein Funktionselement für die wissensbasierte Planung.
Fig. 9 ist eine schematische Darstellung eines Funktionsmoduls zur Flugführung (Piloting).
Fig. 10 veranschaulicht ein Verfahren zur Auslegung eines autonomen Systems der vorstehend beschriebenen Art.
In Fig. 1 ist mit 10 eine "Plattform" bezeichnet. Die Plattform kann beispielsweise ein unbemanntes Flugzeug sein. Es kann sich aber auch um ein See-, Land- oder Raumfahrzeug handeln. Die Plattform steht mit einer Basis-Station in Kommunikation. Das geschieht über Kommunikations-Mittel 14 auf der Plattform 10 und Kommunikations-Mittel 16 in der Basis-Station 12.
Die interne Funktion der Plattform 10 ist generell durch einen Funktions-Block 18 dargestellt. Der Funktions-Block 18 steht in Verbindung mit Sensoren 20 und Effektoren 22 sowie mit den Kommunikations-Mitteln.
Die Basis-Station 12 erhält ebenfalls Informationen von anderen Informations-Quellen und äußeren Sensoren 24. Die Basis-Station 12 enthält Mittel 26 zur Auswertung und Verknüpfung der Informationen, die von den äußeren Sensoren 24 geliefert werden und von Informationen, welche über eine Datenübertragungs-Einrichtung 28 von den Kommunikations-Mit­ teln 14 der Plattform 10 an die Kommunikations-Mittel 16 der Basis-Station 12 übermittelt werden. Die letzteren Informationen sind durch eine Verbindung 30 angedeutet.
Die Basis-Station 12 enthält eine Befehls- und Steuereinheit 32, welche auch die Missions-Planung vornimmt. Die Befehls- und Steuereinheit 32 erhält, wie durch die Verbindung 34 dargestellt ist, Informationen von den Mitteln 26 zur Auswertung und Verknüpfung von Informationen. Die Befehls- und Steuereinheit 32 ist weiter mit einer Schnittstelle 36 zwischen Mensch und Maschine verbunden, über welche ein in der Basis-Station sitzender menschlicher Pilot Befehle einzugeben vermag. Das kann z. B. ein Bildschirm und eine Tastatur sein. Die Befehls- und Steuereinheit 32 gibt Befehle über Verbindung 38 an die Kommunikations-Mittel 16. Die Kommunikations-Mittel 16 übertragen die Befehle über die Datenübertragungs-Ein­ richtung 28 an die Funktions-Einheit 18 der Plattform 10.
Der Funktions-Block 18 enthält, wie in Fig. 2 dargestellt ist, Funktionsmodule 40.1, 40.2. . .40.n. Wie in Fig. 2 angedeutet ist, sind die Funktionsmodule 40.1, 40.2. . .40.n teilweise in beiden Richtungen miteinander verbunden, wie durch die Pfeile 42 und 44 zwischen den Funktionsmoduln 40.1 und 40.n angedeutet ist. Teilweise besteht eine solche Verbindung auch nur in einer Richtung wie bei Pfeil 46 zwischen den Funktionsmoduln 40.n und 40.2. Die Funktionsmodule erhalten Informationen von den Sensoren 20 und einer Wissens- und Datenbank 48. Über die Effektoren 22 beeinflussen sie die "reale Welt" 50. Mit der realen Welt tritt das autonome System der Plattform 10 durch Aktion, dargestellt durch Pfeil 52 und Antwort, dargestellt durch Pfeil 54 in Wechselwirkung.
Fig. 3 veranschaulicht die verschiedenen Funktionsmodule 40.1 bis 40.n.
Ein Funktionsmodul 40.1 bewirkt eine Verknüpfung der Sensor-Signale. Ein Funktionsmodul 40.2 ist zur Situations-Be­ wertung aus den verknüpften Sensor-Daten vorgesehen. Es erhält verknüpfte Sensor-Daten von dem Funktionsmodul 40.1. Das ist in Fig. 2 durch Pfeil 56 dargestellt. Ein Funktionsmodul 40.3 ist zur wissensbasierten Planung auf Grund der Situations-Bewertung vorgesehen. Ein Funktionsmodul 40.n-2 dient der Flugführung (Piloting) der Plattform 10. Ein Funktionsmodul 40.n-1 dient der Erfassung und Bewertung von Bedrohungen, z. B. durch anfliegende Flugkörper. Ein Funktionsmodul 40.n dient der Kommunikation.
Fig. 4 zeigt die Struktur eines Funktionsmoduls 40. Das Funktionsmodul 40 enthält im allgemeinen eine Wissens- und Datenbank 58 mit analytischem und heuristischem Wissen. Die Funktionseinheit 40 enthält weiterhin eine "künstliche Intelligenz" 60. Die künstliche Intelligenz 60 ist ein System mit einer Struktur (im Gegensatz zu einem Programm), die eine Selbstorganisation gestattet und Lernfähigkeit und Anpassungsfähigkeit an sich ändernde Situationen aufweist. Die künstliche Intelligenz 60 erhält Wissen und Daten von der Wissens- und Datenbank 58. Das ist durch Pfeil 62 dargestellt. Die künstliche Intelligenz 60 steuert das autonome System, d. h. die Plattform 10. Das autonome System 10 steht in Wechselwirkung mit der realen Welt 50, wie durch den Doppelpfeil 64 angedeutet ist.
Fig. 5 veranschaulicht den Aufbau des autonomen Systems 10 aus hierarchisch organisierten Funktionsmoduln 66 und lernfähigen und anpassungsfähigen Funktionsmoduln 68. Die Funktionsmoduln 66 und 68 kommunizieren wenigstens teilweise miteinander, wie durch den Doppelpfeil 70 angedeutet ist. Das autonome System 10 steht mit der realen Welt 50 in Wechselwirkung, wie in Fig. 5 durch die Pfeile 72 und 74 angedeutet ist. Pfeil 72 entspricht dabei den Sensoren 20. Pfeil 74 entspricht den Effektoren 22.
Fig. 6 veranschaulicht einen anderen Aspekt des autonomen Systems:
Die Funktionsmoduln 40 liefern insgesamt ein umfassendes Modell 76 der realen Welt 50. Aus dem umfassenden Modell 76 der realen Welt 50 sind spezielle Modelle 78 herausziehbar, aus denen durch einen Inferenz-Mechanismus 80 Schlußfolgerungen für Einwirkungen des Systems 10 auf die reale Welt 50 über die Effektoren 22 ableitbar sind. Das entspricht weitgehend menschlichem Verhalten: Aus dem Gesamtbild der Welt (Landschaft, Sonnenstand etc.) wird ein Teilaspekt (z. B. "feindliches Flugzeug") herausgegriffen. Auf Grund dieses Teilaspekts werden dann Entscheidungen getroffen. Die "Kommunikation" zwischen den Blöcken 76, 78 und 80 ist durch die Doppelpfeile 82 und 84 dargestellt. Die Wissens- und Datenbank 86 steht, wie durch Verbindung 88 dargestellt ist, den verschiedenen Modellen 76 und 78 und dem Inferenz-Mechanismus 80 zur Verfügung.
Der Inferenz-Mechanismus 80 steht mit einem Objekt 90 in der realen Welt oder Umgebung 50 in Wechselwirkung. Das ist durch den Doppelpfeil 92 dargestellt. Dieses Objekt 90 beeinflußt auch die Wissens- und Datenbank 86, wie durch Pfeil 94 dargestellt ist.
Fig. 7 zeigt ein Beispiel für ein Funktionsmodul, nämlich ein Funktionsmodul zur Fusion von Sensordaten.
In diesem Fall sind drei Sensoren 100, 102 und 103 vorgesehen, die auf ein Objekt ansprechen. Wie angedeutet, können weitere Sensoren vorgesehen sein.
Die Signale jedes Sensors 100, 102, 104 ist auf jeweils ein Paar von neuronalen Netzen aufgeschaltet. Die Signale des Sensors 100 sind auf ein neuronales Netz 106 und auf ein neuronales Netz 108 aufgeschaltet. Die Signale des Sensors 102 sind auf ein neuronales Netz 110 und auf ein neuronales Netz 112 aufgeschaltet. Die Signale des Sensors 104 sind auf ein neuronales Netz 114 und auf ein neuronales Netz 116 aufgeschaltet. Ein neuronales Netz 106, 110, 114 jedes Paares verarbeitet eine erste vorgegebene Eigenschaft des von den Sensoren erfaßten Objekts. Das andere neuronale Netz 108, 112, 116 jedes Paares verarbeitet eine zweite vorgegebene Eigenschaft des Objekts. Die neuronalen Netze liefern sensorspezifische Informationen. Das ist durch die Blöcke 118, 120 und 122 dargestellt. Diese Informationen bilden "Merkmals-Vektoren". Diese Merkmals-Vektoren sind auf ein weiteres neuronales Netz 124 aufgeschaltet. Dieses Netz 124 dient zur Feststellung von Assoziationen der in den Merkmals-Vektoren enthaltenen Informationen.
Die von dem zweiten neuronalen Netz erhaltene Information wird, wie durch Pfeil 126 dargestellt ist, zusammen mit den Merkmals-Vektoren auf ein neuronales Netz 128 aufgeschaltet.
Die Merkmals-Vektoren und die von den neuronalen Netzen erhaltenen Informationen beaufschlagen ein Experten-System 130. Dieses Experten-System trifft unter Ausnutzung weiteren Wissens über Daten und Fakten der potentiellen Objekte endgültige Entscheidungen und zieht Schlußfolgerungen.
Es handelt sich hier um ein Funktionsmodul, das teils mit trainierbaren, lernenden Strukturen wie neuronalen Netzen und teils mit hierarchischen Strukturen wie dem Experten­ system 130 aufgebaut ist. Ein solches Funktionsmodul ist an sich als Signalverarbeitungs-Anordnung zur Klassifizierung von Objekten aufgrund der Signale einer Mehrzahl von Sensoren durch die DE 41 00 500 A1 bekannt. Die Anwendbarkeit der beschriebenen Struktur ist aber nicht auf die Klassifizierung von Objekten beschränkt.
Fig. 8 ist eine schematische Darstellung eines Funktionsmoduls, welches Effekte von auf Grund einer Situations-Bewertung geplanten Aktionen vorhersagt und mit den Effekten der gleichzeitig in der realen Welt vorgenommenen Aktionen vergleicht. Das Funktionsmodul 40.2 enthält hier eine "Neuro-Fuzzy"-Einheit 132. Das ist eine mit einem neuronalen Netz aufgebaute aber mit unscharfer Logik ("Fuzzy-Logic") arbeitende, lernfähige Struktur. Das System wird anhand von "Aktionen" trainiert, die sowohl auf die Neuro-Fuzzy-Einheit 132 als auch, parallel dazu auf die reale Welt 134 wirksam werden. Das ist durch die Pfeile 136 bzw. 138 dargestellt. Sowohl die Neuro-Fuzzy-Einheit 132 als auch die reale Welt 134 liefern "Effekte". Die Effekte sind durch die Pfeile 140 bzw. 142 dargestellt. Die Effekte werden miteinander verglichen, was durch einen Summierpunkt 144 symbolisiert ist. Ein Pfeil 146 symbolisiert einen Lernprozeß der Neuro-Fuzzy-Einheit 132 unter dem Einfluß des Vergleichs.
Eine nach einem ähnlichen Prinzip arbeitende Einrichtung zum Bewerten von Situationen oder Szenarien, die mit einer Mehrzahl von Sensoren beobachtet werden, ist an sich bekannt durch die DE 42 40 789 A1 und dort im einzelnen beschrieben.
Fig. 9 zeigt ein Funktionsmodul 40.n-2 für die Flugführung (Piloting).
In Fig. 9 liegt an einem Eingang 146 ein Lenkbefehl an. Der Lenkbefehl vom Eingang 146 beaufschlagt einen als neuronales Netz ausgebildeten Flugregler 148. Der Flugregler 148 liefert über eine Verbindung 150 ein Stellsignal (Ruderausschlag, Schub) an die Plattform 10, die selbst ein Objekt in der realen Welt 50 darstellt. Über eine Rückführschleife 152 werden Rückführdaten auf den Flugregler 148 geleitet.
Mit 154 ist ein, ebenfalls als neuronales Netz ausgeführtes Modell des Flugzeugs (oder sonst einer Regelstrecke) bezeichnet. Ein Block 156 bezeichnet ein neuronales Netz, welches die Güte der Regelung (Performance) bewertet. Auf das neuronale Netz von Block 156 sind einmal der Lenkbefehl über Verbindung 158 und zum anderen die Rückführdaten über Verbindung 160 aufgeschaltet. Das neuronale Netz von Block 156 liefert eine Regelgüte-Rückführung (Performance Feedback) und schaltet diese über eine Verbindung 162 das Modell 154 des Flugzeugs auf. Das Modell 154 des Flugzeugs erhält gleichzeitig über eine Verbindung 164 die Stellsignale parallel zu dem realen Flugzeug. Das Modell 154 liefert ebenfalls Ausgangsdaten von der Art der Rückführdaten an einem Ausgang 166. Diese Ausgangsdaten am Ausgang 166 werden mit den am Flugzeug gemessenen Rückführdaten verglichen. Das ist durch einen Summierpunkt 168 symbolisiert, auf den die Rückführdaten über eine Verbindung 170 aufgeschaltet sind. Als Ergebnis dieses Vergleichs werden die Gewichte des neuronalen Netzes des Modells 154 verändert. Das ist durch eine Lernschleife 172 und einen "Einstellpfeil" 174 angedeutet. Das Modell 154 verändert über eine Lernschleife 176 die Gewichte des neuronalen Netzes des Flugreglers 148. Das ist wieder durch einen Einstellpfeil 178 angedeutet.
Ein solcher Regler, insbesondere Flugregler, ist durch die DE 41 30 164 A1 an sich bekannt und dort im einzelnen beschrieben.
Die Fig. 7 bis 9 zeigen Beispiele für den Aufbau der Funktionsmodule mit neuronalen Netzen, Fuzzy-Logic und hierarchischen Strukturen.
Die Entwicklung und Auslegung eines autonomen Systems der vorliegenden Art muß nach einer bestimmten Methodik erfolgen. Das ist in Fig. 10 dargestellt.
Der erste Schritt besteht im Festlegen des physikalischen Aufbaues des autonomen Systems, seiner Anwendung, seiner Anfangsumgebung und seiner Verhaltens-Anforderungen. Das ist in Fig. 10 durch einen Block 180 dargestellt. Der nächste Schritt umfaßt das Analysieren des Verhaltens durch Auflösung des Verhaltens in einfache Verhaltens-Komponenten und ihrer Wechselwirkungen. Das ist in Fig. 10 durch einen Block 182 dargestellt. Daran schließt sich das Erstellen einer Spezifikation des autonomen Systems an. Das ist in Fig. 10 durch einen Block 184 dargestellt. Daraufhin erfolgt das Konstruieren des autonomen Systems mit Hard- und Software im "Rohzustand", also noch ohne Lernprozesse. Das ist in Fig. 10 durch einen Block 186 dargestellt. Darauf erfolgt ein Trainieren dieses im Rohzustand befindlichen Systems. Das ist in Fig. 10 durch einen Block 188 dargestellt. Daran schließt sich ein Bewerten des erhaltenen Verhaltens und erforderlichenfalls Iteration der vorangegangenen Verfahrensschritte an. Das ist in Fig. 10 durch einen Block 190 dargestellt. Die Iteration ist durch Pfeile 192, 194 und 196 angedeutet.
Das Trainieren kann wenigstens teilweise durch Simulation mit virtueller Realität erfolgen. Das Bewerten des Verhaltens des Systems erfolgt unter den Gesichtspunkten der Richtigkeit, der Robustheit, d. h. des Verhaltens gegenüber sich ändernder Umgebung, und der Anpassungsfähigkeit.

Claims (14)

1. Autonomes System mit integrierten Sensoren, das als unabhängige Einheit über einen ausgedehnten Zeitraum hinweg funktioniert und dabei eine Vielfalt von Handlungen vornimmt, die zur Erreichung vorgegebener Ziele erforderlich sind, wobei es auf von den Sensoren erzeugte Stimuli anspricht, dadurch gekennzeichnet, daß
  • (a) das System aus einer Mehrzahl von Funktionsmodulen (40.1, 40.2. . .40.n) aufgebaut ist, die jedes mit künstlicher Intelligenz versehen sind, indem sie eine Struktur aufweisen, die eine Selbstorganisierung, ein Lernen und eine Anpassung an sich ändernde Situationen gestatten,
  • (b) die Funktionsmodule (40.1, 40.2. . .40.n) wenigstens teilweise miteinander kommunizieren und zusammen ein Modell der realen Welt bilden,
  • (c) das System über die Sensoren (20) und Effektoren (22) mit der realen Welt (50) in Wechselwirkung tritt.
2. Autonomes System nach Anspruch 1, dadurch gekennzeichnet, daß die Funktionsmodule (40.1, 40.2. . .40.n) zur Erzeugung künstlicher Intelligenz jeweils Zugriff auf Wissen aus einer Wissens- und Datenbank (48) haben.
3. Autonomes System nach Anspruch 1 oder 2, dadurch gekennzeichnet, daß aus einem umfassenden Modell (76) der realen Welt spezielle Modelle (78) herausziehbar sind, aus denen durch einen Inferenz-Mechanismus (80) Schlußfolgerungen für Einwirkungen des Systems über die Effektoren ableitbar sind.
4. Autonomes System nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, daß ein Funktionsmodul (40.1) für die Verknüpfung der Sensor-Daten vorgesehen ist.
5. Autonomes System nach Anspruch 4, dadurch gekennzeichnet, daß ein Funktionsmodul (40.2) zur Situations-Bewertung aus den verknüpften Sensor-Daten vorgesehen ist.
6. Autonomes System nach Anspruch 5, dadurch gekennzeichnet, daß ein Funktionsmodul (40.3) zur wissensbasierten Planung auf Grund der Situations-Be­ wertung vorgesehen ist.
7. Autonomes System nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, daß das System eine unbemannte Plattform (10) und durch ein Funktionsmodul ("Piloting") geführt ist.
8. Autonomes System nach einem der Ansprüche 1 bis 7. dadurch gekennzeichnet, daß ein Funktionsmodul (40.n) für Kommunikation vorgesehen ist.
9. Autonomes System nach den Ansprüchen 7 und 8, dadurch gekennzeichnet, daß eine mit einem menschlichen Piloten bemannte Basis-Station (12) und Datenübertragungs-Mit­ tel (28) zur Datenübertragung zwischen dieser Basis-Sta­ tion (12) und dem autonomen System (10) vorgesehen sind.
10. Autonomes System nach Anspruch 9, dadurch gekennzeichnet, daß die Basis-Station (12) zusätzlich von Daten von dem autonomen System (10) weiterhin Daten von in bezug auf das autonome System externen Sensoren (24) empfängt.
11. Autonomes System nach einem der Ansprüche 7 bis 10, dadurch gekennzeichnet, daß ein Funktionsmodul auf Bedrohungen der Plattform (10) anspricht.
12. Verfahren zur Auslegung eines autonomen Systems nach einem der Ansprüche 1 bis 11, gekennzeichnet durch die Verfahrensschritte
  • (a) Festlegen des physikalischen Aufbaues des autonomen Systems, seiner Anwendung, seiner Anfangsumgebung und seiner Verhaltens-Anforderungen,
  • (b) Analysieren des Verhaltens durch Auflösung des Verhaltens in einfache Verhaltens-Komponenten und ihrer Wechselwirkungen,
  • (c) Erstellen einer Spezifikation des autonomen Systems,
  • (d) Konstruieren des autonomen Systems mit Hard- und Software im "Rohzustand",
  • (e) Trainieren des autonomen Systems
  • (f) Bewerten des erhaltenen Verhaltens und erforderlichenfalls Iteration der vorangegangenen Verfahrensschritte.
13. Verfahren nach Anspruch 12, dadurch gekennzeichnet, daß das Trainieren wenigstens teilweise durch Simulation mit virtueller Realität erfolgt.
14. Verfahren nach Anspruch 12 oder 13, dadurch gekennzeichnet, daß das Bewerten des Verhaltens des Systems unter den Gesichtspunkten der Richtigkeit, der Robustheit, d. h. des Verhaltens gegenüber sich ändernder Umgebung, und der Anpassungsfähigkeit erfolgt.
DE19704983A 1997-01-29 1997-01-29 Autonomes System, insbesondere autonome Plattform Expired - Fee Related DE19704983B4 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE19704983A DE19704983B4 (de) 1997-01-29 1997-01-29 Autonomes System, insbesondere autonome Plattform

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19704983A DE19704983B4 (de) 1997-01-29 1997-01-29 Autonomes System, insbesondere autonome Plattform

Publications (2)

Publication Number Publication Date
DE19704983A1 true DE19704983A1 (de) 1998-07-30
DE19704983B4 DE19704983B4 (de) 2006-07-06

Family

ID=7819816

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19704983A Expired - Fee Related DE19704983B4 (de) 1997-01-29 1997-01-29 Autonomes System, insbesondere autonome Plattform

Country Status (1)

Country Link
DE (1) DE19704983B4 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014224884A1 (de) * 2014-12-04 2016-06-23 Jungheinrich Aktiengesellschaft Verfahren und System zum Überwachen von Logistikeinrichtungen
WO2020104584A1 (en) * 2018-11-22 2020-05-28 Lorenz Technology Aps A method for inducing an autonomous behavior into an unmanned vehicle, and a communication unit for use in such a method

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4001493A1 (de) * 1990-01-19 1991-07-25 Pietzsch Ibp Gmbh Verfahren und einrichtung zur selbsttaetigen steuerung von bewegbaren geraeten
DE4111354A1 (de) * 1991-04-09 1992-10-22 Bodenseewerk Geraetetech Einrichtung zur fuehrung des endeffektors eines roboters laengs einer sollbahn
DE19508474A1 (de) * 1995-03-09 1996-09-19 Siemens Ag Intelligentes Rechner-Leitsystem
DE19508476A1 (de) * 1995-03-09 1996-09-12 Siemens Ag Leitsystem für eine Anlage der Grundstoff- oder der verarbeitenden Industrie o. ä.

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102014224884A1 (de) * 2014-12-04 2016-06-23 Jungheinrich Aktiengesellschaft Verfahren und System zum Überwachen von Logistikeinrichtungen
WO2020104584A1 (en) * 2018-11-22 2020-05-28 Lorenz Technology Aps A method for inducing an autonomous behavior into an unmanned vehicle, and a communication unit for use in such a method
EP3919998A1 (de) * 2018-11-22 2021-12-08 Lorenz Technology ApS Verfahren zur einleitung eines autonomen verhaltens in ein unbemanntes fahrzeug und kommunikationseinheit zur verwendung in solch einem verfahren

Also Published As

Publication number Publication date
DE19704983B4 (de) 2006-07-06

Similar Documents

Publication Publication Date Title
DE102017008475B4 (de) Maschinenlernvorrichtung, robotersystem und maschinenlernverfahren zum erlernen eines roboter-betriebsprogramms
Stengel Toward intelligent flight control
Sheridan Telerobotics, automation, and human supervisory control
DE69420545T2 (de) Parametrierbare neuronalnetzwerksteuerungen
DE102014108287A1 (de) Schnelles Erlernen durch Nachahmung von Kraftdrehmoment-Aufgaben durch Roboter
EP3605256B1 (de) System und verfahren zum überwachen des zustands eines unbemannten luftfahrzeugs
EP3899682B1 (de) Überwachung von auf neuronalen netzwerken basierten fahrfunktionen
DE112019007222T5 (de) Motorsteuereinrichtung
Sammut Automatic construction of reactive control systems using symbolic machine learning
EP1020699B1 (de) Flugkörper
Puttige et al. Comparison of real-time online and offline neural network models for a uav
EP3748454B1 (de) Verfahren und vorrichtung zum automatischen ausführen einer steuerfunktion eines fahrzeugs
DE4218599C2 (de) Navigations- und Führungssystem für autonome, mobile Roboter
DE19645556A1 (de) Vorrichtung zur Erzeugung von Lenksignalen für zielverfolgende Flugkörper
DE19704983B4 (de) Autonomes System, insbesondere autonome Plattform
EP3793785B1 (de) Verfahren und vorrichtung zum rechnergestützten ermitteln von regelparametern für eine günstige handlung eines technischen systems
Cardullo Application of neuro-fuzzy systems to behavioral representation in computer generated forces
EP0999484B1 (de) Trimmverfahren zum Abgleich eines Simulationssystems mit einem geregelten Referenzsystem
DE102021114768A1 (de) Fahrzeugsteuerung unter Verwendung eines Controllers eines neuronalen Netzes in Kombination mit einem modellbasierten Controller
EP1087200B1 (de) Flugkörper-Missionseinheit
EP1014028A1 (de) Lenk,- Navigations- und Regelsystem für Flugkörper
Scheidel et al. A novel approach of a deep reinforcement learning based motion cueing algorithm for vehicle driving simulation
Obaid et al. Obstacle avoidance in unmanned aerial vehicles using image segmentation and deep learning
DE102022123243B3 (de) Künstliche Intelligenz zur präzisen Bestimmung von Ausgangsdrehmomenten kollaborativer Roboter
Ionita Modeling Human Sensory-Motor Action for Vehicle Braking Based on Fuzzy Inferences

Legal Events

Date Code Title Description
ON Later submitted papers
8110 Request for examination paragraph 44
8127 New person/name/address of the applicant

Owner name: DIEHL BGT DEFENCE GMBH & CO. KG, 88662 UBERLINGEN,

8125 Change of the main classification

Ipc: G05B 1304

8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee