DE19534230A1 - Verfahren zur Erkennung von Objekten in zeitveränderlichen Bildern - Google Patents

Verfahren zur Erkennung von Objekten in zeitveränderlichen Bildern

Info

Publication number
DE19534230A1
DE19534230A1 DE19534230A DE19534230A DE19534230A1 DE 19534230 A1 DE19534230 A1 DE 19534230A1 DE 19534230 A DE19534230 A DE 19534230A DE 19534230 A DE19534230 A DE 19534230A DE 19534230 A1 DE19534230 A1 DE 19534230A1
Authority
DE
Germany
Prior art keywords
motion
color
areas
objects
recordings
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE19534230A
Other languages
English (en)
Inventor
Bernd Heisele
Werner Ritter
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mercedes Benz Group AG
Original Assignee
Daimler Benz AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Daimler Benz AG filed Critical Daimler Benz AG
Priority to DE19534230A priority Critical patent/DE19534230A1/de
Priority to EP96113045A priority patent/EP0763800A3/de
Publication of DE19534230A1 publication Critical patent/DE19534230A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

Die Erfindung betrifft ein Verfahren zum Erkennen von Ob­ jekten in zeitveränderlichen Bildern einer optisch über­ wachten Szene.
Die optische Überwachung einer Szene und die Erkennung darin befindlicher Objekte sind von wesentlicher Bedeutung bei verschiedenen Formen der Verkehrleittechnik, insbeson­ dere der automatischen Hinderniserkennung zur Kollisions­ verhütung. Für solche Anwendungsfälle kann die Anordnung eines bildaufnehmenden optischen Sensors (Kamera) in einem bewegten Fahrzeug zur Überwachung des in Fahrtrichtung vorausliegenden Teilraums als Ausgangssituation angenommen werden. Relevant sind dann insbesondere bewegte andere Fahrzeuge sowie festste­ hende Objekte wie Fahrbahnbegrenzungen und -markierungen, Schilder, Hindernisse auf der Fahrbahn. Die feststehenden Objekte sind aufgrund der Eigengeschwindigkeit des Fahr­ zeugs diesem gegenüber bewegt und verändern dadurch stän­ dig ihre Position in dem von der Kamera aufgenommenen Bild.
Die Aufnahmen liegen im Regelfall als digitalisierte Bild­ daten zeitlich aufeinanderfolgender zweidimensionaler Ra­ sterbilder mit Helligkeits- und/oder Farbinformationen zu den einzelnen Pixeln vor. Die relevanten Objekte nehmen dabei im Regelfall nur einen geringen Anteil an dem ge­ samten Bildinhalt ein. Die Objekterkennung muß daher einen geringen Anteil relevanter Information von einem weit überwiegenden Anteil irrelevanter Information trennen.
Hierfür ist es z. B. bekannt, für Objekte oder Objektklas­ sen charakteristische Linienanordnungen oder Symmetrieei­ genschaften, z. B. für den Heckbereich vorausfahrender Fahrzeuge vorzugeben und in den aufgenommenen Bildern zu detektieren [1], [2]. Während solche Vorgehensweisen in Um­ gebungen mit einfach strukturierter Umgebung wie z. B. auf Autobahnen teilweise gute Ergebnisse liefern, ist die Funktion in variationsreicherer Umgebung wie Landstraßen eher unbefriedigend.
Ein anderer Ansatz [3], [4] benutzt eine Stereo-Bildaufnahme und schätzt über die Verknüpfung räumlich getrennt aufge­ nommener Einzelbilder die Entfernung für signifikante Bildteile wie Kanten und Ecken. Eine so entstehende räum­ liche Merkmalskarte weist aber häufig zuwenige Einträge für die zuverlässige Erkennung und Klassifizierung auf.
Davon verschieden sind Verfahren, welche Objekte aufgrund ihrer Bewegung in den aufgenommenen Bildern detektieren. Eine einfache Methode, welche die Differenz zwischen aktu­ ellen Aufnahmen und Hintergrundbildern auswertet [5], ist wegen der stationär einzusetzenden Kamera für die meisten Anwendungen nicht geeignet. Die meisten auf Bewegungsin­ formation basierenden Verfahren werten dagegen Bildver­ schiebungen aus. Hierbei sind wiederum kontinuierliche und diskrete Vorgehensweisen zu unterscheiden.
Die kontinuierlichen Verfahren erzeugen üblicherweise für jeden Pixel einen Verschiebungsvektor durch Berechnung ei­ nes räumlich-zeitlichen Gradienten einer lokalen Intensi­ tätsverteilung [6]. Die dabei benutzte Glättung führt zu Fehlern an Diskontinuitäten des Bewegungsvektorfeldes und erschwert eine bewegungsbasierte Segmentierung.
Die diskreten Verfahren greifen auf signifikante Bildteile wie Ecken [7] und lokale Intensitätsmaxima und -minima zu­ rück, deren Lage in zeitlich aufeinanderfolgenden Aufnah­ men verfolgt wird, um Verschiebungsvektoren zu erzeugen. Die so gewonnenen Verschiebungsvektoren sind zwar sehr ge­ nau, das Vektorfeld ist aber häufig nicht dicht genug be­ setzt, um eine zuverlässige Objekterkennung und -klassifi­ kation zu gewährleisten.
Der vorliegenden Erfindung liegt die Aufgabe zugrunde, ein Verfahren zur Erkennung von Objekten in zeitveränderlichen Aufnahmen einer optisch überwachten Szene anzugeben, das mit vertretbarem Verarbeitungsaufwand eine zuverlässige Erkennung von Objekten ermöglicht.
Die Erfindung ist im Patentanspruch 1 beschrieben. Die Un­ teransprüche enthalten vorteilhafte Ausgestaltungen und Weiterbildungen der Erfindung.
Die Erfindung ermöglicht mit geringem Bildverarbeitungs­ aufwand eine zuverlässige Erkennung und Separation von Ob­ jekten. Die Farbe als Merkmal ist einfach auszuwerten und ist gegenüber der Bewegung eines Objekts eine in beson­ derem Maße beständige Eigenschaft. Die Erfindung liefert präzise Bewegungsvektoren für die farblich einheitlichen Flächen. Vorteilhaft ist die einfache und zuverlässige Be­ stimmung von Bewegungsobjekten durch Zusammenfassung von benachbarten Flächen mit übereinstimmenden oder ähnlichen Bewegungsvektoren. Die Beschreibung der farblich einheit­ lichen Flächen durch Parameter ermöglicht eine besonders einfache Zuordnung entsprechender Flächen in zeitlich auf­ einanderfolgenden Aufnahmen und insbesondere über einen Flächenschwerpunkt oder ein ähnliches Merkmal eine einfa­ che und präzise Bestimmung der Bewegungsvektoren.
Die Farbinformation liegt in den digitalisierten Bilddaten in Form von diskreten Farbwerten vor, die z. B. als Farb­ vektor w mit rot-, Grün- und Blau-Komponenten w = (r,g,b) darstellbar sind. Die Anzahl verschiedener Farben bei der Ermittlung farbig einheitlicher Flächen bestimmt den Auf­ wand bei der Verarbeitung der Bilddaten und die Flächen­ auflösung einer Aufnahme. Während bei einer zu geringen Anzahl verschiedener Farben u. U. verschiedene Objekte nicht mehr zuverlässig getrennt werden, kann eine große Anzahl verschiedener Farben zu einer sehr starken Flächen­ zergliederung der Aufnahme mit entsprechend hohem Verarbeitungsaufwand führen. Die Anzahl der Farben kann im Einzelfall zur Optimierung der Objekterkennung anpaßbar sein. Als vorteilhaft hat sich z. B. die Wahl von sechzehn verschiedenen Farben erwiesen.
Die Farbauflösung nach der Anzahl möglicher diskreter Farbwerte ist für gebräuchliche farbfähige Bildaufnah­ mesensoren wesentlich höher als die für die Ermittlung farblich einheitlicher Flächen zweckmäßige Anzahl ver­ schiedener Farben. Es ist in einem solchen Fall vorteil­ haft, jeweils eine Mehrzahl von Farbwerten gruppenweise zu einer Farbe im Sinne der Bestimmung einheitlich gefärbter Flächen zusammenzufassen. Vorzugsweise wird hierfür die Art der Zusammenfassung nicht durch eine feste Zuordnung einzelner Farbwerte zu einer von mehreren Gruppen vorgege­ ben, sondern aus der Farbverteilung einer oder mehrerer Original-Aufnahmen des jeweiligen Einsatzfalles adaptiv bestimmt. So kann z. B. eine Zusammenfassung von mehreren Farbwerten zu einer Farbe dadurch erfolgen, daß in dem mehrdimensionalen Farbraum mehrere Referenz-Farben defi­ niert werden und die einzelnen Farbwerte derjenigen Refe­ renz-Farbe zugeordnet werden, zu welcher der Vektorabstand im Farbraum am geringsten ist. Die Referenz-Farben sind vorzugsweise adaptiv so gelegt, daß sie eine optimale Re­ präsentation der gegebenen Farbverteilung darstellen. Dies kann als Cluster-Bildung im mehrdimensionalen Farbraum be­ trachtet werden, wobei insbesondere der technische bedeut­ same 3-dimensionale Farbraum mit Rot-, Grün- und Blau-Wer­ ten in Betracht kommt. Eine für Echtzeit-Bildverarbeitung geeignete Cluster-Technik ist z. B. in [10] beschrieben.
Vorteilhaft ist auch, die Anzahl der verschiedenen Farben adaptiv auf der Basis der gegebenen Farbverteilung in den Original-Aufnahmen festzulegen, wodurch die je nach Situa­ tion unterschiedliche Anzahl signifikanter, zur Repräsen­ tation geeigneter Farben berücksichtigt werden kann.
Zur Ermittlung zusammenhängender Flächen einheitlicher Farbe sind geeignete Verfahren an sich bekannt, z. B. ein in [11] beschriebener schneller Algorithmus, mit dem je­ weils die Randlinie einer einheitlich gefärbten Fläche be­ stimmbar ist. Mit geringem Zusatzaufwand können dabei auch weitere Merkmale der jeweiligen einheitlich gefärbten Flä­ che, insbesondere Flächenschwerpunkt, Flächeninhalt und ein durch Zeilen- und Spaltengrenzen umbeschriebenes Rechteck als Parameter der jeweiligen Fläche ermittelt werden. Ebenso können räumliche Nachbarschaftsbeziehungen festgestellt und gespeichert werden.
Für die Gewinnung der Bewegungsinformation aus zeitlich aufeinanderfolgenden Aufnahmen ist die richtige Zuordnung von einander entsprechenden Flächen in verschiedenen Auf­ nahmen von wesentlicher Bedeutung. Die Flächenbeschreibung durch Parameter ist hierfür besonders vorteilhaft. Die Zu­ ordnung von Flächen erfolgt dann vorzugsweise durch Bil­ dung von Differenzen gleichartiger Parameter und Schwell­ wertsetzung für die einzelnen Differenzen oder für Kombi­ nationen mehrerer Differenzwerte, ggf. mit unterschiedli­ cher Gewichtung. Zur Entscheidung, ob eine Fläche A aus einer ersten Aufnahme und eine Fläche B aus einer zweiten, zeitlich verschobenen Aufnahme einander entsprechen, kom­ men als Bewertungsgrößen insbesondere in Betracht
  • a) die Farbdifferenz DCAB ausgedrückt z. B. als Betrag der Differenz der Farbvektoren WA und WB DCAB = | WA - WB |  W = (r, g, b)
  • b) relative Differenz DAAB der Flächeninhalte AA und AB
  • c) Abweichung DS der Seitenverhältnis SA, SB der um­ schreibenden Rechtecke, z. B.
jeweils mit durch Indizes A bzw. B ausgedruckter Flächen­ zugehörigkeit, sowie Kombinationen davon, z. B.
DAB = WC · DCAB + WA · DAAB + WS · DSAB
mit Wi als Gewichtungsfaktoren für die einzelnen Bewer­ tungsgrößen. Das wichtigste Ähnlichkeitsmerkmal ist in Folge der erfindungsgemäßen Flächenermittlung die Farbe der verglichenen Flächen, so daß die Farbdifferenz als vorrangiges Bewertungskriterium separat eine Schwell­ wertvergleich unterzogen wird oder mit starker relativer Gewichtung in eine kombinierte Bewertungsgröße, z. B. DAB, eingeht.
Es ist ferner zweckmäßig, nur solche Flächen nach Krite­ rien der vorstehenden Art auf ihre gegenseitige Entspre­ chung zu überprüfen, deren Flächenschwerpunkte in zeitlich aufeinanderfolgenden Aufnahmen nicht um mehr als einen vorgebbaren Maximalabstand d auseinanderliegen. Die Flä­ chenschwerpunkte können durch zweidimensionale Vektoren gA, gB und der Abstand DF durch den Differenzbetrag DFAB = |gA-gB| ausgedrückt werden. Der Wert für den Maximalabstand d hängt sowohl von der maximal für zu de­ tektierende Objekte zu erwartenden Bildverschiebungsge­ schwindigkeit als auch von der räumlichen Auflösung der Aufnahmen und dem Zeittakt aufeinanderfolgender Aufnahmen ab.
Eine Zuordnung einer bestimmten Flächen A in einer ersten Aufnahme zu einer Fläche B in einer zeitlich benachbarten zweiten Aufnahme kann unter Vorgabe eines Maxiinalabstands d wie vorstehend geschildert z. B. in der Weise erfolgen, daß aus der Gesamtmenge aller Flächen der zweiten Aufnahme eine Teilmenge der Flächen X, welche die Abstandsbedingung |gA - gx| d erfüllen ausgewählt wird, daß für alle Flächen dieser Teilmenge die Bewertungsgröße DAX für die Abweichung wie oben als DAB angegeben bestimmt wird und diejenige Fläche mit der geringsten Abweichung als die der Fläche A entsprechende Fläche B mit DAB = min {DAX} festgestellt wird.
Aus der Differenz der Schwerpunktvektoren ergibt sich di­ rekt ein Bewegungsvektor bAB = gB-gA für die Fläche A nach B, der die Information über Betrag und Richtung der Flächenverschiebung enthält. Vorzugsweise werden die Bewe­ gungsvektoren über mehrere aufeinanderfolgende Aufnahmen für die Bildung von Bewegungstrajektorien aneinanderge­ reiht. Die Bewegungsvektoren und Bewegungstrajektorien re­ präsentieren nur die Flächenverschiebungen in der Bildflä­ che der Aufnahmen, nicht jedoch die davon zu unterschei­ dende räumliche Bewegung von beobachteten Objekten.
Das Verschmelzen, Einschließen, Teilen usw. von Flächen von einer Aufnahme zu einer folgenden kann eine Zuordnung entsprechender Flächen unmöglich machen. Dies kann zur Folge haben, daß sich die Anzahl der Flächen immer wieder ändert und daß die Verfolgung von zuvor bearbeiteten Flä­ chen abgebrochen und die Verfolgung neu erkannter Flächen aufgenommen wird. Um eine falsche Zuordnung bei derartigen Umgestaltungen zu vermeiden, können für die Bewertungs­ größen DCAB, DSAB, DAAB, DAB u.ä. Schwellwerte vorgegeben werden, bei deren überschreiten keine Zuordnung vorgenom­ men wird. Durch Zuordnungsvergleich über mehrere Aufnahme­ takte können lediglich in einer Aufnahme auftretende Flä­ chenänderungen der vorstehenden Art überbrückt und ausge­ glichen werden.
Mit der nach der Erfindung präzise ermittelbaren Bewe­ gungsinformation zu zuverlässig separierten Bildteilen liegt ein wichtiges Unterscheidungsmerkmal als Vorverar­ beitungsergebnis für eine nachfolgende Klassifikation vor.
Vorzugsweise werden zusammengehörige Flächen zu einem Be­ wegungsobjekt zusammengefaßt und als solches gemeinsam ei­ ner Objektklassifikation unterzogen. Für die Entscheidung oder die Zusammengehörigkeit zweier zuvor getrennt bear­ beiteter Flächen zu demselben Bewegungsobjekt ist vorran­ gig von Bedeutung, ob
  • a) die beiden Flächen unmittelbar oder in geringem Abstand benachbart sind; hierfür kann eine unmit­ telbare Nachbarschaft mit teilweise gemeinsamer Randlinie, eine mittelbare Nachbarschaft mit einer gemeinsamen unmittelbaren Nachbarschaftsfläche oder, vorzugsweise, die Überlappung der durch Zei­ len- und Spaltengrenzen umbeschriebenen Rechtecke zur Bedingung gemacht werden
  • b) die Verschiebung der beiden Flächen hinreichend ähnlich ist; hierfür können die Bewegungsvektoren der beiden Flächen z. B. korreliert werden, wobei die Korrelation vorzugsweise über mehrere Aufnah­ metakte hin vorgenommen wird; das Maß der Korre­ liertheit wird durch einen numerischen Wert ausge­ drückt, der mit einem Schwellwert verglichen wird.
Aus den Bewegungsvektoren oder Bewegungstrajektorien aller zu demselben Objekt gehörenden Flächen kann durch mit Flä­ cheninhalten gewichtete Mittelwertbildung ein objektbezo­ gener Bewegungsvektor bzw. eine objektbezogene Bewegungs­ trajektorie gebildet werden, in gleicher Weise kann ein objektbezogener Flächenschwerpunkt gebildet werden. Eine von einem Bewegungsobjekt umfaßte Fläche kann aus dem Be­ wegungsobjekt herausgenommen werden, wenn sie die Bedin­ gungen für die Zugehörigkeit nicht mehr erfüllt. Ebenso kann eine zuvor unabhängige Fläche in ein bestehendes Be­ wegungsobjekt mit aufgenommen werden. Ein Bewegungsobjekt kann in zwei oder mehr getrennte Objekte zerfallen, was insbesondere bei Annäherung an eine von größerer Distanz einheitlich erscheinende Objektgruppe auftritt.
Objekte oder Flächen mit vernachlässigbarer oder ver­ schwindender Verschiebung in der Bildfläche können für die Hinderniserkennung als irrelevant eingestuft und von der heiteren Bearbeitung ausgenommen werden.
In Fig. 1 ist ein Ausschnitt aus einem Bild mit in Zeilen Z und Spalten Sp rasterförmig angeordneten Pixeln skiz­ ziert, in welchem vier Flächen A1, A2, A3, A4 mit durch unterschiedliche Schraffur dargestellten verschiedenen Farben erkennbar sind. Die Flächen sind durch Randlinien L eingegrenzt. Unmittelbar benachbarte Flächen haben gemein­ same Randlinienabschnitte, z. B. A1 und A2, A1 und A4, A2 und A4, A2 und A3. Für die Fläche F4 ist ein durch die Spaltengrenzen und Zeilengrenzen bestimmtes umbeschriebe­ nes Rechteck R4 eingezeichnet. Jede der Flächen weist einen Flächenschwerpunkt S1 usw. auf. Die über mehrere Aufnahmetakte gemittelte Verschiebung der jeweiligen Flä­ chenschwerpunkte ist durch Bewegungstrajektorien b1 usw. zu den Flächenschwerpunkten dargestellt. Bei der Bildung von Bewegungsobjekten erweisen sich die Bewegungstrajekto­ rien zu den benachbarten Flächen F1 und F2 als sehr ähn­ lich, während die Bewegungstrajektorien zu F3 und zu F4 mit denen der übrigen Flächen unkorreliert erscheinen. Die Flächen F1 und F2 werden daher zu einem Bewegungsobjekt zusammengefaßt und z. B. bei einer nachfolgenden Objekt­ klassifikation gemeinsam bearbeitet.
Die Erfindung ist nicht auf die vorliegend im Detail gege­ benen Beispiele beschränkt. Insbesondere sind bezüglich der Flächenbeschreibung durch Parameter, der Entscheidung über die gegenseitige Zuordnung von Flächen aus zeitlich getrennt gewonnenen Bildern der Bildung von Bewegungsob­ jekten und der Verknüpfung von Bilddaten zur Gewinnung der Bewegungsvektoren zahlreiche Abwandlungen im Bereich fach­ männischen Könnens möglich.
Literatur
[1] Thomanek, F., Dickmanns, E.D. and Dickmanns, D., "Multiple Object Recognition and Scene Interpreta­ tion for Autonomous Road Vehicle Guidance", IEEE Symposium on Intelligent Vehicles, pp. 231-236, Paris, 1994
[2] Schwarzinger, M, Zielke, T., Noll, D., Brauckmann, M., von Seelen, W., "Vision-Based Car-Following: Detection, Tracking, and Identification", IEEE Symposium on Intelligent Vehicles, pp. 24-29, De­ troit, 1992
[3] Saneyoshi, K., Hanawa, K., Kise, K., Sogawa Y., "3-D Recognition System for Drive Assist", IEEE Symposium on Intelligent Vehicles, pp. 60-65, To­ kyo, 1993
[4] Brauckmann, M.E. Goerick, C., Groß, J. and Zielke, T., "Towards All Around Automatic Visual Obstacle Sensing for Cars", IEEE Symposium on Intelligent Vehicles, pp. 79-84, Paris, 1994
[5] Kilger, M., "A shadow handler in a video-based real-time traffic monitoring system", Proc. IEEE Workshop on Applications of Computer Vision, Palm Springs, CA, pp. 1060-1066, 1992
[6] Horn, B.K.P. and Schunck, B., "Determining optical flow", Artificial Intell., vol. 17, pp. 185-203, 1981
[7] Weng, J., Ahuja, N., Huang, T.S., "Matching two perspective views", IEEE Trans. Pattern Analysis and Machine Intelligence, vol. PAMI 14, no. 8, pp. 806-825, 1992
[8] Koller, D., Heinz, N.; Nagel, H.-H., "Algorithmic characterization of vehicle trajectories from image sequences by motion verbs", Proc. IEEE Conf. Computer Vision and Pattern Recognition, Maui, HI, pp. 90-95, 1991
[9] Wu, X., and Witten, I.H., "A fast k-means type clustering algorithm", Dept Computer Science, Univ. of Calgary, Canada, 1985
[10] Mandler, E. and Oberländer, M., "One-pass Encoding of Connected Components in Multi-Valued Images", 10th International Conference on Pattern Recogni­ tion (ICPR), pp. 64-69, Atlantic City, 1990.

Claims (9)

1. Verfahren zur Erkennung von Objekten in zeitveränder­ lichen Aufnahmen einer optisch überwachten Szene, dadurch gekennzeichnet, daß die Bilder mehrfarbig aufgenommen wer­ den, daß innerhalb eines Bildes zusammenhängende Flächen einheitlicher Farbe ermittelt werden und daß für einander entsprechende Flächen in zeitlich aufeinanderfolgenden Bildern jeweils ein Bewegungsvektor ermittelt wird.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß für die zusammenhängenden Flächen Parameter ermittelt und zur Bildfolgenauswertung herangezogen werden.
3. Verfahren nach Anspruch 2, dadurch gekennzeichnet, daß als Parameter neben Farbe der Flächeninhalt und/oder der Flächenschwerpunkt bestimmt wird.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, daß aus den Bewegungsvektoren einander entsprechender Flächen über mehrere aufeinanderfolgende Bilder Bewegungstrajektorien gebildet werden.
5. Verfahren nach einem der Ansprüche 1 bis 4, dadurch gekennzeichnet, daß angrenzende Flächen mit ähnlichen Bewegungsvektoren oder Bewegungstrajektorien zu Bewegungs­ objekten zusammengefaßt werden.
6. Verfahren nach Anspruch 5, dadurch gekennzeichnet, daß zu einem Bewegungsobjekt jeweils ein Bewegungsvektor oder eine Bewegungstrajektorie aus den Bewegungsvektoren bzw. Bewegungstrajektorien der objektbildenden Flächen abgelei­ tet wird.
7. Verfahren nach einem der Ansprüche 1 bis 6, dadurch gekennzeichnet, daß die Aufnahmen mit einer eine erste An­ zahl diskreter Farbwerte umfassenden Farbauflösung aufge­ nommen und jeweils mehrere Farbwerte in gruppenweiser Zu­ sammenfassung als gleichfarbig weiterverarbeitet werden.
8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß die Art der gruppenweisen Zusammenfassung aus der Farb­ wertverteilung einer oder mehrerer Aufnahmen abgeleitet wird.
9. Verfahren nach einem der Ansprüche 5 bis 8, dadurch gekennzeichnet, daß ein Klassifikator auf die Bewegungsob­ jekte angewandt wird.
DE19534230A 1995-09-15 1995-09-15 Verfahren zur Erkennung von Objekten in zeitveränderlichen Bildern Withdrawn DE19534230A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE19534230A DE19534230A1 (de) 1995-09-15 1995-09-15 Verfahren zur Erkennung von Objekten in zeitveränderlichen Bildern
EP96113045A EP0763800A3 (de) 1995-09-15 1996-08-14 Verfahren zur Erkennung von Objekten in zeitveränderlichen Bildern

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE19534230A DE19534230A1 (de) 1995-09-15 1995-09-15 Verfahren zur Erkennung von Objekten in zeitveränderlichen Bildern

Publications (1)

Publication Number Publication Date
DE19534230A1 true DE19534230A1 (de) 1997-03-20

Family

ID=7772255

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19534230A Withdrawn DE19534230A1 (de) 1995-09-15 1995-09-15 Verfahren zur Erkennung von Objekten in zeitveränderlichen Bildern

Country Status (2)

Country Link
EP (1) EP0763800A3 (de)
DE (1) DE19534230A1 (de)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10065180A1 (de) * 2000-12-23 2002-07-11 Eads Deutschland Gmbh Sensorsystem mit optischen sensoren zur Kollisionsvermeidung von Flugzeugen sowie ein Verfahren zu deren Durchführung
DE10029866B4 (de) * 1999-06-16 2006-06-08 Honda Giken Kogyo K.K. Objekterkennungssystem
AT414056B (de) * 2001-03-13 2006-08-15 Siemens Ag Oesterreich Verfahren zur überwachung einer lifttrasse und ihrer umgebung
DE10030421B4 (de) * 1999-06-23 2006-10-05 Honda Giken Kogyo K.K. Fahrzeugumgebungsüberwachungssystem
DE102007006885A1 (de) * 2007-02-08 2008-08-21 Siemens Ag Verfahren und Anordnung zur Erfassung vorbeifahrender Züge
DE102013021840A1 (de) * 2013-12-21 2015-06-25 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erzeugen eines Umgebungsmodells eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug
DE19842827B4 (de) * 1998-09-18 2015-08-06 Volkswagen Ag Precrashsensierungssystem
DE102015006569A1 (de) 2015-05-21 2015-12-17 Daimler Ag Verfahren zur bildbasierten Erkennung des Straßentyps

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0542091A2 (de) * 1991-11-04 1993-05-19 Hughes Aircraft Company Videobildverarbeitungssystem und Verfahren zur Fahrzeugerfassung
EP0560610A2 (de) * 1992-03-13 1993-09-15 Canon Kabushiki Kaisha Bewegungsvektornachweisgerät

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5473369A (en) * 1993-02-25 1995-12-05 Sony Corporation Object tracking apparatus

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0542091A2 (de) * 1991-11-04 1993-05-19 Hughes Aircraft Company Videobildverarbeitungssystem und Verfahren zur Fahrzeugerfassung
EP0560610A2 (de) * 1992-03-13 1993-09-15 Canon Kabushiki Kaisha Bewegungsvektornachweisgerät

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19842827B4 (de) * 1998-09-18 2015-08-06 Volkswagen Ag Precrashsensierungssystem
DE10029866B4 (de) * 1999-06-16 2006-06-08 Honda Giken Kogyo K.K. Objekterkennungssystem
DE10030421B4 (de) * 1999-06-23 2006-10-05 Honda Giken Kogyo K.K. Fahrzeugumgebungsüberwachungssystem
DE10065180A1 (de) * 2000-12-23 2002-07-11 Eads Deutschland Gmbh Sensorsystem mit optischen sensoren zur Kollisionsvermeidung von Flugzeugen sowie ein Verfahren zu deren Durchführung
AT414056B (de) * 2001-03-13 2006-08-15 Siemens Ag Oesterreich Verfahren zur überwachung einer lifttrasse und ihrer umgebung
DE102007006885A1 (de) * 2007-02-08 2008-08-21 Siemens Ag Verfahren und Anordnung zur Erfassung vorbeifahrender Züge
DE102013021840A1 (de) * 2013-12-21 2015-06-25 Valeo Schalter Und Sensoren Gmbh Verfahren zum Erzeugen eines Umgebungsmodells eines Kraftfahrzeugs, Fahrerassistenzsystem und Kraftfahrzeug
DE102015006569A1 (de) 2015-05-21 2015-12-17 Daimler Ag Verfahren zur bildbasierten Erkennung des Straßentyps

Also Published As

Publication number Publication date
EP0763800A2 (de) 1997-03-19
EP0763800A3 (de) 2000-02-23

Similar Documents

Publication Publication Date Title
EP0385384B1 (de) Verfahren zur Detektion bewegter Objekte in digitaler Bildfolge
DE19636028C1 (de) Verfahren zur Stereobild-Objektdetektion
EP2467828B1 (de) Verfahren und system zur automatischen objekterkennung und anschliessenden objektverfolgung nach massgabe der objektform
EP0541567B1 (de) Verfahren zur analyse zeitlicher folgen digitaler bilder
AT506928B1 (de) Verfahren zur videoanalyse
DE69032146T2 (de) System zur Auffindung eines beweglichen Objekts
DE112009000949T5 (de) Detektion eines freien Fahrpfads für ein Fahrzeug
DE102014216794A1 (de) Robuste und recheneffiziente videobasierte Objektverfolgung in kontrollierten Bewegungsumgebungen
DE112011103690T5 (de) Erkennung und Verfolgung sich bewegender Objekte
EP2005361A1 (de) Multisensorieller hypothesen-basierter objektdetektor und objektverfolger
DE102015115786B4 (de) An einem computer realisiertes verfahren und system zur verarbeitung einer sequenz von bildern
DE102012000459A1 (de) Verfahren zur Objektdetektion
DE102016014783A1 (de) Verfahren zur Detektion von Objekten
DE102018123393A1 (de) Erkennung von Parkflächen
EP3931798B1 (de) Schätzung der bewegung einer bildposition
DE19534230A1 (de) Verfahren zur Erkennung von Objekten in zeitveränderlichen Bildern
EP0564858B1 (de) Verfahren zur Auflösung von Clustern bewegter Segmente
DE102015115789A1 (de) Doppler-basierte Segmentierung und optischer Fluss in Radarbildern
DE102017215718B4 (de) Verfahren zum Auswerten eines optischen Erscheinungsbildes in einer Fahrzeugumgebung und Fahrzeug
EP3857304B1 (de) Verfahren zum fokussieren einer kamera
DE102008036219A1 (de) Verfahren zur Erkennung von Objekten im Umfeld eines Fahrzeugs
DE102019209473A1 (de) Verfahren und Vorrichtung zur schnellen Erfassung von sich wiederholenden Strukturen in dem Bild einer Straßenszene
Zeng et al. Categorical color projection for robot road following
EP2115699B1 (de) Verfahren zur selbsttätigen analyse von objektbewegungen
DE10136649B4 (de) Verfahren und Vorrichtung zur Objekterkennung von sich bewegenden Kraftfahrzeugen

Legal Events

Date Code Title Description
OM8 Search report available as to paragraph 43 lit. 1 sentence 1 patent law
8127 New person/name/address of the applicant

Owner name: DAIMLERCHRYSLER AG, 70567 STUTTGART, DE

8110 Request for examination paragraph 44
8127 New person/name/address of the applicant

Owner name: DAIMLERCHRYSLER AG, 70327 STUTTGART, DE

8127 New person/name/address of the applicant

Owner name: DAIMLER AG, 70327 STUTTGART, DE

R120 Application withdrawn or ip right abandoned

Effective date: 20121024