DE19749136A1 - Verfahren und Vorrichtung zum Erfassen von Bewegungen - Google Patents

Verfahren und Vorrichtung zum Erfassen von Bewegungen

Info

Publication number
DE19749136A1
DE19749136A1 DE1997149136 DE19749136A DE19749136A1 DE 19749136 A1 DE19749136 A1 DE 19749136A1 DE 1997149136 DE1997149136 DE 1997149136 DE 19749136 A DE19749136 A DE 19749136A DE 19749136 A1 DE19749136 A1 DE 19749136A1
Authority
DE
Germany
Prior art keywords
brightness values
vector
scene
values
spectral ranges
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE1997149136
Other languages
English (en)
Other versions
DE19749136C2 (de
Inventor
Uwe Beis
Thomas Geutebrueck
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
GEUTEBRUECK GmbH
Original Assignee
GEUTEBRUECK GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by GEUTEBRUECK GmbH filed Critical GEUTEBRUECK GmbH
Priority to DE1997149136 priority Critical patent/DE19749136C2/de
Priority to PCT/EP1998/005929 priority patent/WO1999024949A1/de
Priority to CN 98810920 priority patent/CN1278939A/zh
Priority to EP98951430A priority patent/EP1072028A1/de
Publication of DE19749136A1 publication Critical patent/DE19749136A1/de
Application granted granted Critical
Publication of DE19749136C2 publication Critical patent/DE19749136C2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19602Image analysis to detect motion of the intruder, e.g. by frame subtraction
    • G08B13/1961Movement detection not involving frame subtraction, e.g. motion detection on the basis of luminance changes in the image

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

Die vorliegende Erfindung betrifft ein Verfahren und eine Vor­ richtung zum automatischen Erfassen von Bewegungen in einer Szene wie etwa dem Blickfeld einer Videokamera. Zur Gebäude- und Geländesicherung werden häufig elektronische Sicherheitsanlagen eingesetzt. Fernsehanlagen dienen in diesem Zusammenhang dazu, dem ggf. vorhandenen Wachpersonal einen optischen Überblick über das Geschehen vor Ort zu verschaffen. Da aber ständiges Beobach­ ten von Videomonitoren nicht zumutbar ist, werden in der Regel Bewegungsmelder eingesetzt, die dem Wachpersonal ein Ereignis bzw. eine Bewegung vor Ort signalisieren. Häufig werden hierzu Video-Bewegungsmelder eingesetzt, die Bewegungen vor Ort auf elektronischem Wege durch geeignete Auswertungen des von der Kamera gelieferten Videosignals erkennen. Ein solches Verfahren ist z. B. in DE 32 14 254 A beschrieben.
Die bekannten Verfahren und Vorrichtungen zum Erfassen von Bewe­ gungen werten lediglich die Helligkeitsinformation einer Szene aus. Dabei ergibt sich das Problem, daß es insbesondere bei Außenüberwachungen viele Änderungen in der überwachten Szene gibt, die nicht durch zu erkennende Objekte wie etwa Personen oder Fahrzeuge, sondern durch Beleuchtungsschwankungen aller Art verursacht werden. Ursachen solcher Beleuchtungsschwankungen können z. B. Wolken sein, die die Sonne verdecken, aber auch Schatten durch Wind bewegter Bäume, das An- und Ausgehen von vorübergehender Beleuchtung, z. B. durch die Scheinwerfer von an einer in Dämmerlicht beobachteten Szene vorbeifahrenden Fahr­ zeugen, etc. Solche Beleuchtungsänderungen, die nicht die gesamte beobachtete Szene gleichmäßig erfassen, sind auf elektronischem Wege schwer von sich bewegenden Personen oder Fahrzeugen zu unterscheiden. Bei den meisten bekannten Bewegungserfassungs­ verfahren und -vorrichtungen werden die Unterschiede zwischen den zu erkennenden und den zu ignorierenden Szenenänderungen so gut wie möglich herausgearbeitet, z. B. durch automatische Mu­ stererkennung, damit die Unterscheidung so sicher wie möglich erfolgen kann. Bei diesen Verfahren muß stets die Information von einer sehr großen Zahl von Bildpunkten gemeinsam verarbeitet werden, um ein zu suchendes Muster halbwegs sicher zu erkennen. Hierfür ist ein erheblicher Rechenaufwand erforderlich, der mit der Zahl der gemeinsam zu überwachenden Punkte überproportional ansteigt. Dennoch können leicht Fehler bei der Erkennung auf­ treten, z. B. wenn das zu erkennende Muster in der Szene teilweise verdeckt ist.
Aufgabe der vorliegenden Erfindung ist, ein Verfahren und eine Vorrichtung zum Erfassen von Bewegungen anzugeben, die bereits anhand einzelner Bildpunkte eine erheblich zuverlässigere Beur­ teilung des Vorliegens einer Bewegung gestatten als die herkömm­ lichen Verfahren und Vorrichtungen.
Diese Aufgabe wird gelöst durch ein Verfahren und eine Vorrich­ tung gemäß den unabhängigen Ansprüchen.
Der Erfindung liegt die Idee zugrunde, zum Erfassen von Bewegun­ gen Farbeigenschaften oder einen Farbwert eines Punktes durch Messen von dessen Helligkeit in wenigstens zwei verschiedenen Spektralbereichen zu messen und die gemessenen Helligkeitswerte als einen Vektor aufzufassen. Wenn sich nur die Beleuchtung des Punktes verändert, so verändern sich die verschiedenen Hellig­ keitswerte jeweils proportional, d. h. der dem Punkt zugeordnete Vektor verändert seine Länge. Ändert sich aber der Farbton des betreffenden Punktes, so führt dies zu einer Drehung des Vektors. Der durch die Drehung bedingte Abstand der Vektoren wird ermittelt, und wenn er einen vorgegebenen Grenzwert überschrei­ tet, wird entschieden, daß eine Bewegung vorliegt.
Der Abstand kann auf unterschiedliche Weise gemessen werden, z. B. als Winkelabstand, als kartesischer Abstand oder nach einer beliebigen anderen geeigneten Metrik.
Die Dimension n' des Vektorraumes, in dem die Vektoren bestimmt werden, kann der Zahl n der bestimmten Helligkeitswerte entspre­ chen, sie kann auch um eins kleiner sein.
In letzterem Fall ist es bevorzugt, die Vektoren im n'-di­ mensionalen Vektorraum durch Lineartransformieren der jeweils n Helligkeitswerte mit einer Transformationsmatrix zu bestimmen, die in jeder Zeile Koeffizienten mit positivem und negativem Vorzeichen enthält. Die so erhaltenen Vektorkomponenten ändern sich bei einer reinen Helligkeitsänderung relativ wenig, bei einer Farbänderung dafür aber stark.
Die Summe der Koeffizienten einer Matrixzeile ist vorzugsweise 0, in diesem Fall sind die erhaltenen Vektorkomponenten völlig unempfindlich gegen Änderungen der Helligkeit eines unbunten Punktes der überwachten Szene. Alternativ ist es zweckmäßig, einen in der beobachteten Szene vorherrschenden Farbton zu wählen und die Koeffizienten so zu wählen, daß die Lineartransformation dieses Farbtons 0 ergibt. Dadurch lassen sich Szenen mit einer ausgeprägten Farbe oder unter farbiger Beleuchtung zuverlässiger überwachen.
Es ist erfindungsgemäß besonders bevorzugt, die Helligkeitswerte denjenigen Spektralbereichen zu bestimmen, mit denen auch herkömmliche Videokameras arbeiten. Diese Spektralbereiche können die drei normierten Spektralbereiche R, G, B eines Farbvideosignals sein, es können die von den CCD's einfacher Karbvideokameras beobachteten Farben Cyan, Magenta, Gelb und Grün sein, sie können jedoch auch abweichend davon gewählt werden, z. B. wenn die Art der Beleuchtung oder die Färbung der zu überwachenden Szene dies angezeigt erscheinen läßt. Zusätzlich oder anstelle eines der genannten Spektralbereiche können auch außerhalb des sichtbaren, im Infrarotem oder Ultravioletten liegenden Spektralbereiche überwacht werden.
Wenn die gemessenen Spektralbereiche die Spektralbereiche R, G, B sind, so erfolgt die Lineartransformation vorzugsweise in eines der Koordinatensysteme U, V; I, Q; oder DB, DR. Die Definitionen der Koordinatenachsen U, V; I, Q bzw. DB, DR sind aus der PAL-, NTSC- oder SECAM-Fernsehnorm bekannt.
Wenn der einem Farbwert eines Punktes zugeordnete Vektor sehr kurz ist, z. B. weil die Helligkeitswerte des Punktes in allen beobachteten Spektralbereichen sehr klein sind, so ist die durch den Vektor definierten Geraden mit relativ großen Unsicherheiten behaftet, die dazu führen können, daß irrtümlich beim Vergleich der Richtungen zweier Vektoren eine Bewegung erkannt wird, wo keine vorliegt. Um solche Fehler zu vermeiden, ist bevorzugt, daß unter den zwei einem Bildpunkt zugeordneten Vektoren der längere als erster Vektor ausgewählt wird, da sich dessen Richtung genauer bestimmen läßt.
Ein anderes Problem kann auftreten, wenn sehr intensiv beleuch­ tete Bildpunkte untersucht werden müssen. Die Richtung eines Vektors bei Änderungen der Beleuchtungsstärke bleibt dann unver­ ändert, wenn die erfaßten Helligkeitswerte linear proportional zur Beleuchtungsstärke sind. Dies ist nicht mehr der Fall, wenn eine Sättigungsgrenze der zum Erfassen der Helligkeitswerte verwendeten Sensoren überschritten wird. Dieses Problem läßt sich umgehen, wenn in Schritt (a) m Helligkeitswerte in m ver­ schiedenen Spektralbereichen zu diesem Zeitpunkt aufgenommen werden; wenn einer der Helligkeitswerte oberhalb der Sättigungs­ grenze liegt, die Helligkeitswerte des entsprechenden Spektral­ bereiches verworfen werden und die Schritte (b) bis (d) an den Helligkeitswerten derjenigen n Spektralbereiche durchgeführt werden, deren Helligkeitswerte unterhalb der Sättigungsgrenzen liegen.
Weitere Merkmale und Vorteile der Erfindung ergeben sich aus der nachfolgenden Beschreibung von Ausführungsbeispielen unter Be­ zugnahme auf die beigefügten Figuren. Es zeigen:
Fig. 1 eine erfindungsgemäße Bewegungserfassungsvorrichtung,
Fig. 2 eine Darstellung eines dreidimensionalen Farbvektorrau­ mes zur Veranschaulichung einer ersten Ausgestaltung des Verfahrens,
Fig. 3 eine zweite Darstellung des dreidimensionalen Farbvek­ torraumes zur Veranschaulichung der Verarbeitung von Farbwerten über der Sättigungsgrenze,
Fig. 4 ein Flußdiagramm der zweiten Ausgestaltung des Ver­ fahrens,
Fig. 5 eine Darstellung eines zweidimensionalen Vektorraumes zur Veranschaulichung einer zweiten Ausgestaltung des Verfahrens,
Fig. 6 ein Flußdiagramm der zweiten Ausgestaltung des Ver­ fahrens.
Fig. 1 zeigt stark schematisiert eine erfindungsgemäße Bewe­ gungserfassungsvorrichtung. Sie umfaßt eine auf eine Szene ge­ richtete Farbvideokamera 1, eine Schnittstelle 3, die die von der Kamera 1 aufgenommenen Bilder empfängt und als Folge digita­ lisierter RGB-Datenwerte auf einen Bus 9 eines Datenverarbei­ tungssystemes mit Schreiblesespeicher 5 und Recheneinheit 7 ausgibt. Die Daten jedes Bildpunktes werden im Schreiblesespei­ cher 5 abgelegt. Die Recheneinheit 7 empfängt ebenfalls die von der Schnittstelle ausgegebenen Daten für jeden Bildpunkt, liest aus dem Schreiblesespeicher 5 zu einem früheren Zeitpunkt darin abgespeicherte Daten desselben Bildpunktes und führt daran eine Verarbeitung aus, die in Verbindung mit Fig. 2 und 3 genauer beschrieben wird.
Die Kamera 1 gibt für jeden Bildpunkt drei Helligkeitswerte R, G, B die (in willkürlichen Einheiten) Werte zwischen Null (Dun­ kelheit) und Eins (maximales Signal) annehmen können. Die Gesamtheit aller möglichen Wertetripel läßt sich veranschaulichen als ein Würfel mit Kantenlänge 1 in einem dreidimensionalen Vektorraum, wie er in Fig. 2 dargestellt ist.
Der Vektor A1 bezeichnet das von der Kamera für einen Bildpunkt zu einem ersten Zeitpunkt ausgegebene Wertetripel. Verändert sich die Beleuchtungsstärke an dem betrachteten Punkt um einen gegebenen Faktor, so ändern sich alle drei Helligkeitswerte um den gleichen Faktor. So kann z. B. bei einer Verstärkung der Beleuchtung der Vektor A1 in den Vektor A2 übergehen. Findet an dem betreffenden Punkt des Bildes eine Bewegung statt, so äußert sich dies zumeist durch eine Änderung des Farbtons des Punktes. Es wird dann eine neuer Vektor B erhalten, der nicht zu den Vektoren A1, A2 parallel ist. Die Recheneinheit 7 bestimmt für den betreffenden Bildpunkt
d = | B × A1 |/|A1|.
Dieser Ausdruck gibt die Länge des Lots von der Spitze des Vek­ tors B zur durch den Vektor A1 definierten Geraden an. Wenn dieser Abstand einen vorgegebenen Grenzwert E überschreitet, mit anderen Worten, der Endpunkt des Vektors B außerhalb eines Zy­ linders mit Radius E um den Vektor A1 liegt, entscheidet die Recheneinheit 7, daß die Farbänderung auf eine Bewegung zurück­ gehen muß und gibt ein entsprechendes Warnsignal aus.
Fig. 3 zeigt eine Variante dieses Verfahrens für den Fall, daß einer der gemessenen Helligkeitswerte in der Nähe der Sättigungsgrenze der Kamera 1 liegt. In Fig. 3 liegt der B-Wert des Farbvektors A3 nahe bei 1 und somit im Sättigungsbereich der Kamera. R- und G-Wert hingegen sind deutlich kleiner als 1, wie die Projektion A3, des Vektors A3 in die RG-Ebene zeigt.
Wenn die Beleuchtungsstärke am Bildpunkt des Vektors A3 zunimmt, so kann der gesättigte B-Wert nicht in dem selben Maße ansteigen, wie R- und G-Wert, da der Wert 1, der dem Vollausschlag der Kamera 1 entspricht, nicht überschritten werden kann. Dies hat zur Folge, daß bei einer zunehmenden Beleuchtungsstärke der Farbvektor nicht nur seine Länge, sondern auch seine Richtung ändert, indem er z. B. von A3 nach A4 übergeht. Der Endpunkt des Vektors A4 liegt deutlich außerhalb des A3 umgebenden Zylinders Z3 mit Radius ε. Diesem Problem kann dadurch Rechnung getragen werden, daß bei der Auswertung der Farbvektoren A3 und A4 die gesättigten B-Werte kurzerhand unberücksichtigt bleiben. Der zu betrachtende Vektorraum reduziert sich damit von den bisher drei Dimensionen R, G, B auf die zwei Dimensionen R, G. Es sind somit nicht mehr die Vektoren A3, A auf eine Richtungsänderung zu untersuchen, sondern deren Projektionen A3', A4' in die RG-Ebene. Wenn das Lot vom Endpunkt des Vektors A4' zur durch den Vektor A3' festgelegten Geraden länger als der Radius E ist, d. h. der Endpunkt von A4' außerhalb des 2ε breiten Streifens Z3' liegt, der die Projektion des Zylinders Z3 in die RG-Ebene darstellt, so entscheidet die Recheneinheit 7, daß eine Bewegung vorliegt. Im vorliegenden Fall, in dem sich lediglich die Beleuchtungsstärke geändert hat, sind die Änderungen der R- und G-Helligkeitswerte proportional, so daß A3' und A4' kolinear sind. Es wird somit ent­ schieden, daß keine Bewegung vorliegt.
Dieses Verfahren ist natürlich in gleicher Weise durchführbar, wenn ein anderer der gemessenen Spektralbereiche gesättigt ist, wobei dann die Projektion auf eine jeweils andere Ebene erfolgt.
Selbstverständlich können auch mehr oder andere als die drei genannten Spektralbereiche erfaßt werden, insbesondere kann auch die Helligkeit einer Szene im Infraroten oder Ultravioletten gemessen werden. Für die Durchführbarkeit des Verfahrens genügt es, wenn unter sämtlichen gemessenen Spektralbereichen zwei Stück Helligkeitswerte unter der Sättigungsgrenze aufweisen.
Fig. 4 zeigt ein Flußdiagramm des anhand von Fig. 2 und 3 beschriebenen Verfahrens, bei dem allgemein in Spektralbereiche untersucht werden.
In Schritt 41 empfängt die Recheneinheit 7 Helligkeitswerte H1 = (H11, . . . H1m) von der Kamera 1. Im folgenden Schritt 42 liest sie die zu demselben Punkt gehörigen Helligkeitswerte H2 = (H21, . . . H2m) aus dem Speicher 5, in den sie bei der Übertragung des vor­ hergehenden Bildes von der Kamera 1 eingetragen wurden. Anschlie­ ßend (Schritt 43) werden die Helligkeitswerte H2 im Speicher mit den Werten H1 überschrieben.
Die Recheneinheit bestimmt nun diejenigen Spektralbereiche i, für die sowohl H1i als auch H2i unter der für den jeweiligen Spektralbereich zutreffenden Sättigungsgrenze liegen (Schritt 44). Die so erhaltenen Werte mit eventuell reduzierter Komponen­ tenzahl n werden zu Vektoren h1, h2 zusammengefaßt (Schritt 45).
Anschließend werden in Schritt 46 die Betragsquadrate h1 2 = h11 2 +. . .+ h1m 2 und h21 2 = h21 2+. . .+ h2n 2 bestimmt und miteinander vergli­ chen. Wenn h2<h2 2, werden die beiden Vektoren vertauscht, so daß h2 der Kürzere der beiden Vektoren ist. Das Betragsquadrat des längeren wird in Schritt 48 mit einem Mindestwert verglichen. Ist es kleiner als der Mindestwert, so wird entschieden, daß der Vektor zu kurz ist, als daß sich seine Richtung mit zur Bewe­ gungserfassung hinreichender Sicherheit bestimmen ließe. In die­ sem Fall endet die Verarbeitung.
Alternativ kann in Schritt 48 das Betragsquadrat mit Null verglichen und bei Gleichheit die Verarbeitung beendet werden. Dieser Vergleich ist schneller durchzuführen als der mit einer reellen Konstante E.
Ergibt jedoch Schritt 48, daß das Betragsquadrat von h2 groß genug ist, um eine Bestimmung der Richtung des Vektors mit hin­ reichender Sicherheit zu gestatten, (bzw. daß es nicht Null ist,) so wird in Schritt 49 die Länge des Lots d vom Endpunkt des Vektors h2 zu der durch h1 definierten Geraden berechnet. Hierzu kann unabhängig von der Komponentenzahl der Vektoren die Formel
d = | (h2.e1) e1 - h2 |
mit
e1 = h1/|h1|
verwendet werden. In Schritt 50 wird die ermittelte Länge d mit dem vorgegebenen Grenzwert ε verglichen. Wenn d kleiner ist, ist das Verfahren für den betreffenden Bildpunkt beendet, und es kann an einem weiteren Bildpunkt wiederholt werden. Wenn d größer ist, gibt die Recheneinheit in Schritt 51 ein Signal aus, das das Vorhandensein einer Bewegung anzeigt.
Fig. 5 zeigt eine zweite Darstellung des RGB-Farbraumes mit eingezeichnetem YUV-Koordinatensystem. Herkömmliche Farbfernseh­ systeme übertragen nicht die direkt von der Kamera gewonnenen RGB-Farbwerte, sondern ein Leuchtdichtesignal Y, definiert durch Y=0,3 R+0,59 G+0,1 B und zwei Farbdifferenzensignale, die unterschiedlich definiert sein können. Die bekannte PAL-Norm verwendet z. B. Signale U, V, die aus der Tripel der RGB-Werte durch die Lineartransformation
erhalten werden.
Das durch die drei Größen Y, U und V aufgespannte Koordinatensystem ist ebenfalls in Fig. 5 gezeigt. Die Y-Achse verläuft durch die zwei Eckpunkte (0; 0; 0) und (1; 1; 1) des Würfels.
Wenn sich die Farbe eines beobachteten Punktes ändert, so führt dies immer zu einer Veränderung der zugeordneten U- und V-Werte, nicht aber zwangsläufig zu einer Änderung von dessen Helligkeit Y. Da anhand des Y-Wertes somit keine sichere Bewegungserkennung möglich ist, kann dieser bei der Auswertung der Bildinformation unberücksichtigt bleiben. Dies bedeutet, daß anstatt der Rich­ tungen der zwei Vektoren A5, A6 im RGB-Raum nur die Richtungen ihrer Projektionen A5', A6' auf die U,V-Ebene verglichen werden. Dadurch reduziert sich die Menge der von der Recheneinheit 7 zu verarbeitenden Daten auf 2/3.
Fig. 6 zeigt ein Flußdiagramm der Signalverarbeitung gemäß der zweiten Ausgestaltung des Verfahrens. In Schritt 61 empfängt die Schnittstelle 3 Helligkeitswerte (R1, G1, B1) von der Kamera 1 und bestimmt daraus in Schritt 62 die Farbdifferenzwerte U1, V1. Hierfür kann die Schnittstelle 3 eine herkömmliche PAL-Coder­ schaltung enthalten, die alle drei Komponenten Y, U, V des PAL-Bildsignals erzeugt. Da das Y-Signal nicht verarbeitet wird, kann auch eine vereinfachte Schaltung eingesetzt werden, die lediglich die zwei Farbdifferenzsignale U und V ausgibt. Die Recheneinheit 7 empfängt die von der Schnittstelle 3 ausgegebenen digitalisierten Werte U1, V1, liest zu einem früheren Zeitpunkt zu demselben Bildpunkt aufgenommene Farbdifferenzwerte U2, V2 aus dem Speicher 5 (Schritt 63) und speichert darin die aktuellen Farbdifferenzwerte U1, V1 (Schritt 64). In Schritt 65 werden die Längen L1, L2 der Farbdifferenzvektoren (U1, V1), (U2, V2) bestimmen. Sind diese zwei Längen gleich Null, so kann [der Abstand des Endpunktes des entsprechenden Vektors von der durch den anderen Vektor festgelegten Geraden nicht größer sein als ε] die weitere Verarbeitung dieser zwei Vektoren nicht mehr zur Erfassung einer Bewegung führen, das Verfahren bricht somit ab Schritt 66. Sind beide Vektoren länger als ε, so werden in Schritt 67 ihre Längen verglichen. In Schritt 68 oder 69 wird die Länge des Lots D des Endpunkte s des kürzeren der zwei Vektoren auf die durch den längeren festgelegte, mit diesem kollineare Gerade anhand der Formel D=(U2V1-U1V2)/L1, wenn L1<L2 ist, und sonst nach der Formel D=(U1V2-U2V1)/L2 bestimmt.
Wird in Schritt 70 festgestellt, daß D größer ist als der Grenz­ wert E, so entscheidet die Recheneinheit 7, daß eine Bewegung vorliegt und gibt eine diesbezügliche Meldung aus (Schritt 71). Damit ist das Verfahren beendet und kann an einem weiteren Bild­ punkt wiederholt werden.
Gemäß einer ersten Weiterentwicklung dieses Verfahrens kann zwischen Schritt 70 und 71 in einem Zwischenschritt noch überprüft werden, ob von L1 und L2 wenigstens einer größer als ein Mindestwert, z. B. ε, ist. Wenn ja, wird zu Schritt 71 verzweigt, wenn nein, wird entschieden, daß die Vektoren für eine bzw. zuverlässige Erkennung einer Richtungsänderung zu kurz sind, und die Verarbeitung bricht ab.
Alternativ kann gemäß einer zweiten Weiterentwicklung in Schritt 66 entschieden werden, ob wenigstens einer von L1 und L2 größer als ε ist. Wenn nein, bricht die Verarbeitung ab; wenn ja, wird zu Schritt 67 verzweigt. Auf diese Weise werden für zu kurze Vektoren die Verarbeitungsschritte 67 bis 70 gar nicht erst durchgeführt.
Zahlreiche Abwandlungen des erfindungsgemäßen Verfahrens sind möglich. Im Prinzip ist die Zahl der Spektralbereiche, die ge­ messen und bei der Signalverarbeitung berücksichtigt werden können, unbegrenzt. Auch wenn mehr oder andere als die oben bei­ spielhaft genannten Spektralbereiche R, G, B gemessen werden, ist es immer möglich, eine Koordinatentransformation der erhaltenen Helligkeitswerte in ein Koordinatensystem mit einer im ersten Quadranten des von den Helligkeitswerten aufgespannten Koordinatensystems verlaufenden Achse (der Y-Achse) durchzuführen und durch Vernachlässigung der Y-Werte die zu verarbeitende Datenmenge zu verringern. Wenn m<3 Spektralbereiche gemessen werden, lassen sich auch Merkmale der Verfahren nach Fig. 4 und 6 kombinieren, z. B. indem erst gesättigte Helligkeitswerte aus der Verarbeitung ausgeschieden werden und in dem danach verblei­ benden Vektorraum mit verringerter Dimension n eine Lineartrans­ formation mit einer (n-1)×n-Matrix durchgeführt wird, deren Koef­ fizienten unterschiedliche Vorzeichen in jeder Zeile haben, um dadurch eine Reduzierung der zu verarbeitenden Daten zu errei­ chen.

Claims (18)

1. Verfahren zum Erfassen von Bewegung in einer Szene, mit den Schritten
  • a) Bestimmen von zwei Farbwerten (H1, H2) eines Punktes der Szene durch Messen des Helligkeitswerts (H1i, H2i) des Punktes in wenigstens n verschiedenen Spektralbereichen, wobei n eine ganze Zahl und wenigstens zwei ist, zu zwei verschiedenen Zeitpunkten,
  • b) Bestimmen eines ersten und eines zweiten Vektors (h1, h2) in einem n'-dimensionalen Vektorraum zu den zwei Farbwerten anhand der gemessenen Helligkeitswerte (H1i, H2i), wobei 2≦n'≦n ist,
  • c) Bestimmen des Abstands des Endpunkts des zweiten Vektors (h2) von einer durch den ersten Vektor (h1) definierten Geraden,
  • d) Entscheiden, daß eine Bewegung vorliegt, wenn der Abstand einen vorgegebenen Grenzwert (ε) überschreitet.
2. Verfahren nach Anspruch 1, bei dem n'=n ist.
3. Verfahren nach Anspruch 2, bei dem die Koeffizienten der Vektoren die gemessenen Helligkeitswerte sind.
4. Verfahren nach Anspruch 1, bei dem n'=n-1 ist.
5. Verfahren nach Anspruch 4, bei dem in Schritt (b) die Vektoren im n'-dimensionalen Vektorraum durch Lineartransformieren der jeweils n Helligkeitswerte mit einer Transformationsmatrix erhalten werden, die in jeder Zeile positive und negative Koeffizienten enthält.
6. Verfahren nach Anspruch 5, bei dem die Summe der Koeffizienten jeder Zeile der Transformationsmatrix 0 ergibt.
7. Verfahren nach Anspruch 5, bei dem die Transformationsmatrix so gewählt ist, daß die Transformation eines in der Szene vorherrschenden Farbtons 0 ergibt.
8. Verfahren nach einem der vorhergehenden Ansprüche, bei dem n=3 ist.
9. Verfahren nach einem der vorhergehenden Ansprüche, bei dem unter den gemessenen Spektralbereichen die den Komponenten R, G und B eines Farbvideosignals zugeordneten Spektralbereiche sind.
10. Verfahren nach Anspruch 5, 8 und 9, bei dem die Helligkeitswerte R, G und B in Schritt (b) in ein U,V-, I,Q- oder DB,DR-Koordinatensystem transformiert werden.
11. Verfahren nach einem der vorhergehenden Ansprüche, bei dem in Schritt (b) der längere der zwei Vektoren (h1, h2) als der erste Vektor gewählt wird.
12. Verfahren nach einem der vorhergehenden Ansprüche, bei dem in Schritt (a) in Helligkeitswerte (m≧n) in in verschiedenen Spektralbereichen zu jedem Zeitpunkt aufgenommen werden, wenn einer der Helligkeitswerte oberhalb einer Sättigungsgrenze liegt, beide Helligkeitswerte des entsprechenden Spektralbereichs verworfen werden, und Schritte (b) bis (d) an den Helligkeitswerten der n Spektralbereiche durchgeführt werden, die unterhalb der Sättigungsgrenzen liegen.
13. Verfahren zum Erfassen von Bewegung in einer Szene, bei dem zwei Bilder der Szene zu verschiedenen Zeitpunkten mit einer Kamera aufgenommen werden und ein Verfahren nach einem der vorhergehenden Ansprüche an einer Mehrzahl von Punkten der Bilder durchgeführt wird.
14. Vorrichtung zum Erfassen von Bewegung in einer Szene, mit
  • a) einer Kamera (1), die geeignet ist, Bilder der Szene durch Messen der Helligkeitswerte von Bildpunkten in wenigstens n verschiedenen Spektralbereichen zu erzeugen, wobei n eine ganze Zahl und wenigstens zwei ist,
  • b) einem Speicher (5),
  • c) einer Recheneinheit (7), die in der Lage ist, den Helligkeitswerten (H1i; R, G, B) eines Bildpunkts einen Vektor (H1; h1; (U1,V1)) zuzuordnen, dessen Komponenten anhand der gemessenen Helligkeitswerte bestimmt sind, einen früher zu demselben Bildpunkt gespeicherten Vektor (H2, h2; (U2,V2)) aus dem Speicher zu lesen, den Abstand zwischen den Endpunkten der zwei Vektoren zu bestimmen und zu entscheiden, daß eine Bewegung vorliegt, wenn der Abstand einen vorgegebenen Grenzwert (ε) überschreitet,
  • d) einer Ausgabeeinrichtung zum Erzeugen eines Signals, wenn die Recheneinheit (7) entscheidet, daß eine Bewegung vorliegt.
15. Vorrichtung nach Anspruch 14, bei der die Recheneinheit (7) in der Lage ist, die Vektoren durch eine Lineartransformation der empfangenen Helligkeitswerte mit einer (n-1)×n-Matrix zu erzeugen, wobei alle Zeilen der Matrix sowohl positive als auch negative Koeffizienten enthalten.
16. Vorrichtung nach Anspruch 12 oder 13, bei der n=3 ist.
17. Vorrichtung nach einem der Ansprüche 12 bis 14, bei der die Kamera Bilder in den Spektralbereichen R, G und B erzeugt.
18. Vorrichtung nach Anspruch 15, bei dem der Speicher die U,V-, I,Q- oder DR, DB-Werte eines Bildpunkts speichert.
DE1997149136 1997-11-06 1997-11-06 Verfahren und Vorrichtung zum Erfassen von Bewegungen Expired - Fee Related DE19749136C2 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE1997149136 DE19749136C2 (de) 1997-11-06 1997-11-06 Verfahren und Vorrichtung zum Erfassen von Bewegungen
PCT/EP1998/005929 WO1999024949A1 (de) 1997-11-06 1998-09-17 Verfahren und vorrichtung zum erfassen von bewegungen
CN 98810920 CN1278939A (zh) 1997-11-06 1998-09-17 检测移动物的方法及装置
EP98951430A EP1072028A1 (de) 1997-11-06 1998-09-17 Verfahren und vorrichtung zum erfassen von bewegungen

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE1997149136 DE19749136C2 (de) 1997-11-06 1997-11-06 Verfahren und Vorrichtung zum Erfassen von Bewegungen

Publications (2)

Publication Number Publication Date
DE19749136A1 true DE19749136A1 (de) 1999-05-27
DE19749136C2 DE19749136C2 (de) 2000-01-27

Family

ID=7847866

Family Applications (1)

Application Number Title Priority Date Filing Date
DE1997149136 Expired - Fee Related DE19749136C2 (de) 1997-11-06 1997-11-06 Verfahren und Vorrichtung zum Erfassen von Bewegungen

Country Status (4)

Country Link
EP (1) EP1072028A1 (de)
CN (1) CN1278939A (de)
DE (1) DE19749136C2 (de)
WO (1) WO1999024949A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008016766B4 (de) * 2008-04-02 2016-07-21 Sick Ag Sicherheitskamera und Verfahren zur Detektion von Objekten

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100334598C (zh) * 2002-11-26 2007-08-29 东芝照明技术株式会社 卖场计划支持***
US8320622B2 (en) 2010-03-29 2012-11-27 Sharp Laboratories Of America, Inc. Color gradient object tracking
CN110933371B (zh) * 2019-12-02 2021-07-13 广州小鹏汽车科技有限公司 一种监测方法、装置和车辆

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4128312A1 (de) * 1991-08-27 1993-03-04 Telefonbau & Normalzeit Gmbh Verfahren zum erkennen von fahrzeugbewegungen und verkehrsdichten in verkehrsueberwachungsanlagen
EP0543148A1 (de) * 1991-11-21 1993-05-26 GRUNDIG E.M.V. Elektro-Mechanische Versuchsanstalt Max Grundig GmbH &amp; Co. KG Verfahren und Vorrichtung zum Erkennen von Veränderungen im Bildinhalt eines Videobildes
DE4407528A1 (de) * 1994-03-07 1995-09-21 Sq Services Ag System und Verfahren zur Bildauswertung

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3214254A1 (de) * 1982-04-17 1983-10-20 Geutebrück Videotechnik GmbH, 5340 Bad Honnef Verfahren zum erkennen von bewegungen in video-kamera-bildern
JP2522859B2 (ja) * 1990-12-14 1996-08-07 日産自動車株式会社 眼位置検出装置
FR2693011B1 (fr) * 1992-06-29 1994-09-23 Matra Sep Imagerie Inf Procédé et dispositif de surveillance d'une scène tridimensionnelle, mettant en Óoeuvre des capteurs d'imagerie.

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE4128312A1 (de) * 1991-08-27 1993-03-04 Telefonbau & Normalzeit Gmbh Verfahren zum erkennen von fahrzeugbewegungen und verkehrsdichten in verkehrsueberwachungsanlagen
EP0543148A1 (de) * 1991-11-21 1993-05-26 GRUNDIG E.M.V. Elektro-Mechanische Versuchsanstalt Max Grundig GmbH &amp; Co. KG Verfahren und Vorrichtung zum Erkennen von Veränderungen im Bildinhalt eines Videobildes
DE4407528A1 (de) * 1994-03-07 1995-09-21 Sq Services Ag System und Verfahren zur Bildauswertung
DE4430016A1 (de) * 1994-03-07 1996-02-29 Sq Services Ag System und Verfahren zur Bildauswertung

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008016766B4 (de) * 2008-04-02 2016-07-21 Sick Ag Sicherheitskamera und Verfahren zur Detektion von Objekten

Also Published As

Publication number Publication date
CN1278939A (zh) 2001-01-03
EP1072028A1 (de) 2001-01-31
WO1999024949A1 (de) 1999-05-20
DE19749136C2 (de) 2000-01-27

Similar Documents

Publication Publication Date Title
DE60131840T2 (de) System zum automatischen testen von überwachungskameras
DE69622476T2 (de) Verfahren und Gerät zur Objekterkennung innerhalb des Gesichtfeldes eines Abbildungsgerätes
DE69601880T2 (de) Verfahren und vorrichtung zur erstellung der lage einer fernsehkamera zur verwendung in einem virtuellen studio
DE602004005358T2 (de) Objektdetektion in bildern
DE19680415C2 (de) Bildbearbeitungsvorrichtung für Fahrzeuge
DE102011106052B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild unter Verwendung eines nichtlinearen beleuchtungsinvarianten Kerns
EP3014569B1 (de) Inspektion der konturierten fläche des unterbodens eines kraftfahrzeugs
DE69738287T2 (de) Verfahren zum Anzeigen eines sich bewegenden Objekts, dessen Bahn zu identifizieren ist, Anzeigesystem unter Verwendung dieses Verfahrens und Programmaufzeichnungsmedium dafür
EP0815539B1 (de) Verfahren zur erkennung bewegter objekte in zeitlich aufeinander folgenden bildern
DE102010028904A1 (de) Bewegunganalyse- und/oder -Verfolgungssystem
DE3214254C2 (de)
DE10042935B4 (de) Verfahren zum Überwachen eines vorbestimmten Bereichs und entsprechendes System
DE10207039A1 (de) Verfahren und Vorrichtung zur Sichtbarmachung eines Ausschnitts der Umgebung eines Fahrzeugs sowie eine Kalibriervorrichtung zur Kalibrierung der Vorrichtung
DE4113992A1 (de) Verfahren zur automatischen dreidimensionalen ueberwachung von gefahrenraeumen
DE19749136C2 (de) Verfahren und Vorrichtung zum Erfassen von Bewegungen
DE10049366A1 (de) Verfahren zum Überwachen eines Sicherheitsbereichs und entsprechendes System
DE4314483A1 (de) Überwachungssystem
EP0777864B1 (de) System und verfahren zur bildauswertung
DE10210926A1 (de) Vorrichtung zur Verfolgung wenigstens eines Objekts in einer Szene
DE102006060612A1 (de) Verfahren zur Überwachung von Zielobjekten und Multispektralkamera dazu
EP1437615A1 (de) Nachtsichtsystem für Kraftfahrzeuge
DE19744694B4 (de) Videobewegungsmeldeeinrichtung
EP0749619A1 (de) System und verfahren zur bildauswertung
EP0984412A2 (de) Videobild-Überwachungsverfahren
DE3310949C2 (de)

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
D2 Grant after examination
8364 No opposition during term of opposition
8339 Ceased/non-payment of the annual fee