DE69526397T2 - Geschlossenes Fernsehüberwachungssystem mit fahrbarer Kamera und selbsttätiger Zielerfassung - Google Patents

Geschlossenes Fernsehüberwachungssystem mit fahrbarer Kamera und selbsttätiger Zielerfassung

Info

Publication number
DE69526397T2
DE69526397T2 DE69526397T DE69526397T DE69526397T2 DE 69526397 T2 DE69526397 T2 DE 69526397T2 DE 69526397 T DE69526397 T DE 69526397T DE 69526397 T DE69526397 T DE 69526397T DE 69526397 T2 DE69526397 T2 DE 69526397T2
Authority
DE
Germany
Prior art keywords
camera
carrier
target object
positions
along
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69526397T
Other languages
English (en)
Other versions
DE69526397D1 (de
Inventor
Terry Lawrence Glatt
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sensormatic Electronics LLC
Original Assignee
Sensormatic Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sensormatic Electronics Corp filed Critical Sensormatic Electronics Corp
Application granted granted Critical
Publication of DE69526397D1 publication Critical patent/DE69526397D1/de
Publication of DE69526397T2 publication Critical patent/DE69526397T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19689Remote control of cameras, e.g. remote orientation or image zooming control for a PTZ camera
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19617Surveillance camera constructional details
    • G08B13/19623Arrangements allowing camera linear motion, e.g. camera moving along a rail cable or track
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/1968Interfaces for setting up or customising the system

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Studio Devices (AREA)

Description

    ERFINDUNGSGEBIET
  • Die vorliegende Erfindung betrifft allgemein drahtgebundene Fernsehüberwachungssysteme und insbesondere derartige Systeme, bei denen eine Fernsehkamera auf einem Träger zur Bewegung entlang einer Schiene oder Spur montiert ist und das System durch einen Computer oder dergleichen automatisch gesteuert wird.
  • ALLGEMEINER STAND DER TECHNIK
  • Es ist bekannt, drahtgebundene Fernsehüberwachungssysteme bereitzustellen, die entweder Kameras an einer festen Stelle oder zur Bewegung entlang einer Schiene oder Spur montierte Kameras verwenden. Außerdem ist es im Fall eines Systems, das eine Kamera mit fester Position verwendet, bekannt, als Reaktion auf ein Alarmsignal oder dergleichen ein festes Zielobjekt automatisch zu erfassen. Beispielsweise kann ein Zielobjekt, wie etwa eine Tür, mit einem Sensor ausgestattet sein, der einem zentralen Steuerteil des Überwachungssystems ein Alarmsignal liefert, wenn die Tür geöffnet wird. Unter der Annahme, daß in dem Steuersystem zuvor Daten gespeichert worden sind, die die erforderliche Blickrichtung, den entsprechenden Zoom- und/oder Fokussierzustand für die Kamera angeben, um ein Bild der Zieltür zu liefern, kann das Steuersystem eine sofortige Einstellung auf die Kamerarichtung, den Zoomzustand usw. implementieren, so daß von der Kamera innerhalb eines kurzen Zeitraums nach dem Öffnen der Tür ein Bild der Tür geliefert wird.
  • Wenn das System jedoch eine sich bewegende Kamera verwendet, wie etwa eine Kamera, die an einem Träger montiert ist, der sich entlang einer Schiene bewegt, kann die Kamera sich zum Zeitpunkt, wenn ein Alarm empfangen wird, an jeder willkürlichen Position in ihrem Bewegungsbereich befinden. Da der Kameraort zum Zeitpunkt des Alarms nicht im voraus bekannt sein kann, ist es unmöglich, im voraus Daten zu speichern, die eine bestimmte Richtung und einen bestimmten Zoomzustand der Kamera definieren, durch die die Kamera zum Zeitpunkt des Alarms von ihrer Position aus ein Bild des Ziels liefern kann.
  • Im Fall eines von einem Bediener betreuten Überwachungssystems versucht die Bedienungsperson möglicherweise, auf das Alarmsignal dadurch zu reagieren, daß sie Systemsteuerungen betätigt, um den Kameraträger neu zu positionieren und die Kamerarichtung usw. derart einzustellen, daß ein Bild des Zielobjekts erhalten wird. Die Vielfalt möglicher Kamerapositionen und Blickrichtungen führt jedoch möglicherweise zu einer Verwirrung auf Seiten des Bedieners. Falls das System mit mehreren Zielobjekten (z. B. mehreren Türen, Fenstern, Schränken usw.) arbeitet, für die Alarme ausgelöst werden können, dann ist es für den Bediener möglicherweise schwierig, das jeweilige Ziel zu identifizieren, auf das sich der Alarm bezieht. Dadurch ist die Reaktion der Bedienungsperson auf den Alarm möglicherweise zu langsam, um ein Bild des Ereignisses (wie etwa das Eindringen eines Einbrechers) zu erfassen, das den Alarm bewirkt hat.
  • Wenngleich vorgeschlagen werden könnte, entlang der Spur eine vorbestimmte Position zu definieren, zu der sich die Kamera als Reaktion auf einen Alarm bewegen sollte, der ein bestimmtes Ziel betrifft, und dann auch entsprechende Daten hinsichtlich Blickrichtung und Zoomzustand gespeichert werden können, um von dieser vorbestimmten Position aus ein Bild des Ziels zu liefern, ist ein derartiger Ansatz mit dem Nachteil behaftet, daß möglicherweise ein erheblicher Zeitaufwand nötig wird, um den Träger aus der Position, in der er sich zum Zeitpunkt des Empfangs des Alarms befindet, zu der vorbestimmten Position zu bewegen. Selbst wenn vor oder während der Trägerbewegung automatische Kamerarichtungs- und Zoomeinstellungen durchgeführt werden, so daß sich die Kamera in einem entsprechenden Orientierungs- und Zoomzustand befindet, um das Bild des Ziels sofort dann zu liefern, wenn die vorbestimmte Trägerposition erreicht ist, kann dennoch während der Zeit, in der sich der Träger in Bewegung befindet, keine Zielerfassung stattfinden, und die Zielerfassung kann somit erheblich verzögert werden.
  • Aus US-A-4,510,526 ist ein Überwachungssystem bekannt, bei dem eine Fernsehkamera entlang ihrer optischen Achse an oder entlang einer Decke schwenkbar und ein Spiegel um eine senkrecht zu der optischen Achse verlaufende Achse schwenkbar montiert ist, um die Sicht der Kamera zu unterbrechen. Durch ausgewählte Drehung der Kamera und des Spiegels um diese Achsen herum werden dann sowohl die Schwenk- als auch die Neigungsfunktion in einer sehr kompakten Struktur erzielt. Dieses System umfaßt weiterhin einen Tür- Offen-Sensor, der darauf reagiert, daß eine Tür geöffnet wird, und einem Steuerpult ein Signal liefert, das automatisch ein Neigungssignal und ein Schwenksignal zum Betreiben verschiedener Motoren bewirkt. Diese Motoren richten die Kamera auf die Tür aus und betätigen den Zoommechanismus der Kamera, um die Fokuslinse der Kamera auf das gewünschte Blickfeld einzustellen.
  • KURZE DARSTELLUNG DER ERFINDUNG
  • Die Hauptaufgabe der vorliegenden Erfindung ist die Bereitstellung eines drahtgebundenen Fernsehüberwachungssystems unter Verwendung einer schienenbasierten Fernsehkamera, die in der Lage ist, innerhalb eines minimalen Zeitbereichs nach Empfang eines Alarmsignals oder dergleichen ein Bild eines festen Ziels zu erfassen.
  • Eine weitere Aufgabe der Erfindung ist die Bereitstellung eines Überwachungssystems unter Verwendung einer an einer Schiene montierten Kamera, bei dem die Kamera so gesteuert wird, daß sie bei ihrer Bewegung entlang der Schiene ständig ein Ziel verfolgt.
  • Durch die Lösung der obigen und weiterer Aufgaben stellt die Erfindung ein Verfahren zum Betreiben eines schienenbasierten drahtgebundenen Fernsehüberwachungssystems bereit, wobei das System folgendes enthält: eine entlang eines Weges positionierte längliche Spur, einen auf der Spur abgestützten und entlang dieser beweglichen Träger zum Transportieren einer Fernsehkamera entlang des Wegs, ein an den Träger angekoppeltes Trägerbewegungsmittel zum gezielten Bewegen des Trägers entlang der Spur, ein Kamerasteuermittel zum gezielten Einstellen einer Blickrichtung und eines Zoomzustands der Fernsehkamera und ein Trägersteuermittel zum gezielten Positionieren des Trägers entlang der Spur, wobei das Verfahren folgende Schritte enthält: Initialisieren des Systems durch Erfassen eines Bilds eines vorbestimmten Zielobjekts mit Hilfe der Fernsehkamera zu verschiedenen Zeitpunkten, wenn sich die Kamera entlang der Spur an zwei verschiedenen ausgewählten Punkten befindet, und Speichern von Initialisierungsdaten, die die ausgewählten Punkte und die jeweiligen Blickrichtungen der Kamera angeben, mit denen das Zielobjektbild an den ausgewählten Punkten erfaßt wird, Berechnen eines optimalen Blickpunkts entlang der Spur aus den gespeicherten Initialisierungsdaten zum Festhalten eines Bilds des vorbestimmten Zielobjekts und eines optimalen Schwenkwinkels, eines optimalen Neigungswinkels und eines optimalen Zoomzustands zum Festhalten des Bilds des vorbestimmten Zielobjekts, wenn sich die Kamera an dem optimalen Blickpunkt befindet, Empfangen eines Zielerfassungssignals und Bewegen des Trägers zu dem optimalen Blickpunkt als Reaktion auf das Zielerfassungssignal.
  • Gemäß einem Aspekt der Erfindung wird die Blickrichtung der Kamera ständig eingestellt, wenn der Träger von einem der beiden ausgewählten Punkte zu dem optimalen Punkt bewegt wird, so daß die Blickrichtung der Kamera während der Bewegung des Trägers von dem einen der beiden ausgewählten Punkte zu dem optimalen Punkt zu dem Zielobjekt orientiert bleibt.
  • Es ist wünschenswert, daß sich der optimale Blickpunkt zwischen den während der Initialisierung verwendeten ausgewählten Punkten befindet und der nächstgelegene Punkt entlang der Spur zu dem Zielobjekt ist.
  • Bei einer weiteren Praxis gemäß der Erfindung, falls das Zielerfassungssignal zu einer Zeit empfangen wird, wenn sich der Träger nicht zwischen den beiden ausgewählten Punkten befindet, wird der Träger zu dem näher gelegenen der beiden Punkte bewegt, und die Blickrichtung der Kamera wird eingestellt, während der Träger zu dem näher gelegenen der beiden ausgewählten Punkte bewegt wird, so daß die Kamera die gleiche Blickrichtung aufweist, die während der Initialisierung zum Festhalten des Bilds des vorbestimmten Zielobjekts von dem näher gelegenen der beiden ausgewählten Punkte aus verwendet wurde.
  • Von der Erfindung wird außerdem in Betracht gezogen, daß der Träger als Reaktion auf das Zielerfassungssignal zwischen den beiden ausgewählten Punkten hin- und herbewegt und die Blickrichtung der Kamera ständig eingestellt wird, so daß die Blickrichtung der Kamera während der Hin- und Herbewegung des Trägers zu dem Zielobjekt orientiert bleibt.
  • Die obigen und weitere Aufgaben und Merkmale der Erfindung lassen sich anhand der folgenden ausführlichen Beschreibung ihrer bevorzugten Ausführungsformen und Praktiken und aus den Zeichnungen besser verstehen, wobei durchgehend gleiche Bezugszahlen gleiche Komponenten und Teile bezeichnen.
  • BESCHREIBUNG DER ZEICHNUNGEN
  • Fig. 1 ist eine Perspektivansicht eines drahtgebundenen Fernsehüberwachungssystems unter Verwendung einer an einer Schiene montierten Kamera, auf das die vorliegende Erfindung angewendet werden kann.
  • Fig. 2 ist ein Blockschaltbild eines Überwachungssystems gemäß der Erfindung.
  • Fig. 3A und 3B sind, jeweils isometrische Schemadarstellungen von oben bzw. hinten, mit denen gemäß der Erfindung durchgeführte Abläufe hinsichtlich der Initialisierung und automatischen Zielerfassung erläutert werden.
  • Fig. 4 ist ein Flußdiagramm einer gemäß der Erfindung durchgeführten Initialisierungsroutine.
  • Fig. 5 ist ein Flußdiagramm einer gemäß der Erfindung durchgeführten Routine zum automatischen Erfassen eines Ziels als Reaktion auf ein Alarmsignal.
  • BESCHREIBUNG BEVORZUGTER AUSFÜHRUNGSFORMEN UND PRAKTIKEN
  • Fig. 1 zeigt das Innere eines Gebäudes, in dem ein Überwachungssystem gemäß der vorliegenden Erfindung installiert ist. Das System enthält eine Überwachungskamera 10, die an einem Träger 12 montiert ist. Der Träger 12 wiederum ist beweglich an einer länglichen Spur oder Schiene 14 gestützt, die an der Decke 16 des Gebäudes hängt.
  • Die Kamera 10 kann von herkömmlicher Art sein, die hinsichtlich der Richtung, in die sie orientiert wird, ferngesteuert wird. Insbesondere kann die Kamera für eine horizontale Schwenkbewegung, als "Schwenken" bekannt, sowie für eine vertikale Schwenkbewegung, als "Neigen" bekannt, gesteuert werden. Wie der Fachmann erkennt, kann aber auch der Kamera 10 zugeordnet eine motorisierte Spiegelbaugruppe an dem Träger montiert sein, um Neigungs- und Schwenkeinstellungen der Blickrichtung der Kamera zu bewerkstelligen.
  • Der Träger 12 enthält einen Motor 18, der ebenfalls von dem Überwachungssystem ferngesteuert wird. Eine entsprechende Codierung, wie etwa optische Codierung (nicht gezeigt), wird entlang der Schiene 14 bereitgestellt, so daß die Position des Trägers 12 entlang der Schiene erfaßt und ein entsprechendes Trägerpositionssignal an das Steuersystem geschickt werden kann. Es können aber auch andere Techniken verwendet werden, um die Position des Trägers zu bestimmen, wie etwa das Erfassen des Betriebs des Motors 18. Somit kann der Träger gesteuert zu gewünschten Positionen entlang der Schiene 14 bewegt werden. Es versteht sich, daß Verbindungen zum Steuern der Kamera 10 und des Trägers 12 über ein Kabel (wobei dann ein Kabelspulenträger bereitgestellt werden kann, der mit dem Kameraträger 12 integriert ist oder von diesem getrennt ist) oder über drahtlose Kommunikationsverbindungen erfolgen können.
  • Obwohl dies in Fig. 1 nicht gezeigt ist, ist zu erkennen, daß eine undurchsichtige Abdeckung oder dergleichen zum Verstecken der Kamera 10 bereitgestellt werden kann, die die Schiene 14 und den Bewegungsweg des Trägers 12 umgibt.
  • Das in Fig. 1 gezeigte Gebäudeinnere enthält eine Tür 20, die sich am Ende eines Gangs 22 befindet, der zwischen Gestellen oder Ebenen 24 von Waren oder dergleichen ausgebildet ist. In der Nähe der Tür 20 ist ein Sensor 26 installiert, der beispielsweise dann ein Alarmsignal liefert, wenn die Tür geöffnet wird.
  • Fig. 2 veranschaulicht das Überwachungssystem der vorliegenden Erfindung in Form eines Blockdiagramms. Der Kern des Systems ist eine zentrale Verarbeitungseinheit (CPU) 28, die einen Mikroprozessor 30 enthält. Dem Mikroprozessor 30 sind ein Programmspeicher 32 zum Speichern von Steuersoftware und ein Datenspeicher 34 zugeordnet, in dem Arbeitsdaten gespeichert werden, die, wie noch zu sehen sein wird, während einer Initialisierungsroutine gesammelte Parameterdaten enthalten. Die CPU 28 enthält auch ein Eingabe/Ausgabe-Modul (E/A- Modul) 36, das mit dem Mikroprozessor 30 verbunden ist und eine Schnittstelle zwischen der CPU 28 und anderen Teilen des Überwachungssystems bereitstellt.
  • Insbesondere ist das E/A-Modul 36 über einen Signalweg 37 mit einem Schwenkmotor 38, einem Neigungsmotor 40, einem Zoommotor 42 und einem Schienenmotor 44 verbunden. Der Schwenkmotor 38 liefert die obenerwähnten Schwenkeinstellungen für die Videokamera 10, der Neigungsmotor 40 liefert die obenerwähnten Neigungseinstellungen der Videokamera 10, der Zoommotor 42 implementiert Änderungen des Zoomzustands der Kamera 10, und der Schienen- oder Trägermotor 44 treibt den Träger 12 entlang der Schiene 14 an. Jeder dieser Motoren empfängt über das E/A-Modul 36 und den Signalweg 37 Steuersignale von der CPU 28, und alle diese Motoren werden auf dem Träger 12 mitgeführt (obwohl der Träger 12 aber auch durch einen außerhalb befindlichen Motor über einen Riemenantrieb oder dergleichen angetrieben werden kann). Es versteht sich außerdem, daß jeder der Motoren 38, 40, 42 und 44 so angeordnet ist, daß er Positionsrückkopplungssignale liefert, die entweder die Position des Motors oder des Trägers angeben. Diese Signale werden über einen Signalweg 46 und das E/A-Modul 36 zu der CPU 28 zurückübertragen. Die Wege 37 und 46 können beispielsweise durch entsprechende Verkabelung oder Funkdatenkanäle usw. verkörpert werden.
  • Durch das E/A-Modul 36 sind auch ein Benutzerterminal 48 und der obenerwähnte Sensor 26 angeschlossen. Über das Terminal 48 kann eine Bedienungsperson auf herkömmliche Weise Daten in die CPU 28 eingeben und die CPU 28 der Bedienungsperson auf herkömmliche Weise Daten anzeigen. Das E/A-Modul 36 ist außerdem mit einem Kommunikationskanal von dem Sensor 26 versehen, um von dort beim Öffnen der Tür 20 das obenerwähnte Alarmsignal zu empfangen (Fig. 1).
  • Es versteht sich außerdem, daß das in Fig. 2 gezeigte Überwachungssystem die üblichen Fähigkeiten zur Fernsteuerung der Kamera 10 und des Trägers 12 durch die Bedienungsperson bereitstellt, einschließlich einer gezielten Positionierung des Trägers 12 und Schwenken, Neigen und Zoomen der Kamera 10 - alles durch über das Terminal 48 eingegebene Signale.
  • Das Überwachungssystem enthält auch einen Videodisplaymonitor 49, der so angeschlossen (oder über einen Funkkanal verbunden) ist, daß er das von der Kamera 10 bereitgestellte Videoausgangssignal empfängt und anzeigt. Obwohl das Display 49 als von dem Terminal 48 getrennt gezeigt ist, wird außerdem in Betracht gezogen, daß sich das Terminal 48 und das Display 49 einen Monitorteil teilen, und zwar mit Hilfe eines geteilten Bildschirms, Fensterbildung, Teilzeitnutzung, Überlagerung eines Cursors und von Zeichen auf dem Videodisplay und so weiter.
  • Wieder unter Bezugnahme auf Fig. 1 wird davon ausgegangen, daß die Schiene 14, die Tür 20 und die Warenebenen 24 derart zueinander positioniert sind, daß sich die Tür 20 über einen Teil der Schiene 12 hinweg in einer Blicklinie der Kamera 10 befindet, daß aber, wenn der Träger 12 außerhalb dieses Teils der Schiene 14 positioniert ist, die Blicklinie von der Kamera 10 zu der Tür 20 beispielsweise durch die Warenebenen 24 versperrt ist. Zum Zweck der folgenden Erörterung wird außerdem angenommen, daß die Tür 20 ein Ziel ist, für die eine automatische Bilderfassung gewünscht wird. Dementsprechend wird zuerst ein Initialisierungsablauf beschrieben, bei dem entsprechende Daten in der CPU 28 gespeichert werden, um eine automatische Zielerfassungsoperation gemäß der Erfindung zu gestatten.
  • Bei der Beschreibung des Initialisierungsablaufs wird auf die Fig. 3A und 3B Bezug genommen, die schematische Ansichten von oben beziehungsweise hinten sind und geometrische Beziehungen zwischen einem Ziel (das die Tür 20 sein soll), der Schiene 14 (die die "z- Achse" sein soll) und verschiedenen Positionen entlang der Schiene 14 veranschaulicht, in denen sich der Träger 12 befinden kann. Bei dem in den Fig. 3 A und 3B verwendeten Koordinatensystem soll die Richtung der x-Achse die horizontale. Richtung senkrecht zu der Schiene 14 und die Richtung der y-Achse die vertikale Richtung sein. Außerdem wird die horizontale Ebene, die durch die Schiene 14 verläuft, als die xz-Ebene bezeichnet, während die vertikale Ebene, die durch die Schiene 14 verläuft, als die yz-Ebene bezeichnet wird.
  • Punkt R1 entspricht einer am weitesten rechts liegenden Position auf der Schiene 14, von der aus eine Blicklinie zu der Zieltür 20 besteht, und Punkt R2 entspricht der am weitesten links liegenden Position auf der Schiene 14, von der aus eine Blicklinie zu der Zieltür 20 existiert. Wie aus den Fig. 3A und 3B hervorgeht, soll sich ein Nullreferenz- oder Ausgangspunkt an einer links gelegenen Position entlang der Schiene (z-Achse) befinden, so daß der Positionsindex von R1 größer ist als der Positionsindex von R2. Weiterhin stellt Punkt Rn eine Position auf der Schiene 14 dar, die dem Ziel 20 am nächsten liegt, und Rz gibt eine willkürliche Position zwischen den Punkten R2 und R1 an, an der sich der Träger 12 und die Kamera 10 zu einem gegebenen Zeitpunkt befinden können. Es sei außerdem zu verstehen, daß das System so ausgelegt ist, daß sich die Kamera 12 zu einigen Zeitpunkten entlang der Schiene 14 an Positionen befinden kann, die außerhalb des zwischen den Punkten R2 und R1 definierten Bereichs liegen. Außerdem und unter besonderer Bezugnahme auf Fig. 3A stellt die Linie B1 die Projektion der Blicklinie vom Punkt R1 auf das Ziel auf die xz-Ebene dar, und analog stellt die Linie B2 die Projektion der Blicklinie vom Punkt R2 auf das Ziel auf die xz-Ebene dar. Analog stellt die gestrichelte Linie Bz die Projektion der Blicklinie von dem willkürlichen Punkt Rz auf das Ziel auf dte xz-Ebene dar, und die gepunktete Linie N stellt die Projektion der Blicklinie von dem Punkt Rn zu dem Ziel auf die xz- Ebene dar. Das Liniensegment A2 ist zwischen den Punkten R2 und Rn definiert, und das Liniensegment A1 ist zwischen den Punkten Rn und R1 definiert. Außerdem ist das Liniensegment A12 zwischen den Punkten Rn und R2 definiert. Der Punkt Txz befindet sich in der xz- Ebene direkt über dem Ziel.
  • Außerdem stellt der Winkel θ1 zwischen der Linie B1 und der z-Achse den erforderlichen Schwenkwinkel dar, damit die Kamera das Ziel erfaßt, wenn sich der Träger beim Punkt R1 befindet, während der Winkel θ2 zwischen der Linie B2 und der z-Achse den entsprechenden Schwenkwinkel darstellt, damit die Kamera das Ziel erfaßt, wenn sich der Träger am Punkt R2 befindet. Analog stellt der zwischen der Linie Bz und der z-Achse ausgebildete Winkel θz den entsprechenden Schwenkwinkel dar, um das Ziel zu erfassen, wenn sich die Kamera am Punkt Rz befindet.
  • Aus einer Bezugnahme auf Fig. 3B geht hervor, daß die entsprechenden Kameraneigungswinkel für die Zielerfassung von den Punkten R2, Rz und R1 schematisch durch die Winkel α2, αz und α1 dargestellt sind. Aus Fig. 3B geht außerdem hervor, daß die Linie Dz die Blicklinie von dem Punkt Rz auf das Ziel (keine Projektion) darstellt, während die gepunktete Linie Y die Projektion einer senkrechten Linie von der z-Achse auf das Ziel auf die yz-Ebene darstellt. Somit stellt Y die vertikale Entfernung zwischen dem Ziel und der xz- Ebene dar.
  • Unter weiterer Bezugnahme auf die Fig. 3A und 3B und nunmehr auch unter Bezugnahme auf Fig. 4 wird eine Initialisierungsroutine beschrieben, die gemäß der Erfindung durchzuführen ist, damit das Überwachungssystem eine automatische Zielerfassung durchführen kann.
  • Wie in Fig. 4 gezeigt, beginnt der Initialisierungsablauf bei Schritt 50 durch die Eingabe eines entsprechenden Signals über das Benutzerterminal 48, so daß der Mikroprozessor 30 mit der Durchführung einer Initialisierungsroutine beginnt.
  • Auf den Schritt 50 folgt Schritt 52, bei dem eine entsprechende Dateneingabe erfolgt, um das Ziel für die zukünftige Bezugnahme in dem Überwachungssystem zu identifizieren. So kann beispielsweise auf dem Terminal 48 eine entsprechende Aufforderung angezeigt werden, und als Reaktion darauf kann der Bediener eine Bezeichnung eingeben, wie etwa "Ziel Nr. 1". Mit anderen Worten wird das Zielobjekt, für das gleich Initialisierungsdaten erteilt werden, im weiteren in dem Überwachungssystem als "Ziel Nr. 1" bezeichnet, und das Überwachungssystem erkennt dementsprechend, daß ein oder mehrere, diesem Zielobjekt zugeordnete Sensoren bezüglich des identifizierten Zielobjekts ein Alarmsignal liefern. Es wird außerdem vorgesehen, daß ein Alarmsignal durch eine entsprechende Bedienereingabe über das Terminal 48 in Bezug auf ein bestimmtes Ziel betätigt werden kann. Es versteht sich, daß das Überwachungssystem durch diese Anordnung eine automatische Erfassung von mehreren Zielen als Reaktion auf jeweilige, die Ziele betreffende Alarmsignale liefern kann.
  • Der nächste Schritt in der Initialisierungsroutine ist Schritt 54, bei dem das Terminal 48 so betätigt wird, daß der Träger entlang der Schiene 14 zu dem Punkt am Ende (beispielsweise am rechten Ende) eines Bereichs von Positionen bewegt wird, von dem aus das Zielobjekt durch die Kamera 10 erfaßt werden kann. Bei diesem Beispiel wird dieser Punkt als R1 identifiziert. Ein derartiger Punkt kann sich beispielsweise in einer kurzen Entfernung rechts von dem Gang 22, befinden wie in Fig. 1 gezeigt. Nachdem der Schritt 54 abgeschlossen worden ist, wird Schritt 56 durchgeführt, bei dem der Bediener bewirkt, daß die Blickrichtung der Kamera und vielleicht auch der Zoom- und Fokussierzustand der Kamera eingestellt wird, so daß die Kamera 10 das Zielobjekt (Tür 20) abbildet. Wenn durch die Kamera 10 ein zufriedenstellendes Bild der Zieltür 20 erfaßt worden ist, gibt die Bedienungsperson ein "Auswahl"- Signal oder dergleichen ein, woraufhin das Überwachungssystem in dem Datenspeicher 34 die aktuelle Position (die nun als R1 angenommen wird) des Trägers 12 darstellende Daten sowie den Schwenk- und Neigungswinkel der Blickrichtung der Kamera 10 angebende Daten speichert (Schritt 58).
  • Auf den Schritt 58 folgt Schritt 60, bei dem die Bedienungsperson den Träger 12 zu dem anderen Ende des Bereichs bewegt, von dem aus eine Blicklinie zu der Zieltür 20 besteht. In diesem Fall wird angenommen, daß das andere Ende das am weitesten links gelegene Ende des sichtbaren Bereichs ist, und zwar bei Punkt R2.
  • Wenn der Träger richtig bei R2 positioniert worden ist, bewirkt der Bediener wieder, daß die Kamerarichtung und die Zoom-/Fokussierzustände so eingestellt werden, daß von der Zieltür 20 ein zufriedenstellendes Bild erhalten wird (Schritt 62). Dann wird bei Schritt 64 wieder über das Terminal 48 das "Auswahl"-Signal eingegeben, so daß die die Trägerposition darstellenden Daten sowie die Kamerarichtung (Schwenk- und Neigungswinkel) in den Datenspeicher 34 eingegeben werden.
  • Es folgt Schritt 66, bei dem die Position von Punkt Rn auf der Basis der während der Schritte 58 und 64 gespeicherten Daten berechnet wird. Es wird angenommen, wie oben angemerkt, daß Punkt Rn der optimale Punkt zum Erfassen eines Bilds des Ziels 20 ist, nämlich die dem Ziel entlang der Schiene 14 am nächsten gelegene Position.
  • Diese Berechnung beginnt damit, daß die Werte für Winkel für θT1 und θT2 (Fig. 3A) bestimmt werden, die jeweils komplementäre Winkel zu θ1 und θ2 sind. Es werden somit Berechnungen gemäß den folgenden Formeln vorgenommen:
  • θT1 = 90º - θ1 (1)
  • θT2 = 90º - θ2 (1)
  • Dann wird gemäß der Formel
  • k = tanΘT1/tanΘT2 (3)
  • ein Parameter ki berechnet.
  • Es ist zu sehen, daß der Parameter k gleich dem Verhältnis der Längen der Liniensegmente A1 und A2 ist, das heißt
  • k = A1/A2 (4)
  • Als nächstes wird gemäß der folgenden Gleichung die Entfernung Z zwischen den Punkten R1 und R2 berechnet:
  • Z = R1 - R2. (5)
  • Da
  • Z = A1 + A2 (6)
  • können die simultanen Gleichungen (4) und (6) gelöst werden, um A1 und A2 als k und Z auszudrücken:
  • Dann kann Rn entweder als (R1 - A1) oder als (R2 + A2) berechnet werden. Wenn die Position des optimalen Blickpunkts Rn berechnet worden ist, kann Schritt 66 als beendet angesehen werden.
  • Wie zu sehen ist, ermöglicht die berechnete Position von Rn zusammen mit den gespeicherten Daten, die die Lagen und entsprechenden Schwenk- und Neigungswinkel der Punkte R2 und R1 angeben, die Berechnung einer entsprechenden Kamerarichtung (Schwenk- und Neigungswinkel) sowie entsprechender Zoom- und Fokussierzustände zur Zielerfassung von einer beliebigen Trägerposition zwischen den Punkten R2 und R1. Es versteht sich, daß die Zoom- und Fokussierzustände eine Funktion der Entfernung von der Trägerposition zu dem Ziel sind, und diese Größe kann auf der Grundlage der gespeicherten Daten berechnet werden.
  • Unter Bezugnahme auf Fig. 5 wird nun eine Operation beschrieben, bei der das Überwachungssystem ein Bild des Ziels auf der Basis der gespeicherten und während des Initialisierungsablaufs von Fig. 4 berechneten Daten automatisch erfaßt.
  • Es wird davon ausgegangen, daß von einer normalen Überwachungsroutine aus, die in Fig. 5 durch einen Schritt 70 dargestellt ist, in die automatische Zielerfassungsroutine eingetreten wird. Insbesondere ist zu verstehen, daß Schritt 70 einen automatisch gesteuerten Ablauf enthalten kann, in dem der Träger 12 gemäß einem vorbestimmten Muster entlang der Schiene 14 bewegt wird, während Richtung, Zoom, Fokus usw. der Kamera ebenfalls in einem vorbestimmten Muster eingestellt werden, so daß die Kamera 10 durch "Streifendienst" eine routinemäßige Überwachung vornimmt.
  • Wie bei Schritt 72 angegeben, wird die normale Überwachungsroutine 70 so lange fortgeführt, bis ein Alarmsignal empfangen wird. Schritt 72 kann implementiert werden, indem bei Empfang eines Alarmsignals an den Mikroprozessor 30 ein Interrupt angelegt wird. Während der normalen Überwachung kann zum Erfassen des Vorliegens eines Alarmsignals beispielsweise aber auch eine periodische Abfragung durchgeführt werden. Falls ein Alarmsignal empfangen wird, wird dann bestimmt, ob sich der Träger 12 innerhalb eines Bereichs entlang der Schiene 14 befindet, von wo aus eine Blicklinie zu dem Ziel existiert (Schritt 74). In dem vorliegenden Fall wird anfänglich angenommen, daß von dem der Tür 20 ("Ziel Nr. 1") zugeordneten Sensor 26 ein Alarmsignal erzeugt worden ist und sich der Träger 12 an einem zwischen den Punkten R1 und R2 liegenden Punkt Rz (Fig. 3 A und 3B) und somit in dem Bereich befindet, von dem aus das Ziel 20 von der Kamera 10 erfaßt werden kann. Gemäß dieser Annahme wird Schritt 74 von Schritt 76 gefolgt, und in Schritt 76 berechnet das Überwachungssystem (CPU 28) für die Kamera 10 einen entsprechenden Schwenkwinkel, Neigungswinkel, Zoomzustand und Fokussierzustand, so daß auf dem Videodisplay 49 sofort ein Bild des Ziels 20 bereitgestellt werden kann.
  • Zuerst wird die Berechnung des Schwenkwinkels θz unter Bezugnahme auf Fig. 3A beschrieben. Wenn die gemeinsame Seite der Dreiecke Rn/R1/Txz und Rn/Rz/Txz verwendet wird, kann die folgende Gleichung erhalten werden:
  • A1/tanθT1 = A12/tanθzc (9)
  • wobei θzc der komplementäre Winkel zu θz ist. Diese Gleichung kann umgeschrieben werden zu
  • Da
  • θz = 90º - θzc
  • folgt aus Gleichung 10, daß der Schwenkwinkel θz wie folgt berechnet werden kann:
  • Θz = 90º - tan&supmin;¹[(A12/A1)tanΘT1] (11)
  • Aus Gleichung 11 erkennt man, daß der Schwenkwinkel θz ohne weiteres aus den Initialisierungsdaten und der aktuellen Position Rz berechnet werden kann.
  • θz kann aber auch gemäß der folgenden Gleichung berechnet werden:
  • die erhalten werden kann aus
  • N = A1·tanθ1 (11B)
  • und
  • Θz = tan&supmin;¹(N/A12) (11C)
  • Um den Neigungswinkel αz zu finden (Fig. 3B), wird zuerst die vertikale Entfernung Y zwischen dem Ziel und der xz-Ebene gemäß folgender Formel berechnet:
  • Y = (A1/cosΘ1)tanα1 (12)
  • (Als Alternative zum Berechnen von Y während der automatischen Zielerfassung, kann Y bei Schritt 66 der Initialisierungsroutine (Fig. 4) berechnet werden.)
  • Dann wird αz bestimmt gemäß
  • αz = tan&supmin;¹(YcosΘz/A12) = tan&supmin;¹(Y/Bz) (13)
  • Zum Bestimmen der entsprechenden Zoom- und Fokussierzustände für die Kamera 10 wird als nächstes die Entfernung Dz von dem Punkt Rz zu dem Ziel entlang der Blicklinie vom Punkt Rz für das Ziel berechnet.
  • Als erstes ist zu bemerken, daß
  • cosαz = Bz/Dz (14)
  • so daß
  • Dz = Bz/cosαz (15)
  • Durch Substituieren für αz (aus Gleichung 13) und Erweitern erhält man dann:
  • Da Bz = A12/cosθz ist, führt eine Substitution in Gleichung 16 zu
  • Es ist somit ersichtlich, daß die Entfernung von der aktuellen Position der Kamera 10 zu dem Ziel in Form der aktuellen Position des Trägers 12 und anderer zuvor gespeicherter und berechneter Daten ausgedrückt werden kann. Bei Schritt 78, der nach Schritt 76 folgt, wird somit die Blickrichtung der Kamera gemäß dem berechneten Schwenk- und Neigungswinkel eingestellt, und die entsprechenden Zoom- und Fokussierzustände werden angewendet, so daß die Kamera 10 ein Bild der Zieltür 20 liefert. Auf Schritt 78 folgt dann Schritt 80, so daß der Träger 12 von dem Punkt Rz, an dem der Träger sich bei Empfang des Alarms befand, zu dem optimalen Blickpunkt Rn bewegt wird. Während diese Trägerbewegung stattfindet, werden außerdem der Schwenkwinkel, der Neigungswinkel, der Zoomzustand und der Fokussierzustand durch Berechnungen wie oben beschrieben ständig aktualisiert, so daß die Kamera das Ziel weiterhin "verfolgt", das heißt, die Kamera liefert ständig ein Bild des Ziels, während sich der Träger von Punkt Rz zu Punkt Rn bewegt.
  • Wie der Durchschnittsfachmann erkennt, werden die oben beschriebenen Berechnungen und Einstellungen an der Kamerarichtung, dem Zoomzustand usw. relativ zu der Bewegung des Trägers recht schnell durchgeführt, was die ständige Verfolgung des Ziels durch die Kamera ermöglicht. Es ist natürlich auch möglich, die oben im Hinblick auf die Schritte 76, 78 und 80 beschriebenen, logisch getrennten Operationen zeitlich zu überlappen.
  • Nunmehr unter Rückkehr zu dem Entscheidungsschritt 74 soll angenommen werden, daß der Träger 12 zu dem Zeitpunkt, zu dem das Alarmsignal empfangen wurde, außerhalb des durch die Punkte R2 und R1 definierten Bereichs positioniert war, und es soll insbesondere angenommen werden, daß sich der Träger 12 rechts vom Punkt R1 befand.
  • In diesem Fall wird bei Schritt 74 bestimmt, daß sich der Träger 12 nicht innerhalb des Bereichs befindet, von dem aus das Ziel erfaßt werden kann, weshalb Schritt 82 auf Schritt 74 folgt. Bei Schritt 82 wird zunächst bestimmt, ob sich der Träger 12 näher an dem Punkt R1 oder am Punkt R2 befindet, und dann werden die Schwenk- und Neigungswinkel und die Zoom- und Fokussierzustände für die Kamera gemäß den zuvor gespeicherten, dem nächsten Punkt entsprechenden Parametern festgelegt. Da gemäß der vorliegenden Annahme R1 der nächstgelegene der beiden Punkte ist, wird die Kamera so eingestellt, daß sie einen Schwenkwinkel θ1 und einen Neigungswinkel α&sub1; aufweist. Es ist außerdem zu erkennen, daß die entsprechenden Kamerafokussier- und Zoomzustände für die beiden Grenzpunkte R1 und R2 entweder als Teil des Initialisierungsablaufs gespeichert oder aus während der Initialisierung erhaltenen anderen Daten berechnet werden können.
  • Auf Schritt 82 folgt Schritt 84, bei dem der Träger 12 zu dem nächstgelegenen Grenzpunkt bewegt wird, in diesem Fall R1. Da die Kamera bereits so eingestellt worden ist, daß sie den entsprechenden Schwenk- und Neigungszustand usw. für Punkt R1 einnimmt, versteht sich, daß das Ziel sofort erfaßt wird, wenn der Träger den Punkt R1 erreicht.
  • Nach dem Schritt 84 folgt ein Entscheidungsschritt 86, bei dem bestimmt wird, ob der nächstgelegene Grenzpunkt erreicht worden ist. Falls nicht, schleift die Routine zurück zu Schritt 84. Ansonsten geht die Routine weiter zu Schritt 80, bei dem der Träger von dem Grenzpunkt zu der optimalen Position Rn bewegt und gleichzeitig das Ziel weiter ständig durch die Kamera 10 verfolgt wird.
  • Es sei außerdem angemerkt, daß die Schritte 82 und 84 zwar als logisch getrennt dargestellt sind, sich diese beiden Schritte aber zeitlich überlappen können, so daß die Kamerawinkeleinstellung während der Bewegung des Trägers 12 zu dem nächstgelegenen Punkt durchgeführt wird.
  • Die obige Beschreibung der Schritte 76 und 80 bezog sich auf Berechnungen, die angestellt werden, um Schwenk-, Neigungs-, Zoom- und Fokussierdaten zur sofortigen Zielerfassung als Reaktion auf einen Alarm (Schritt 76) oder während einer Trägerbewegung (Schritt 80) zu erhalten, um den Schwenk- und Neigungswinkel und den Zoom- und Fokussierzustand zu aktualisieren, damit während der Trägerbewegung in dem Blickbereich die Zielerfassung aufrechterhalten wurde. Gemäß einer alternativen bevorzugten Praxis werden jedoch Schwenk-, Neigungs-, Zoom- und Fokussierdaten zur Zielerfassung aus einer Nachschlagetabelle abgerufen, die während der Initialisierung gebildet wurde. Gemäß dieser bevorzugten Praxis beinhaltet Schritt 66 des Initialisierungsablaufs (Fig. 4) insbesonders, daß für jede getrennt erfaßbare Trägerbewegung in dem Zielblickbereich entsprechende Schwenk-, Neigungs-, Zoom- und Fokussierparameter zur Zielerfassung berechnet werden. Die resultierenden Daten werden in einer Nachschlagetabelle für das Ziel gespeichert und in der Tabelle gemäß der Trägerposition indexiert. Die in den Nachschlagetabelleneinträgen für die Grenzpunkte gespeicherten Parameter sind natürlich diejenigen, die bei den Schritten 58 und 64 erhalten wurden. Während der Zielerfassungsroutine von Fig. 5 wird dann auf die Nachschlagetabelle entsprechend dem zu erfassenden Ziel zugegriffen, und Kamerapositionier- und Fokussier- und Zoomdaten werden auf der Grundlage der aktuellen Trägerposition ausgelesen. Falls sich die aktuelle Trägerposition außerhalb des Blickbereichs für das Ziel befindet, werden die der nächstgelegenen Position in dem Blickbereich (d. h. dem nächstgelegenen Grenzpunkt) entsprechenden Kamerapositionierdaten ausgelesen.
  • Gemäß einer alternativen Technik zum Ausüben der Erfindung kann der bezüglich Schritt 80 beschriebene Ablauf derart geändert oder gezielt geändert werden, daß der Träger 12 dazu veranlaßt wird, sich als Reaktion auf den Empfang eines Alarmsignals zwischen den Punkten R1 und R2 hin- und herzubewegen beziehungsweise diesen Bereich "abzuschreiten". Während ein derartiges "Abschreiten" stattfindet, werden Berechnungen wie oben beschrieben vorgenommen (oder Positionierdaten aus einer Nachschlagetabelle abgerufen), so daß die Kamera das Ziel ständig verfolgt. Das "Abschreiten" kann aber auch so ausgelegt werden, daß es nicht über den ganzen Bereich ausgeführt wird, von dem aus eine Blicklinie existiert. Es wird außerdem in Betracht gezogen, daß der Träger als Reaktion auf einen Alarm statt dem einfachen Abschreiten gemäß komplexeren Mustern zwischen zwei Punkten in dem Blickbereich bewegt wird. Das System könnte beispielsweise während der Initialisierung so programmiert werden, daß der Träger als Reaktion auf einen Alarm zunächst mit einer vorbestimmten Häufigkeit den Bereich zwischen dem optimalen Blickpunkt und dem rechten Grenzpunkt abschreitet und dann mit einer vorbestimmten Häufigkeit den Bereich zwischen dem optimalen Blickpunkt und dem linken Grenzpunkt abschreitet und dann wieder den Bereich zwischen dem optimalen Blickpunkt und dem rechten Grenzpunkt und so weiter. Als alternative "Runde", deren "Abschreiten" als Reaktion auf einen Alarm programmiert sein könnte, könnte der Träger über einen schmalen Bereich um den optimalen Punkt herum mehrmals hin- und herbewegt werden, dann über einen größeren Bereich um den optimalen Punkt herum und dann über einen noch größeren Bereich. Der Fachmann kann sich ohne weiteres andere Variationen und Permutationen derartiger programmierter Reaktionen auf einen Alarm ausdenken.
  • Obwohl die oben beschriebene Praxis der Erfindung das Berechnen des Orts eines Punkts Rn mit sich bringt, der dem Ziel am nächsten liegt, um einen optimalen Blickpunkt zu liefern, ist es als Alternative außerdem möglich, den gewünschten optimalen Blickpunkt während der Initialisierung von Hand einzustellen. Falls beispielsweise irgendein Hindernis zufälligerweise die Blicklinie von dem nächstgelegenen Punkt Rn zu dem Ziel blockiert, kann ein anderer Punkt von Hand ausgewählt und entsprechende Schwenk-, Neigungs- und Zoomdaten gespeichert werden.
  • Es versteht sich sich außerdem, daß ein Alarmsignal auch von einer anderen Quelle als einem Sensor erzeugt werden kann. So kann beispielsweise durch eine entsprechende Bedienereingabe über das Terminal 48 dann ein Alarmsignal ausgelöst werden, wenn der Bediener eine schnelle und automatische Erfassung eines bestimmten Ziels erhalten möchte.
  • Ohne von der Erfindung abzuweichen, können verschiedene Änderungen an dem obigen Überwachungssystem und Modifikationen bei den beschriebenen Praktiken eingeführt werden. Die besonders bevorzugten Verfahren und Vorrichtungen sollen somit veranschaulichen, aber nicht einschränken. Der Schutzbereich der Erfindung ist in den folgenden Ansprüchen dargelegt.

Claims (28)

1. Überwachungssystem, das folgendes umfaßt:
eine entlang eines Weges positionierte längliche Spur;
ein auf der Spur abgestütztes und entlang dieser bewegliches Trägermittel zum Transportieren einer Fernsehkamera (10) entlang des Weges;
ein an das Trägermittel angekoppeltes Trägerbewegungsmittel zum gezielten Bewegen des Trägermittels entlang der Spur;
ein der Fernsehkamera (10) zugeordnetes und auf Kamerasteuersignale reagierendes Mittel zum gezielten Einstellen einer Blickrichtung und eines Zoomzustands der Fernsehkamera (10);
ein an das Trägerbewegungsmittel angekoppeltes und auf Trägersteuersignale reagierendes Trägersteuermittel zum gezielten Positionieren des Trägermittels entlang der Spur; und
einen ersten und zweiten Satz Initialisierungsparameter und
ein Initialisierungsmittel zum Eingeben sowohl des ersten als auch zweiten Satzes Initialisierungsparameter, wobei der erste Satz Initialisierungsparameter erste Positionsdaten, die einen ersten ausgewählten Punkt entlang der länglichen Spur darstellen, und erste Kamerarichtungsdaten, die eine erste Kamerarichtung darstellen, enthält, die so ausgewählt sind, daß die Fernsehkamera (10) ein Bild eines vorbestimmten Zielobjekts liefert, wenn das Trägermittel an dem ersten ausgewählten Punkt positioniert ist, wobei der zweite Satz Initialisierungsparameter zweite Positionsdaten, die einen zweiten ausgewählten Punkt entlang der länglichen Spur darstellen, und zweite Kamerarichtungsdaten, die eine zweite Kamerarichtung darstellen, enthält, die so ausgewählt sind, daß die Fernsehkamera ein Bild des vorbestimmten Zielobjekts liefert, wenn das Trägermittel an dem zweiten ausgewählten Punkt positioniert ist.
2. Überwachungssystem nach Anspruch 1, wobei jeder der Sätze Initialisierungsparameter jeweilige Schwenk- und Neigungsdaten enthält.
3. Überwachungssystem nach Anspruch 2, wobei das Initialisierungsmittel ein von einer Bedienungsperson betätigbares Auswahlmittel zum Auslösen einer Parameterspeicheroperation und ein auf die Betätigung des Auswahlmittels durch die Bedienungsperson reagierendes Mittel zum Erfassen und Speichern von Parameterdaten, die eine Position des Trägermittels und eine Blickrichtung und einen Zoomzustand der Fernsehkamera (10) zu einem Zeitpunkt darstellen, wenn das Auswahlmittel betätigt wird, enthält.
4. Überwachungssystem nach Anspruch 1, wobei der erste und zweite ausgewählte Punkt zwischen sich eine Reihe von Positionen entlang der Schiene definieren, bei denen die Kamera (10) so orientiert werden kann, daß sie ein Bild des vorbestimmten Zielobjekts liefert.
5. Überwachungssystem nach Anspruch 4, weiterhin mit einem mit dem Trägersteuermittel in Wirkverbindung stehenden Zielmittel zum Empfangen eines Zielerfassungssignals und zum Reagieren auf das empfangene Zielerfassungssignal durch Erzeugen von Trägersteuersignalen derart, daß das Trägersteuermittel das Trägermittel zu einer vorbestimmten Position in dem Bereich von Positionen zwischen dem ersten und zweiten ausgewählten Punkt bewegt.
6. Überwachungssystem nach Anspruch 5, weiterhin mit einem mit dem Kamerasteuermittel in Wirkverbindung stehenden Mittel zum Reagieren auf das empfangene Zielerfassungssteuersignal durch Erzeugen von Kamerasteuersignalen auf der Basis der eingegebenen Initialisierungsparameter zum Einstellen der Blickrichtung und des Zoomzustands der Fernsehkamera (10) während einer Bewegung des Trägermittels in dem Bereich von Positionen, so daß die Fernsehkamera (10) während einer derartigen Bewegung des Trägermittels in dem Bereich von Positionen ständig ein Bild des vorbestimmten Zielobjekts liefert.
7. Überwachungssystem nach Anspruch 6, das weiterhin folgendes umfaßt:
ein Mittel zum Berechnen eines entsprechenden Schwenkwinkels, eines entsprechenden Neigungswinkels und eines entsprechenden Zoomzustands auf der Grundlage der eingegebenen Initialisierungsparameter und für jede der mehreren Positionen zwischen dem ersten und zweiten ausgewählten Punkt, damit die Fernsehkamera (10) ein Bild des vorbestimmten Zielobjekts liefern kann, wenn das Trägermittel an der jeweiligen einen der mehreren Positionen positioniert ist; und
ein Mittel zum Speichern von die berechneten Schwenk- und Neigungswinkel und Zoomzustände darstellenden Daten in einer entsprechend den mehreren Positionen indexierten Nachschlagetabelle.
8. Überwachungssystem nach Anspruch 5, weiterhin mit einem mit dem Kamerasteuermittel in Wirkverbindung stehenden Mittel zum Reagieren auf das empfangene Zielerfassungssignal durch Erzeugen von Kamerasteuersignalen gemäß einem ausgewählten Datenelement der ersten und zweiten Kamerarichtungsdaten, falls das Trägermittel zu einem Zeitpunkt, wenn das Zielerfassungssignal empfangen wird, nicht in dem Bereich von Positionen positioniert ist.
9. Überwachungssystem nach Anspruch 8, wobei:
falls zum Zeitpunkt, wenn das Zielerfassungssignal empfangen wird, das Trägermittel außerhalb des Bereichs von Positionen und näher an dem ersten ausgewählten Punkt als an dem zweiten ausgewählten Punkt positioniert ist, das Kamerasteuermittel dann als Reaktion auf das empfangene Zielerfassungssignal bewirkt, daß die Blickrichtung der Fernsehkamera die erste ausgewählte Kamerarichtung wird; und
falls zum Zeitpunkt, wenn das Zielerfassungssignal empfangen wird, das Trägermittel außerhalb des Bereichs von Positionen und näher an dem zweiten ausgewählten Punkt als an dem ersten ausgewählten Punkt positioniert ist, das Kamerasteuermittel dann als Reaktion auf das empfangene Zielerfassungssignal bewirkt, daß die Blickrichtung der Fernsehkamera die zweite ausgewählte Kamerarichtung wird.
10. Überwachungssystem nach Anspruch 5, wobei die vorbestimmte Position entlang der Schiene an einem nächstgelegenen Punkt zu dem vorbestimmten Zielobjekt liegt und weiterhin mit einem Mittel zum Berechnen des nächstgelegenen Punktes und einer optimalen Blickrichtung und eines optimalen Zoomzustands auf der Grundlage des ersten und zweiten Satzes Initialisierungsparameter, um zu bewirken, daß die Fernsehkamera (10) ein Bild des vorbestimmten Zielobjekts liefert, wenn das Trägermittel an dem nächstgelegenen Punkt positioniert ist.
11. Überwachungssystem nach Anspruch 5, weiterhin mit einem Sensormittel, um dem Zielmittel als Reaktion auf eine Änderung eines physischen Zustands an dem vorbestimmten Zielobjekt das Zielerfassungssignal zu liefern.
12. Überwachungssystem nach Anspruch 4, weiterhin mit einem mit dem Trägersteuermittel und dem Kamerasteuermittel in Wirkverbindung stehenden Mittel zum Empfangen eines Zielerfassungssignals und zum Reagieren auf das empfangene Zielerfassungssignal durch Erzeugen von Trägersteuersignalen, so daß das Trägersteuermittel das Trägermittel so bewegt, daß es sich zwischen zwei vorbestimmten Punkten des durch den ersten und zweiten ausgewählten Punkt definierten Bereichs von Positionen hin- und herbewegt, und zum Erzeugen von Kamerasteuersignalen während einer derartigen Hin- und Herbewegung des Trägermittels zum Einstellen der Blickrichtung und des Zoomzustands der Fernsehkamera (10), so daß die Fernsehkamera (10) während einer derartigen Hin- und Herbewegung ständig ein Bild des vorbestimmten Zielobjekts liefert.
13. Überwachungssystem nach Anspruch 12, bei dem die beiden vorbestimmten Punkte, zwischen denen das Trägermittel hin- und herbewegt wird, der erste und zweite ausgewählte Punkt sind.
14. Verfahren zum Initialisieren eines schienenbasierten industriellen Fernsehüberwachungssystems, wobei das Überwachungssystem folgendes enthält:
eine entlang eines Weges positionierte längliche Spur, ein auf der Spur abgestütztes und entlang dieser bewegliches Trägermittel zum Transportieren einer Fernsehkamera (10) entlang des Weges, ein an das Trägermittel angekoppeltes Trägerbewegungsmittel zum gezielten Bewegen des Trägermittels entlang der Spur, ein Kamerasteuermittel zum gezielten Einstellen einer Blickrichtung und eines Zoomzustands der Fernsehkamera (10) und ein Trägersteuermittel zum gezielten Positionieren des Trägermittels entlang der Spur, wobei das Verfahren die folgenden Schritte umfaßt:
Positionieren des Trägermittels an einem ersten ausgewählten Punkt entlang der länglichen Spur;
Orientieren der Blickrichtung der Fernsehkamera (10) in einer ersten Orientierung, so daß die Fernsehkamera (10) zu einem Zeitpunkt, wenn sich das Trägermittel an dem ersten ausgewählten Punkt befindet, ein Bild eines vorbestimmten Zielobjekts liefert;
Speichern eines ersten Satzes Initialisierungsparameter, der den ersten ausgewählten Punkt darstellende erste Spurpositionsdaten und die erste Orientierung der Blickrichtung der Fernsehkamera (10) darstellende erste Kamerarichtungsdaten enthält;
Positionieren des Trägermittels an einem zweiten ausgewählten Punkt entlang der Spur;
Orientieren der Blickrichtung der Fernsehkamera (10) in einer zweiten Orientierung, so daß die Fernsehkamera (10) zu einem Zeitpunkt, wenn sich das Trägermittel an dem zweiten ausgewählten Punkt befindet, ein Bild des vorbestimmten Zielobjekts liefert; und
Speichern eines zweiten Satzes Initialisierungsparameter, der den zweiten ausgewählten Punkt darstellende zweite Spurpositionsdaten und die zweite Orientierung der Blickrichtung der Fernsehkamera (10) darstellende zweite Kamerarichtungsdaten enthält.
15. Initialisierungsverfahren nach Anspruch 14, wobei die ersten Kamerarichtungsdaten erste Schwenkwinkeldaten und erste Neigungswinkeldaten und die zweiten Kamerarichtungsdaten zweite Schwenkwinkeldaten und zweite Neigungswinkeldaten enthalten.
16. Initialisierungsverfahren nach Anspruch 15, weiterhin mit dem Schritt des Berechnens eines optimalen Blickpunktes entlang der Spur, der dem Zielobjekt am nächsten liegt, auf der Grundlage des gespeicherten ersten und zweiten Satzes Initialisierungsparameter.
17. Initialisierungsverfahren nach Anspruch 16, weiterhin mit dem Schritt des Berechnens eines optimalen Schwenkwinkels, eines optimalen Neigungswinkels und eines optimalen Zoomzustands auf der Grundlage des gespeicherten ersten und zweiten Satzes Parameter, damit die Fernsehkamera (10), wenn das Trägermittel an dem optimalen Blickpunkt positioniert ist, ein Bild des vorbestimmten Zielobjekts liefern kann.
18. Initialisierungsverfahren nach Anspruch 17, wobei bei dem Schritt des Berechnens des optimalen Zoomzustands eine Entfernung zwischen dem vorbestimmten Zielobjekt und dem optimalen Blickpunkt berechnet wird.
19. Initialisierungsverfahren nach Anspruch 14, weiterhin mit den folgenden Schritten:
Berechnen eines entsprechenden Schwenkwinkels, eines entsprechenden Neigungswinkels und eines entsprechenden Zoomzustands auf der Grundlage des gespeicherten ersten und zweiten Satzes Initialisierungsparameter und für jede der mehreren Positionen zwischen dem ersten und zweiten ausgewählten Punkt, damit die Fernsehkamera (10), wenn das Trägermittel an der jeweiligen einen der mehreren Positionen positioniert ist, ein Bild des vorbestimmten Zielobjekts liefern kann; und
Speichern von die berechneten Schwenk- und Neigungswinkel und Zoomzustände darstellenden Daten in einer gemäß den mehreren Positionen indexierten Nachschlagetabelle.
20. Verfahren nach Anspruch 14, weiterhin mit den folgenden Schritten:
Berechnen eines optimalen Blickpunkts entlang dem Weg aus den gespeicherten Initialisierungsdaten zum Festhalten eines Bilds des vorbestimmten Zielobjekts und eines optimalen Schwenkwinkels, eines optimalen Neigungswinkels und eines optimalen Zoomzustands zum Festhalten des Bilds des vorbestimmten Zielobjekts, wenn sich die Kamera (10) an dem optimalen Blickpunkt befindet;
Empfangen eines Zielerfassungssignals; und
Bewegen der Kamera (10) zu dem optimalen Blickpunkt als Reaktion auf das empfangene Zielerfassungssignal.
21. Verfahren nach Anspruch 20, wobei bei dem Schritt des Bewegens der Kamera (10) zu dem optimalen Blickpunkt die Kamera (10) entlang einem Bereich von Positionen zwischen den beiden ausgewählten Punkten zu dem optimalen Blickpunkt bewegt wird, und weiterhin mit dem Schritt des Einstellens der Blickrichtung und des Zoomzustands der Kamera (10) während einer derartigen Bewegung der Kamera (10) entlang dem Bereich von Positionen, so daß die Kamera (10) während einer derartigen Bewegung der Kamera (10) in dem Bereich von Positionen ständig ein Bild des vorbestimmten Zielobjekts liefert.
22. Verfahren nach Anspruch 21, wobei bei dem Initialisierungsschritt ein entsprechender Schwenkwinkel, ein entsprechender Neigungswinkel und ein entsprechender Zoomzustand auf der Grundlage der gespeicherten Initialisierungsdaten und für jede der mehreren Positionen zwischen den beiden ausgewählten Punkten berechnet wird, damit die Fernsehkamera (10), wenn sie an der jeweiligen einen der mehreren Positionen positioniert ist, ein Bild des vorbestimmten Zielobjekts liefern kann, und die die berechneten Schwenk- und Neigungswinkel und Zoomzustände darstellenden Daten in einer gemäß den mehreren Positionen indexierten Nachschlagetabelle gespeichert werden.
23. Verfahren nach Anspruch 20, wobei der optimale Blickpunkt zwischen den beiden ausgewählten Punkten und näher an dem vorbestimmten Zielobjekt als jeder andere Punkt entlang des Weges liegt.
24. Verfahren nach Anspruch 20, wobei das Zielerfassungssignal zu einer Zeit empfangen wird, wenn sich die Kamera (10) nicht zwischen den beiden ausgewählten Punkten auf dem Weg befindet, und bei dem Bewegungsschritt die Kamera (10) zu einem näher gelegenen der beiden ausgewählten Punkte bewegt wird, und weiterhin mit dem Schritt des Einstellens der Blickrichtung der Kamera (10) zu der gleichen Zeit, zu der die Kamera (10) zu dem näher gelegenen der beiden ausgewählten Punkte bewegt wird, wobei der Einstellschritt so ausgeführt wird, daß die Kamera (10) zum Festhalten des Bilds des vorbestimmten Zielobjekts von dem näher gelegenen der beiden ausgewählten Punkte die gleiche Blickrichtung aufweist, die während des Initialisierungsschritts verwendet wurde.
25. Verfahren nach Anspruch 20, weiterhin mit dem Schritt des Bewegens der Kamera (10) gemäß einem vorbestimmten Muster als Reaktion auf das empfangene Zielerfassungssignal.
26. Verfahren nach Anspruch 25, weiterhin mit dem Schritt des ständigen Einstellens der Blickrichtung der Kamera (10) während der Bewegung der Kamera (10) gemäß dem vorbestimmten Muster, so daß die Blickrichtung während der Bewegung der Kamera (10) zu dem Zielobjekt orientiert bleibt.
27. Verfahren nach Anspruch 26, wobei bei der Bewegung der Kamera (10) gemäß dem vorbestimmten Muster die Kamera (10) zwischen zwei vorbestimmten Punkten hin- und herbewegt wird.
28. Verfahren nach Anspruch 27, wobei die beiden vorbestimmten Punkte, zwischen denen die Kamera (10) hin- und herbewegt wird, die beiden ausgewählten Punkte sind.
DE69526397T 1994-09-07 1995-08-17 Geschlossenes Fernsehüberwachungssystem mit fahrbarer Kamera und selbsttätiger Zielerfassung Expired - Lifetime DE69526397T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US08/302,341 US5526041A (en) 1994-09-07 1994-09-07 Rail-based closed circuit T.V. surveillance system with automatic target acquisition

Publications (2)

Publication Number Publication Date
DE69526397D1 DE69526397D1 (de) 2002-05-23
DE69526397T2 true DE69526397T2 (de) 2002-11-28

Family

ID=23167346

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69526397T Expired - Lifetime DE69526397T2 (de) 1994-09-07 1995-08-17 Geschlossenes Fernsehüberwachungssystem mit fahrbarer Kamera und selbsttätiger Zielerfassung

Country Status (6)

Country Link
US (1) US5526041A (de)
EP (1) EP0701232B1 (de)
JP (1) JPH0888847A (de)
BR (1) BR9503950A (de)
CA (1) CA2149730C (de)
DE (1) DE69526397T2 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004043816A1 (de) * 2004-09-08 2006-03-23 Paulussen Systems Gmbh Videoüberwachungssystem und Verfahren zu dessen Betrieb

Families Citing this family (92)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8352400B2 (en) 1991-12-23 2013-01-08 Hoffberg Steven M Adaptive pattern recognition based controller apparatus and method and human-factored interface therefore
US6628887B1 (en) 1998-04-17 2003-09-30 Honeywell International, Inc. Video security system
GB2305061B (en) * 1994-07-26 1998-12-09 Maxpro Systems Pty Ltd Text insertion system
US5872594A (en) * 1994-09-20 1999-02-16 Thompson; Paul A. Method for open loop camera control using a motion model to control camera movement
FR2725062B1 (fr) * 1994-09-23 1997-04-04 Douard Pierre Rene Procede et dispositif de telesurveillance par cameras mobiles sur rails
CA2155719C (en) * 1994-11-22 2005-11-01 Terry Laurence Glatt Video surveillance system with pilot and slave cameras
JP3347510B2 (ja) * 1995-03-13 2002-11-20 キヤノン株式会社 画像入力装置
US7895076B2 (en) 1995-06-30 2011-02-22 Sony Computer Entertainment Inc. Advertisement insertion, profiling, impression, and feedback
US8574074B2 (en) 2005-09-30 2013-11-05 Sony Computer Entertainment America Llc Advertising impression determination
AU1463797A (en) * 1995-12-20 1997-07-14 Mediamaxx Incorporated Computer-controlled system for producing three-dimensional navigable photographs of areas and method thereof
US5844601A (en) * 1996-03-25 1998-12-01 Hartness Technologies, Llc Video response system and method
US5953055A (en) * 1996-08-08 1999-09-14 Ncr Corporation System and method for detecting and analyzing a queue
KR19990076722A (ko) * 1996-10-24 1999-10-15 이데이 노부유끼 카메라 장치
JP3943674B2 (ja) * 1996-10-25 2007-07-11 キヤノン株式会社 カメラ制御システム並びにカメラサーバ及びその制御方法
EP1463325B1 (de) 1996-10-31 2014-06-04 Sensormatic Electronics, LLC Intelligentes Videoinformationsverwaltungssystem
DE19651172C2 (de) * 1996-12-10 2003-08-28 Dag Auerbach Überwachungsanlage
US6727938B1 (en) * 1997-04-14 2004-04-27 Robert Bosch Gmbh Security system with maskable motion detection and camera with an adjustable field of view
US6577339B1 (en) * 1997-07-30 2003-06-10 Pinotage, Llc Aircraft monitoring and analysis system and method
US6685366B1 (en) * 1997-09-05 2004-02-03 Robert Bosch Gmbh Camera positioning system with optimized field of view
WO1999035850A1 (en) * 1997-12-31 1999-07-15 Koninklijke Philips Electronics N.V. Multiple camera system
US7755668B1 (en) 1998-04-09 2010-07-13 Johnston Gregory E Mobile surveillance system
JPH11331822A (ja) * 1998-05-15 1999-11-30 Matsushita Electric Ind Co Ltd 監視カメラ装置
US6189838B1 (en) * 1998-06-02 2001-02-20 Sentry Technology, Corp. Position detector for track mounted surveillance systems
JP2000083188A (ja) * 1998-09-03 2000-03-21 Matsushita Electric Ind Co Ltd 監視カメラ装置
US7966078B2 (en) 1999-02-01 2011-06-21 Steven Hoffberg Network media appliance system and method
DE29903350U1 (de) * 1999-02-24 1999-04-22 Nordmann Kurt Dr Überwachungsanlage
JP4243883B2 (ja) * 1999-03-15 2009-03-25 フジノン株式会社 リモコン雲台システム
US6285297B1 (en) * 1999-05-03 2001-09-04 Jay H. Ball Determining the availability of parking spaces
AUPQ017199A0 (en) 1999-05-06 1999-05-27 Lextar Technologies Limited A system for surveillance of an area
AU762221B2 (en) * 1999-05-06 2003-06-19 Lextar Technologies Limited A surveillance system
JP2001069496A (ja) * 1999-08-31 2001-03-16 Matsushita Electric Ind Co Ltd 監視カメラ装置及び監視カメラの制御方法
US7995096B1 (en) * 1999-09-23 2011-08-09 The Boeing Company Visual security operations system
US6661450B2 (en) * 1999-12-03 2003-12-09 Fuji Photo Optical Co., Ltd. Automatic following device
CA2405526A1 (en) * 2000-04-03 2001-10-11 Anthony V. Pugliese, Iii System and method for displaying and selling goods and services
US7151562B1 (en) * 2000-08-03 2006-12-19 Koninklijke Philips Electronics N.V. Method and apparatus for external calibration of a camera via a graphical user interface
US8751310B2 (en) 2005-09-30 2014-06-10 Sony Computer Entertainment America Llc Monitoring advertisement impressions
US6995788B2 (en) * 2001-10-10 2006-02-07 Sony Computer Entertainment America Inc. System and method for camera navigation
JP3754320B2 (ja) * 2001-05-18 2006-03-08 三洋電機株式会社 画像信号処理装置
US20050064926A1 (en) * 2001-06-21 2005-03-24 Walker Jay S. Methods and systems for replaying a player's experience in a casino environment
US20020196342A1 (en) * 2001-06-21 2002-12-26 Walker Jay S. Methods and systems for documenting a player's experience in a casino environment
IL150123A0 (en) * 2002-06-10 2003-07-06 Shahar Avneri Security system
US20050134685A1 (en) * 2003-12-22 2005-06-23 Objectvideo, Inc. Master-slave automated video-based surveillance system
US20100002070A1 (en) 2004-04-30 2010-01-07 Grandeye Ltd. Method and System of Simultaneously Displaying Multiple Views for Video Surveillance
US7528881B2 (en) * 2003-05-02 2009-05-05 Grandeye, Ltd. Multiple object processing in wide-angle video camera
US20080274798A1 (en) * 2003-09-22 2008-11-06 Walker Digital Management, Llc Methods and systems for replaying a player's experience in a casino environment
US20050104958A1 (en) * 2003-11-13 2005-05-19 Geoffrey Egnal Active camera video-based surveillance systems and methods
US7051938B2 (en) * 2003-12-29 2006-05-30 Motorola, Inc. System and method for a multi-directional imaging system
DE102004018410A1 (de) * 2004-04-16 2005-11-03 Robert Bosch Gmbh Sicherheitssystem und Verfahren zu dessen Betrieb
US8427538B2 (en) * 2004-04-30 2013-04-23 Oncam Grandeye Multiple view and multiple object processing in wide-angle video camera
FR2870075B1 (fr) * 2004-05-05 2006-08-04 Hymatom Sa Systeme de videosurveillance a cameras fixes et a camera mobile en rotation et en translation
US7623156B2 (en) * 2004-07-16 2009-11-24 Polycom, Inc. Natural pan tilt zoom camera motion to preset camera positions
US8763157B2 (en) 2004-08-23 2014-06-24 Sony Computer Entertainment America Llc Statutory license restricted digital media playback on portable devices
US20060071933A1 (en) 2004-10-06 2006-04-06 Sony Computer Entertainment Inc. Application binary interface for multi-pass shaders
US7189909B2 (en) * 2004-11-23 2007-03-13 Román Viñoly Camera assembly for finger board instruments
CN101233547B (zh) * 2005-06-20 2010-08-25 罗塔泰克有限公司 具有定向检测器环的定向监视摄像机
US7636126B2 (en) 2005-06-22 2009-12-22 Sony Computer Entertainment Inc. Delay matching in audio/video systems
US20090040307A1 (en) * 2005-06-30 2009-02-12 Planum Vision Ltd. Surveillance System and Method for Detecting Forbidden Movement along a Predetermined Path
JP5030776B2 (ja) * 2005-07-01 2012-09-19 株式会社Access 端末装置、端末装置用プログラム、及び放送番組シーン通知システム
US9363487B2 (en) 2005-09-08 2016-06-07 Avigilon Fortress Corporation Scanning camera-based video surveillance system
US20070058717A1 (en) * 2005-09-09 2007-03-15 Objectvideo, Inc. Enhanced processing for scanning video
US8626584B2 (en) 2005-09-30 2014-01-07 Sony Computer Entertainment America Llc Population of an advertisement reference list
US20070118425A1 (en) 2005-10-25 2007-05-24 Podbridge, Inc. User device agent for asynchronous advertising in time and space shifted media network
US10657538B2 (en) 2005-10-25 2020-05-19 Sony Interactive Entertainment LLC Resolution of advertising rules
US8676900B2 (en) 2005-10-25 2014-03-18 Sony Computer Entertainment America Llc Asynchronous advertising placement based on metadata
US11004089B2 (en) 2005-10-25 2021-05-11 Sony Interactive Entertainment LLC Associating media content files with advertisements
WO2007084766A2 (en) * 2006-01-20 2007-07-26 Wms Gaming Inc. Wagering game with symbol strings dictating winning outcomes
US7965859B2 (en) 2006-05-04 2011-06-21 Sony Computer Entertainment Inc. Lighting control of a user environment via a display device
US7880746B2 (en) 2006-05-04 2011-02-01 Sony Computer Entertainment Inc. Bandwidth management through lighting control of a user environment via a display device
JP5313882B2 (ja) 2006-05-05 2013-10-09 ソニー コンピュータ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー 主要コンテンツと補助コンテンツを表示する装置
US8416247B2 (en) 2007-10-09 2013-04-09 Sony Computer Entertaiment America Inc. Increasing the number of advertising impressions in an interactive environment
US8769558B2 (en) 2008-02-12 2014-07-01 Sony Computer Entertainment America Llc Discovery and analytics for episodic downloaded media
GB2458661A (en) * 2008-03-26 2009-09-30 Sasan Yadrandji Aghdam Remote-controlled rail-mounted IP camera
JP5072733B2 (ja) * 2008-06-25 2012-11-14 キヤノン株式会社 撮像装置及び撮像装置の制御方法
US8763090B2 (en) 2009-08-11 2014-06-24 Sony Computer Entertainment America Llc Management of ancillary content delivery and presentation
US10786736B2 (en) 2010-05-11 2020-09-29 Sony Interactive Entertainment LLC Placement of user information in a game space
JP2012069022A (ja) * 2010-09-27 2012-04-05 Hitachi Ltd 監視システム
US8791911B2 (en) 2011-02-09 2014-07-29 Robotzone, Llc Multichannel controller
DE102011014552A1 (de) * 2011-03-21 2012-09-27 Rwe Deutschland Ag Baustellencontainer sowie Verfahren zur Baustellenfernüberwachung unter Verwendung wenigstens eines Baustellencontainers
ITMI20110473A1 (it) * 2011-03-25 2012-09-26 Special Projects Snc Di Ferdinando Garetti E Franc Macchina per la movimentazione di telecamere professionali ad alta velocita' con movimento di rotazione sull'asse dell'ottica,avanzamento lineare con sistema di messa a fuoco automatizzato.
US9390617B2 (en) * 2011-06-10 2016-07-12 Robotzone, Llc Camera motion control system with variable autonomy
US9342817B2 (en) 2011-07-07 2016-05-17 Sony Interactive Entertainment LLC Auto-creating groups for sharing photos
US9286516B2 (en) 2011-10-20 2016-03-15 Xerox Corporation Method and systems of classifying a vehicle using motion vectors
US9171213B2 (en) 2013-03-15 2015-10-27 Xerox Corporation Two-dimensional and three-dimensional sliding window-based methods and systems for detecting vehicles
US8971581B2 (en) 2013-03-15 2015-03-03 Xerox Corporation Methods and system for automated in-field hierarchical training of a vehicle detection system
US9726463B2 (en) 2014-07-16 2017-08-08 Robtozone, LLC Multichannel controller for target shooting range
US20200404175A1 (en) * 2015-04-14 2020-12-24 ETAK Systems, LLC 360 Degree Camera Apparatus and Monitoring System
US10846779B2 (en) 2016-11-23 2020-11-24 Sony Interactive Entertainment LLC Custom product categorization of digital media content
US10860987B2 (en) 2016-12-19 2020-12-08 Sony Interactive Entertainment LLC Personalized calendar for digital media content-related events
US10931991B2 (en) 2018-01-04 2021-02-23 Sony Interactive Entertainment LLC Methods and systems for selectively skipping through media content
JP7235853B2 (ja) * 2018-08-30 2023-03-08 キヤノンバージニア, インコーポレイテッド 自律型監視システム
CN112750062A (zh) * 2019-10-31 2021-05-04 比亚迪股份有限公司 车站的乘客服务控制方法、***和终端设备
CN116311730B (zh) * 2022-12-23 2024-05-03 北京广监云科技有限公司 一种通过视频分析对危险区域违规进入的专用***设备

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4644845A (en) * 1972-05-18 1987-02-24 Garehime Jacob W Jr Surveillance and weapon system
US3935380A (en) * 1974-12-06 1976-01-27 Coutta John M Surveillance system
US4027329A (en) * 1974-12-06 1977-05-31 Coutta John M Surveillance system
US4337482A (en) * 1979-10-17 1982-06-29 Coutta John M Surveillance system
US4326218A (en) * 1980-11-14 1982-04-20 Coutta John M Surveillance system
US4510526A (en) * 1983-04-19 1985-04-09 Coutta John M Surveillance system
FR2633134A1 (fr) * 1988-06-15 1989-12-22 Boucher Bernard Installation de surveillance video
DE3902076C1 (de) * 1989-01-25 1990-08-23 Messerschmitt-Boelkow-Blohm Gmbh, 8012 Ottobrunn, De
US5109278A (en) * 1990-07-06 1992-04-28 Commonwealth Edison Company Auto freeze frame display for intrusion monitoring system
KR930010843B1 (ko) * 1990-12-15 1993-11-12 삼성전자 주식회사 이동감시 카메라장치
US5241380A (en) * 1991-05-31 1993-08-31 Video Sentry Corporation Track mounted surveillance system having multiple use conductors
US5225863A (en) * 1991-08-15 1993-07-06 Weir Jones Iain Remotely operated camera system with battery recharging system
JPH07104835A (ja) * 1993-10-07 1995-04-21 Hitachi Ltd 移動式点検ロボットシステムの制御,解析,操作装置
JP3084647B2 (ja) * 1993-12-27 2000-09-04 株式会社日立製作所 図面管理装置

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102004043816A1 (de) * 2004-09-08 2006-03-23 Paulussen Systems Gmbh Videoüberwachungssystem und Verfahren zu dessen Betrieb
DE102004043816B4 (de) * 2004-09-08 2006-08-31 Paulussen Systems Gmbh Videoüberwachungssystem und Verfahren zu dessen Betrieb

Also Published As

Publication number Publication date
CA2149730A1 (en) 1996-03-08
BR9503950A (pt) 1996-09-24
EP0701232A2 (de) 1996-03-13
EP0701232A3 (de) 1997-12-10
JPH0888847A (ja) 1996-04-02
DE69526397D1 (de) 2002-05-23
CA2149730C (en) 2005-10-04
US5526041A (en) 1996-06-11
EP0701232B1 (de) 2002-04-17

Similar Documents

Publication Publication Date Title
DE69526397T2 (de) Geschlossenes Fernsehüberwachungssystem mit fahrbarer Kamera und selbsttätiger Zielerfassung
DE60317396T2 (de) Zusammengesetztes Kamerasystem, Bildanzeigesteuerverfahren für eine Zoom-Kamera, Steuerverfahren für eine Zoom-Kamera, Steuerprogramm und computerlesbares Aufzeichnungsmedium
DE69229981T2 (de) Überwachungsvorrichtung mit Steuerung der Kamera und der Linsemontage
DE69429028T2 (de) Rundumsicht Überwachungssystem mit bewegungsloser Kamera
DE60213715T2 (de) Bildüberwachungsvorrichtung, -verfahren und -verarbeitungsprogramm
DE69815981T2 (de) Sicherheitssystem mit maskierbarer bewegungsdetektion und kamera mit einstellbarem gesichtsfeld
DE60207128T3 (de) Sensor für automatische Türen
DE69211165T2 (de) Entfernungsbestimmungsgerät für Fahrzeuge
DE68919979T2 (de) Überwachungsradar.
DE10152883B4 (de) Nachführvorrichtung
DE602005000666T2 (de) Kameraverbundsystem, Kameravorrichtung und Steuerverfahren für den Kameraverbund
DE102008039130A1 (de) Durch ein neurales Netzwerk gesteuertes automatisches Verfolgungs- und Erkennungssystem und Verfahren
DE19700811A1 (de) Verfahren und Vorrichtung zur Ansteuerung von Türanlage in Abhängigkeit von der Anwesenheit von Personen
DE19518978A1 (de) Hinderniserfassungssystem für Kraftfahrzeuge
DE19836681A1 (de) Stereoskopisches Aufnahme- und Wiedergabesystem
DD228096A5 (de) Verfahren und vorrichtung zur automatischen fuehrung von fahzeugen, insbesondere von fahrerlosen elektrokarren
EP3527954A1 (de) Türsensor mit drehwinkelgeber
DE10025110A1 (de) Verfahren und Vorrichtung zur Realisierung eines Informations- und Datenflusses für geodätische Geräte
DE112004002292T5 (de) Automatisches Einsehen des blinden Flecks eines Fahrzeugs
EP1614080A1 (de) Überwachungsvorrichtung
DE10132982A1 (de) Einrichtung zum Erfassen optischer Informationen
EP0445334A1 (de) Verfahren zur Detektion von Intrudern
DE60019464T2 (de) Verspätete videospurverfolgung
EP0448803B1 (de) Videokontroll-Einrichtung
DE102018008282A1 (de) Vorrichtung und Verfahren zum Erfassen von Flugobjekten

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8327 Change in the person/name/address of the patent owner

Owner name: SENSORMATIC ELECTRONICS, LLC, BOCA RATON, FLA., US