DE10358017A1 - 3D camera control - Google Patents

3D camera control Download PDF

Info

Publication number
DE10358017A1
DE10358017A1 DE10358017A DE10358017A DE10358017A1 DE 10358017 A1 DE10358017 A1 DE 10358017A1 DE 10358017 A DE10358017 A DE 10358017A DE 10358017 A DE10358017 A DE 10358017A DE 10358017 A1 DE10358017 A1 DE 10358017A1
Authority
DE
Germany
Prior art keywords
environment
model
control
detection device
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE10358017A
Other languages
German (de)
Inventor
Soeren Moritz
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Priority to DE10358017A priority Critical patent/DE10358017A1/en
Priority to EP04820069A priority patent/EP1692870A2/en
Priority to PCT/EP2004/053128 priority patent/WO2005057929A2/en
Publication of DE10358017A1 publication Critical patent/DE10358017A1/en
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19639Details of the system layout
    • G08B13/19641Multiple cameras having overlapping views on a single scene
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19678User interface
    • G08B13/19689Remote control of cameras, e.g. remote orientation or image zooming control for a PTZ camera
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B13/00Burglar, theft or intruder alarms
    • G08B13/18Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength
    • G08B13/189Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems
    • G08B13/194Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems
    • G08B13/196Actuation by interference with heat, light, or radiation of shorter wavelength; Actuation by intruding sources of heat, light, or radiation of shorter wavelength using passive radiation detection systems using image scanning and comparing systems using television cameras
    • G08B13/19695Arrangements wherein non-video detectors start video recording or forwarding but do not generate an alarm themselves
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/62Control of parameters via user interfaces
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources

Abstract

Die Erfindung betrifft ein System und ein Verfahren zur automatischen Ansteuerung und Ausrichtung von Erfassungsvorrichtungen (2) von Umngebungsinformationen, insbesondere Kameras, auf Basis eines Modells (6) der Umgebung (1). Ein Anwender (9) kann mithilfe eines Zeigegeräts an einer Auswahlvorrichtung (8) den gewünschten darzustellenden Ausschnitt der Umgebung (1) angeben. Eine Steuerungsvorrichtung (5) steuert die Erfassungsmittel (2) entsprechend an und richtet sie aus. Die erfassten Daten können auf einer Anzeige (7b) wiedergegeben werden.The invention relates to a system and a method for the automatic control and alignment of detection devices (2) of environmental information, in particular cameras, based on a model (6) of the environment (1). A user (9) can use a pointing device on a selection device (8) to specify the desired section of the environment (1) to be displayed. A control device (5) controls and aligns the detection means (2) accordingly. The acquired data can be displayed on a display (7b).

Description

Die Erfindung betrifft ein System und ein Verfahren zur visuellen Darstellung von Umgebungsinformationen auf Basis eines ModellsThe The invention relates to a system and method for visual presentation of environmental information based on a model

Verstärkt werden Videokameras zur Überwachung von Orten (Gebäuden, Anlagen und Prozessen) eingesetzt. Bei Videoüberwachungsanlagen kommen meist mehrere Kameras zum Einsatz, die sowohl unterschiedliche, als auch sich überschneidende Sichtbereiche des Ortes abdecken. Die Ansteuerung und die Auswahl des anzuzeigenden Sichtbereiches erfolgt dabei meist von einer zentralen Stelle aus.To be strengthened Video cameras for surveillance of places (buildings, Plants and processes). When video surveillance systems come mostly Several cameras are used, which are different as well overlapping Cover visible areas of the place. The control and the selection of the visual range to be displayed is usually done by a central Place out.

Die Auswahl erfolgt heutzutage durch einen Benutzer des Systems, der die zu verwendende Kamera auswählt und – soweit die Kameraausrichtung beeinflussbar ist – die richtige Ausrichtung ansteuert. Gerade in Umgebungen mit verwinkelten Gebäuden oder Anlagenteilen kann dieser Vorgang viel Zeit in Anspruch nehmen, weil für den Anwender nicht offensichtlich ist, welche Kamera einen freien Blick auf den zu betrachtenden Gebäudeteil gewährt (z.B. Feuer im Bau 2 Raum 234).The Selection is made today by a user of the system who selects the camera to use and - as far as the camera orientation can be influenced - the right orientation controls. Especially in environments with winding buildings or Plant parts, this process can take a long time, because for the user is not obvious which camera has a free one View of the part of the building to be considered (for example fire in construction 2 room 234).

Die Auswahl des anzuzeigenden Kamerabildes obliegt heutzutage der Verantwortung des Anwenders. Er muss entscheiden, welche Kamera eingesetzt und angesteuert werden muss, um einen bestimmten Bereich auf einem Sichtmonitor zur Anzeige zu bringen. Neuere Systeme unterstützen ihn dabei rein informativ, durch die geometrischen Darstellungen (2D/3D) des zu überwachenden Ortes (Gebäude, Anlage, Prozess) inklusive der Aufstellorte der Kameras. Die geometrische Darstellung wird unter anderem auch dazu genutzt, dem Anwender die Auswahl der aktuell zu verwendenden Kamera (Anzeige und Steuerung) zu ermöglichen.The Selection of the camera image to be displayed is nowadays the responsibility of the user. He has to decide which camera to use and must be controlled to a certain area on a visual monitor to bring to the display. Newer systems support him thereby purely informative, by the geometric representations (2D / 3D) of the place to be monitored (building, annex, Process) including the installation locations of the cameras. The geometric Presentation is also used, among other things, the user the Selection of the currently used camera (display and control) to enable.

Die Aufgabe der vorliegen Erfindung ist, ein System und ein Verfahren anzugeben, mithilfe dessen die eine Auswahl bzw. Ansteuerung einer Erfassungsvorrichtung, insbesondere einer Kamera, automatisch erfolgt.The The object of the present invention is a system and a method specify by means of which a selection or control of a Detection device, in particular a camera, automatically done.

Die Aufgabe wird gelöst durch System zur insbesondere visuellen Darstellung von Umgebungsinformationen, mit mindestens einer Erfassungsvorrichtung zur Erfassung der Umgebungsinformationen, mindestens einer Wiedergabevorrichtung zur Wiedergabe von erfassten Umgebungsinformationen, mindestens einem Modell der Umgebung und einer Steuerungsvorrichtung zur Auswahl und/oder Steuerung der mindestens einen Erfassungsvorrichtung auf Basis des Modells der Umgebung.The Task is solved by a system for in particular visual presentation of environmental information, with at least one detection device for acquiring the environment information, at least one playback device for reproducing detected Environment information, at least one model of the environment and a control device for selecting and / or controlling the at least one Detection device based on the model of the environment.

Die Aufgabe wird weiterhin gelöst durch ein Verfahren zur insbesondere visuellen Darstellung von Umgebungsinformationen, bei dem die Umgebungsinformationen erfasst werden, die erfassten Umgebungsinformationen wiedergegeben werden, die Umgebung in einem Modell abgebildet wird und mindestens eine Erfassungsvorrichtung auf Basis des Modells der Umgebung ausgewählt und/oder gesteuert wird.The Task is still solved by a method for in particular visual presentation of environmental information, which captures the environmental information that captured Environmental information is rendered in one environment Model is mapped and at least one detection device is selected and / or controlled based on the model of the environment.

Der Erfindung liegt die Erkenntnis zugrunde, dass bei der Erfassung von Informationen für einen Anwender eines großräumigen Systems die Auswahl relativ schwierig ist. Beispielsweise bei der Auswahl von Kameras für die Gebäudeüberwachung oder auch bei der Auswahl beliebiger anderer Erfassungseinheiten, die über einen großen Raum oder einfach nur in unübersichtlicher Weise angeordnet sind. Denkbar ist hier jede Form von Sensoren, die Informationen erfassen und dabei ausgerichtet werden können, um Werte aus einer bestimmten Richtung zu erfassen. Der Einsatz eines derartigen Systems ist sowohl im Umfeld von Prozesssensoren, beispielsweise Strömungssensoren als auch bis hin zur Einstellung der Ausrichtung von Teleskopen für die Beobachtung des Weltraumes hin möglich. Eine derartige Steuerung auch von Infrarotkameras wäre ebenso vorteilhaft.Of the Invention is based on the finding that in the detection of information for a user of a large-scale system the selection is relatively difficult. For example, in the selection from cameras for the building surveillance or also in the selection of any other detection units, the above a big Room or just in confusing Way are arranged. Conceivable here is any form of sensors, to capture the information and thereby align it to To capture values from a particular direction. The use of a Such system is both in the environment of process sensors, for example flow sensors as well as adjusting the orientation of telescopes for observation of space possible. Such control of infrared cameras would be as well advantageous.

Der Anwender beispielsweise einer Videoüberwachungsanlage wird von der Auswahl der Kamera und ihrer Ansteuerung befreit, indem ein 3D Modell des zu überwachenden Ortes zusammen mit Informationen über die eingesetzten Videokameras (Aufstellort, Ausrichtung, optischen Kenndaten) zum Einsatz gebracht wird. Das System ermittelt für den Anwender durch Vorgabe eines einzusehenden Bereiches, welche Kamera dafür zum Einsatz gebracht werden muss und wie diese Kamera bzgl. ihrer Ausrichtung und Brennweite anzusteuern ist.Of the For example, a user of a video surveillance system is called by the selection of the camera and its control freed by a 3D model of the monitored Place together with information about the video cameras used (Location, alignment, optical characteristics) is used. The system determines for the user by specifying an area to be viewed, which Camera for it must be used and how this camera regarding their Alignment and focal length is to control.

Vorteilhaft hierbei ist, dass ein zu betrachtender bzw. zu überwachender Bereich vom Anwender mit Hilfe eines 3D Modells ausgewählt werden kann. Das System wählt dann für den Anwender eine Videokamera aus, die in der Lage ist, diesen Bereich anzuzeigen. Das System entlastet den Anwender auch dahingehend, dass die Ansteuerung der Ausrichtung und des Zooms vom System übernommen wird. Die Anzeige des gewünschten Bereiches wird auf Bruchteile einer Sekunde verkürzt.Advantageous in this case, the area to be considered or monitored by the user can be selected with the help of a 3D model. The system then choose for the Users can choose a video camera that is capable of this area display. The system also relieves the user that the control of the alignment and the zoom are taken over by the system becomes. The display of the desired Range is shortened to fractions of a second.

Wird das System mit den Positionsparametern eines beweglichen Teils gekoppelt, kann das System auch eine sich bewegende Kamera mit in die Betrachtung einbeziehen und sorgt trotz der Bewegungsdynamik dafür, dass das Bild auf den zu betrachtenden Bereich fixiert bleibt.Becomes the system is coupled to the positional parameters of a moving part, The system can also take a moving camera into consideration and, despite the dynamic of movement, ensures that the image remains fixed on the area to be viewed.

Eine vorteilhafte Ausbildung der Erfindung ist dadurch gekennzeichnet, dass der Anwender die automatische Auswahl und Ansteuerung der Kamera jederzeit aktivieren und deaktivieren kann. Dies erlaubt ihm in einen Modus zu schalten, wo er die volle Kontrolle über die Auswahl und Ansteuerung der Kamera erhält.A advantageous embodiment of the invention is characterized in that the user can automatically select and control the camera Activate and deactivate at any time. This allows him in to switch to a mode where he has full control over the Selection and control of the camera receives.

Eine weitere vorteilhafte Ausbildung der Erfindung ist dadurch gekennzeichnet, dass das System dahingehend erweitert werden kann, dass auch auf beweglichen Teilen montierte Kameras (z.B. auf einer Kranbühne) mit in die Berechnung einbezogen werden können. Hierzu wird die Kamerasteuerung mit einem Steuersystem gekoppelt, welches die aktuelle Position des beweglichen Teiles erfasst und an die Kamerasteuerung meldet. Aus dieser Information kann die Kamerasteuerung die Transformation ableiten, um die aktuellen Orts- und Ausrichtungsinformation der Kamera zu berechnen. Auf Basis dieser Informationen kann dann die Berechnung wie weiter unten beschrieben durchgeführt werden. Erfolgt die neue Berechnung kontinuierlich, erhält man ein dynamisches System, welches unter Beachtung der Sichtbarkeitsbereiche und der Bewegung der Kameras immer die optimale Kamera auswählt und so ansteuert, dass der ausgewählte Sichtbarkeitsbereich stets im Fokus der Kamera bzw. der Kameras gehalten wird.A Further advantageous embodiment of the invention is characterized in that that the system can be expanded to include that too mobile mounted cameras (e.g., on a crane platform) can be included in the calculation. This is the camera control coupled with a control system which indicates the current position of the moving part detected and reported to the camera control. From this information, the camera control can transform Derive the current location and orientation information of the Camera to calculate. On the basis of this information can then the Calculation as described below. Done the new one Calculation continuously, you get a dynamic system which respects the visibility areas and the movement of the cameras always selects the optimal camera and so controls that the selected Visibility area always in the focus of the camera or the cameras is held.

Eine weitere vorteilhafte Ausbildung der Erfindung ist dadurch gekennzeichnet, dass das anstatt eines einzelnen Punktes eine Menge von Punkten zur Beschreibung des zu betrachtenden Bereiches eingesetzt wird. Diese Punktmenge (Anzahl > 2) beschreibt dann eine Fläche die zu betrachten ist. Die Berechnungsverfahren gestaltet sich dann ähnlich wie unten beschrieben, mit der Ausnahme, dass nun angestrebt wird, dass eine möglichst große Anzahl der Punkte im Sichtfeld einer Kamera zum liegen kommen.A Further advantageous embodiment of the invention is characterized in that that instead of a single point a lot of points is used to describe the area to be considered. This point quantity (number> 2) then describes an area which is to be considered. The calculation method is then similar to described below, with the exception that it is now desired that a preferably size Number of points in the field of view of a camera come to rest.

Weitere vorteilhafte Ausführungen der Erfindung finden sich in den Unteransprüchen.Further advantageous embodiments The invention can be found in the subclaims.

Im Folgenden wird die Erfindung anhand der Figur näher beschrieben und erläutert:
Die Figur stellt den real zu überwachenden Ort bzw. die Umgebung 1 (z.B. Gebäude, Anlage, Prozess) dar, in der Informationen mittels der Erfassungsmittel 2 erfasst werden. Die Erfassungsmittel 2, insbesondere die Kameras 2a, 2b und 2c, werden in dem Ausführungsbeispiel zur Videoüberwachung des Ortes bzw. der Umgebung 1 eingesetzt. Die Kameras sind an einem festen Ort (x,y,z) montiert und optional ansteuerbar (Drehung um die x,y,z-Achse und Brennweite). Die Anzahl der Kameras kann beliebig groß sein. Anstelle der Kameras können mithilfe des erfindungsgemäßen Systems auch beliebige andere Erfassungsmittel ausgewählt und bezüglich ihrer Ausrichtung oder auch ihrer Bewegung im Raum gesteuert werden.
In the following the invention will be described and explained in more detail with reference to the drawing:
The figure represents the real place to be monitored or the environment 1 (eg, building, facility, process) in which information is collected by the means of detection 2 be recorded. The detection means 2 , especially the cameras 2a . 2 B and 2c , Be in the embodiment for video surveillance of the place or the environment 1 used. The cameras are mounted in a fixed location (x, y, z) and can be controlled as an option (rotation around the x, y, z axis and focal length). The number of cameras can be any size. Instead of the cameras, any other detection means can also be selected and controlled with respect to their orientation or their movement in space by means of the system according to the invention.

Im Ausführungsbeispiel ist die Verarbeitungsvorrichtung zur Aufbereitung der erfassten Informationen als Videosystem 3 ausgebildet, welches zum einem die Videosignale der aktuell ausgewählten Kamera an eine Wiedergabevorrichtung 7b, insbesondere einen Monitor überträgt, zum anderen die Steuerdaten der Steuervorrichtung 5, insbesondere der Kamerasteuerung hin zu den Erfassungsvorrichtungen 2 bzw. Kameras. Dabei kann die Kopplung zwischen Videosystem und Kameras, zwischen Videosystem und Kamerasteuerung sowie zwischen Videosystem und Wiedergabevorrichtung 7b unterschiedlich ausgeprägt sein (z.B. via Ethernet, WLAN, Sternverkablung, usw.).In the exemplary embodiment, the processing device for processing the acquired information as a video system 3 formed, which for a video signals of the currently selected camera to a playback device 7b , in particular transmits a monitor, on the other hand, the control data of the control device 5 , in particular the camera control to the detection devices 2 or cameras. The coupling between video system and cameras, between video system and camera control and between video system and playback device 7b be different (eg via Ethernet, WLAN, Sternverkablung, etc.).

Ein Rechnersystem 4, enthält beispielhaft die Komponente Steuerungsvorrichtung 5 und einen Datenspeicher mit dem 3D Modell 6 der Umgebung 1. Die Steuerungsvorrichtung 5, insbesondere die Kamerasteuerung, berechnet mit Hilfe des 3D Modells 6 des Ortes bzw. der Umgebung 1 und der eingesetzten Erfassungsvorrichtungen 2 bzw. Kameras sowie der Anwenderauswahl eines zu betrachtenden Bereiches die einzusetzende Kamera 2x und setzt ihre Ansteuerung über das Videosystem bzw. die Verarbeitungsvorrichtung 3 um.A computer system 4 , contains by way of example the component control device 5 and a data store with the 3D model 6 the environment 1 , The control device 5 , in particular the camera control, calculated using the 3D model 6 of the place or the surroundings 1 and the detection devices used 2 or cameras and the user selection of an area to be considered the camera to be used 2x and sets its control via the video system or the processing device 3 around.

Ein Datenspeicher auf dem Rechnersystem 4 enthält ein 3D Modell 6 des Ortes bzw. der Umgebung 1 inklusive der notwendigen Informationen zu den Kameras 2 (Aufstellort, Ausrichtung, optische Kenndaten, Zustand). Die Modellbeschreibung ist dabei vorteilhaft so ausgeprägt, wie im VRML 97 ISO-Standard beschrieben (3D Flächenmodell).A data store on the computer system 4 contains a 3D model 6 of the place or the surroundings 1 including the necessary information about the cameras 2 (Location, orientation, optical characteristics, condition). The model description is advantageously as pronounced as in the VRML 97 ISO standard described (3D surface model).

Ein Anzeigesystem 7a zeigt das 3D Modell 6 des Ortes an. Über das Standardsteuerelement 8 (Zeigegerät, Tastatur, Spracheingabe, ...) kann dabei die Sicht auf das Modell 6 verändert werden (Drehen, Zoomen, Verschieben, ...). Ein weiteres Anzeigesystem 7b zeigt das Videobild der aktuell ausgewählten Videokamera an. Mittels eines Pointing Device 8 (Zeigegerät wie z.B. eine Computer-Maus oder über die Positionsermittlung mittels eines Touch-Screens), wird dem Anwender die Auswahl eines zu betrachtenden Bereiches (Punktes) auf dem Anzeigesystem 7a ermöglicht.A display system 7a shows the 3D model 6 of the place. About the standard control 8th (Pointing device, keyboard, voice input, ...) can be the view of the model 6 be changed (rotate, zoom, move, ...). Another display system 7b Displays the video image of the currently selected video camera. Using a pointing device 8th (Pointing device such as a computer mouse or via the position determination by means of a touch screen), the user is the selection of a range to be considered (Dot) on the display system 7a allows.

Das System arbeitet wie folgt:
Der Anwender wählt mit Hilfe eines Pointing Devices 8 (Zeigegeräte) auf dem Anzeigesystem 7a einen zu betrachtenden Punkt des Ortes über das angezeigte 3D Modell aus. Der zweidimensionale Punkt P2D des Pointing Devices 8 wird dabei von der Kamerasteuerung 5 in einen dreidimensionalen Punkt P3D auf einer Fläche des 3D Modells 6 abgebildet. Dies erfolgt nach den hierfür bekannten Verfahren: Umsetzung der 2D-Position und der aktuellen Sicht auf das 3D Modell 6 in eine Gerade, die mit den Flächen FL des 3D Modells 6 geschnitten wird. Der Schnittpunkt mit der kürzesten Entfernung zum Betrachter wird ausgewählt und als P3D angegeben.
The system works as follows:
The user selects with the help of a pointing device 8th (Pointing devices) on the display system 7a a point of the location to be viewed over the displayed 3D model. The two-dimensional point P 2D of the pointing device 8th is thereby from the camera control 5 into a three-dimensional point P 3D on a surface of the 3D model 6 displayed. This is done according to the known methods: Implementation of the 2D position and the current view of the 3D model 6 into a line that matches the surfaces F L of the 3D model 6 is cut. The intersection with the shortest distance to the viewer is selected and indicated as P 3D .

Im nächsten Schritt wird für jede Videokamera Ki aus der Liste der verfügbaren Kameras KL folgendes Verfahren angewandt:

  • 1. Bilden eines Vektors Va zwischen P3D und dem Aufstellort PKi der Kamera Ki.
  • 2. Auf Basis von Va wird nun eine Gerade gebildet und mit allen Flächen FL des 3D Modells 6 geschnitten. Liegt einer dieser Schnittpunkte zwischen dem Aufstellort der Kamera und den zu betrachtenden Bereich P3D, verdeckt die mit dem Schnittpunkt verbundene Fläche die Sicht auf den zu betrachtenden Bereich (Ausnahme: Fläche wurde als Transparent gekennzeichnet). In diesem Fall kann die Kamera nicht zum Einsatz kommen und die nächste Kamera aus der Liste KL ist zu betrachten.
  • 3. Liegt keine Verdeckung des Sichtbereiches vor, so ist nun zu überprüfen, ob die Kameraausrichtung entsprechend den Vorgaben des Vektors Va gesetzt werden kann. Erlaubt die Kamera Ki nicht, diese Ausrichtung einzustellen, so kann sie nicht zum Einsatz kommen und die nächste Kamera aus der Liste KL ist zu betrachten. Der Punkt P3D muss dabei nicht im Mittelpunkt des Sichtbereiches der Kamera liegen. Es reicht aus, wenn sich der Punkt P3D im maximalen Sichtbereich der Kamera (minimale Brennweite) befindet. Der Sichtbereich wird über einen Kegel beschrieben, dessen Spitze in PKi liegt. Dieser Kegel wird so ausgerichtet, dass der Vektor, der die Kameraausrichtung beschreibt und der Vektor Va einen minimalen Winkel zueinander bilden. Dabei werden die Einschränkungen der Kamera Ki bzgl. ihrer Ausrichtung berücksichtigt. Der Kegel wird dann mit der Fläche geschnitten, auf der der Punkt P3D liegt. Befindet sich dann P3D innerhalb der resultierenden Schnittfläche, kann P3D von der Kamera angezeigt werden.
  • 4. Nun ist sichergestellt, dass die Kamera Ki den zu betrachtenden Bereich anzeigen kann. Die Kamera Ki wird nun in die Liste der verwendbaren Kameras KS aufgenommen. Zusätzlich werden zu der Kamera Ki die Werte zur Ausrichtung der Kamera und ggf. Werte für den einzustellenden Zoom mit abgelegt. Die Einstellung des Zooms kann aus der Entfernung der Kamera zum betrachtenden Punkt P3D und einem vom Benutzer vorgegeben Kriterium zum Sichtbarkeitsbereich (z.B. 10 Meter breites Sichtfeld anzeigen) abgeleitet werden, unter Berücksichtigung, dass P3D noch im Sichtbereich der Kamera liegt (siehe Schritt 3).
In the next step, the following procedure is used for each video camera K i from the list of available cameras K L :
  • 1. Forming a vector V a between P 3D and the installation site PK i of the camera K i .
  • 2. On the basis of V a a straight line is now formed and with all surfaces F L of the 3D model 6 cut. If one of these points of intersection lies between the place of installation of the camera and the area P 3D to be observed, the area connected to the point of intersection obscures the view of the area to be considered (exception: surface was marked as transparent). In this case, the camera can not be used and the next camera from the K L list is to be viewed.
  • 3. If there is no occlusion of the field of view, it is now necessary to check whether the camera orientation can be set according to the specifications of the vector V a . If the camera does not permit K i to adjust this orientation, it can not be used and the next camera from the K L list is to be viewed. The point P 3D does not have to lie in the center of the field of view of the camera. It is sufficient if the point P 3D is within the maximum field of view of the camera (minimum focal length). The field of view is described by a cone whose peak lies in PK i . This cone is oriented so that the vector describing the camera orientation and the vector V a form a minimum angle to each other. The restrictions of the camera K i are taken into consideration with regard to their orientation. The cone is then cut with the area on which the point P 3D lies. If P 3D is inside the resulting cut surface, P 3D can be displayed by the camera.
  • 4. Now it is ensured that the camera K i can display the area to be viewed. The camera K i is now included in the list of usable cameras K S. In addition to the camera K i the values for the alignment of the camera and possibly values for the zoom to be set are also stored. The setting of the zoom can be derived from the distance of the camera to the viewing point P 3D and a criterion specified by the user to the visibility range (eg 10 meters wide field of view), taking into account that P 3D is still in the field of view of the camera (see step 3 ).

Befindet sich nach diesen Berechnungen keine Kamera in der Liste KS, so wird dem Anwender gemeldet, dass keine Kamera den zu betrachtenden Bereich darstellen kann. Befindet sich nur eine Kamera in der Liste KS, so wird diese als aktiv dem Videosystem gemeldet und die Ansteuerung von Ausrichtung und Zoom wird vorgenommen. Befinden sich mehrere Kameras in der Liste KS, so wird entweder automatisch die erste Kamera in der Liste als aktiv ausgewählt oder dem Anwender wird ermöglicht, eine Kamera als aktive Kamera aus der Liste der verwendbaren Kameras auszuwählen. Die als aktiv zu setzende Kamera wird dem Videosystem gemeldet und die Ansteuerung von Ausrichtung und Zoom wird vorgenommen.If there is no camera in the list K S after these calculations, the user is informed that no camera can represent the area to be viewed. If there is only one camera in the K S list, it will be reported as active to the video system and alignment and zoom will be activated. If there are several cameras in the K S list, either the first camera in the list is automatically selected as active or the user is allowed to select a camera as the active camera from the list of usable cameras. The camera to be set as active is reported to the video system and the orientation and zoom are controlled.

Abkürzungen: P2D 2-Dimensionaler Punkt auf dem Anzeigesystem (7a) P3D 3-Dimensionaler Punkt im 3D Modell (6), der den zu betrachtenden Bereich beschreibt FL Liste aller Flächen, die in Summe das 3D Modell (6) vollständig beschreiben/darstellen KL Liste der vorhandenen und verfügbaren Videokameras (Zustand = verfügbar) KS Liste der Videokameras, die den zu betrachtenden Punkt P3D anzeigen können Ki Eine Kamera aus der Liste KL PKi Punkt der den Aufstellort der Kamera beschreibt. Va Vektor der die Gerade und den Abstand zwischen den zu betrachtenden Punkt P3D und den Aufstellort PKi der Kamera beschreibt. Abbreviations: P 2D 2-dimensional point on the display system ( 7a ) P 3D 3-dimensional point in the 3D model ( 6 ), which describes the area to be considered F L List of all surfaces that sum up to the 3D model ( 6 ) completely describe / represent K L List of available and available video cameras (condition = available) K S List of video cameras that can display the point P 3D to be viewed K i A camera from the list K L PK i Point describing the location of the camera. V a Vector describing the line and the distance between the point P 3D to be observed and the location PK i of the camera.

Zusammenfassend betrifft die Erfindung ein System und ein Verfahren zur automatischen Ansteuerung und Ausrichtung von Erfassungsvorrichtungen 2 von Umgebungsinformationen, insbesondere Kameras, auf Basis eines Modells 6 der Umgebung 1.In summary, the invention relates to a system and a method for the automatic control and alignment of detection devices 2 of environmental information, especially cameras, based on a model 6 the environment 1 ,

Ein Anwender 9 kann mithilfe eines Zeigegeräts an einer Auswahlvorrichtung 8 den gewünschten darzustellenden Ausschnitt der Umgebung 1 angeben. Eine Steuerungsvorrichtung 5 steuert die Erfassungsmittel 2 entsprechend an und richtet sie aus.A user 9 can use a pointing device on a selector 8th the desired section of the environment to be displayed 1 specify. A control device 5 controls the detection means 2 accordingly and align it.

Die erfassten Daten können auf einer Anzeige 7b wiedergegeben werden.The captured data can be viewed on a display 7b be reproduced.

Claims (26)

System zur insbesondere visuellen Darstellung von Umgebungsinformationen, mit – mindestens einer Erfassungsvorrichtung (2) zur Erfassung der Umgebungsinformationen, – mindestens einer Wiedergabevorrichtung (7b) zur Wiedergabe von erfassten Umgebungsinformationen, – mindestens einem Modell (6) der Umgebung (1) und – einer Steuerungsvorrichtung (5) zur Auswahl und/oder Steuerung der mindestens einen Erfassungsvorrichtung (2) auf Basis des Modells (6) der Umgebung (1).System for in particular visual presentation of environmental information, comprising - at least one detection device ( 2 ) for acquiring the environment information, - at least one reproduction device ( 7b ) for reproducing acquired environmental information, - at least one model ( 6 ) the environment ( 1 ) and - a control device ( 5 ) for selecting and / or controlling the at least one detection device ( 2 ) based on the model ( 6 ) the environment ( 1 ). System nach Anspruch 1, dadurch gekennzeichnet, dass die Auswahl und/oder Steuerung der mindestens einen Erfassungsvorrichtung (2) durch die Steuerungsvorrichtung (5) automatisch durch einen von einem Anwender (9) des Systems im Modell (6) der Umgebung (1) ausgewählten darzustellenden Bereich erfolgt.System according to claim 1, characterized in that the selection and / or control of the at least one detection device ( 2 ) by the control device ( 5 ) automatically by one of a user ( 9 ) of the system in the model ( 6 ) the environment ( 1 ) selected area to be displayed. System nach Anspruch 2, dadurch gekennzeichnet, dass die automatische Auswahl und/oder Steuerung durch den Anwender (9) aktivierbar und/oder deaktivierbar ist.System according to claim 2, characterized in that the automatic selection and / or control by the user ( 9 ) can be activated and / or deactivated. System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Modell (6) der Umgebung (1) als 3D-Modell ausgebildet ist.System according to one of the preceding claims, characterized in that the model ( 6 ) the environment ( 1 ) is designed as a 3D model. System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die mindestens eine Erfassungsvorrichtung (2) als mobile Erfassungsvorrichtung ausgebildet ist, wobei die Position der mobilen Erfassungsvorrichtung erfasst und an die Steuerungsvorrichtung (5) gemeldet wird.System according to one of the preceding claims, characterized in that the at least one detection device ( 2 ) is formed as a mobile detection device, wherein the position of the mobile detection device detected and to the control device ( 5 ) is reported. System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Anzeigevorrichtung (7a) zur Anzeige des Modells (6) der Umgebung (1) vorgesehen ist.System according to one of the preceding claims, characterized in that a display device ( 7a ) for displaying the model ( 6 ) the environment ( 1 ) is provided. System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass dass die Wiedergabevorrichtung (7b) zur Wiedergabe von, insbesondere aktuellen, visuellen, akustischen oder molekularen Informationen vorgesehen ist, wobei die Erfassungsvorrichtungen (2) als Kameras, Mikrophone und/oder chemische Sensoren ausgebildet sind.System according to one of the preceding claims, characterized in that the reproducing device ( 7b ) is provided for reproducing, in particular current, visual, acoustic or molecular information, the detection devices ( 2 ) are designed as cameras, microphones and / or chemical sensors. System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass ein Rechner (4) zur Speicherung des Modells (6) der Umgebung (1) vorgesehen ist.System according to one of the preceding claims, characterized in that a computer ( 4 ) for storing the model ( 6 ) the environment ( 1 ) is provided. System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Steuerungsvorrichtung (5) auf dem Rechner (4) angeordnet ist.System according to one of the preceding claims, characterized in that the control direction ( 5 ) on the computer ( 4 ) is arranged. System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Auswahlvorrichtung (8) zur Auswahl eines darzustellenden Bereichs durch den Anwender (9) vorgesehen ist.System according to one of the preceding claims, characterized in that a selection device ( 8th ) for selecting a region to be displayed by the user ( 9 ) is provided. System nach Anspruch 10, dadurch gekennzeichnet, dass die Auswahlvorrichtung (8) als Zeige-Gerät, insbesondere als Mouse und/oder Trackball und/oder Touch Screen ausgebildet ist.System according to claim 10, characterized in that the selection device ( 8th ) is designed as a pointing device, in particular as a mouse and / or trackball and / or touch screen. System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Auswahl durch den Anwender (9) durch Angabe eines Punktes und/oder einer Fläche erfolgt.System according to one of the preceding claims, characterized in that the selection by the user ( 9 ) by specifying a point and / or a surface. System nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass der mindestens einen Erfassungsvorrichtung (2) eine Verarbeitungsvorrichtung (3) nachgeordnet ist, welche zur Verarbeitung der erfassten Informationen und/oder zur Aufbereitung der Informationen an die Wiedergabevorrichtung (7b) und/oder zur Übertragung der Steuerdaten von der Steuerungsvorrichtung (5) an die mindestens eine Erfassungsvorrichtung (2) vorgesehen ist.System according to one of the preceding claims, characterized in that the at least one detection device ( 2 ) a processing device ( 3 ), which is used for processing the acquired information and / or for processing the information to the playback device ( 7b ) and / or for transmitting the control data from the control device ( 5 ) to the at least one detection device ( 2 ) is provided. Verfahren zur insbesondere visuellen Darstellung von Umgebungsinformationen, bei dem – die Umgebungsinformationen erfasst werden, – die erfassten Umgebungsinformationen wiedergegeben werden, – die Umgebung (1) in einem Modell (6) abgebildet wird und – mindestens eine Erfassungsvorrichtung (2) auf Basis des Modells (6) der Umgebung (1) ausgewählt und/oder gesteuert wird.A process for in particular visual presentation of environmental information, in which - the environment information is captured, - the captured environmental information is reproduced, - the environment ( 1 ) in a model ( 6 ) and - at least one detection device ( 2 ) based on the model ( 6 ) the environment ( 1 ) is selected and / or controlled. Verfahren nach Anspruch 14, dadurch gekennzeichnet, dass die mindestens eine Erfassungsvorrichtung (2) durch eine Steuerungsvorrichtung (5) automatisch ausgewählt und/oder gesteuert wird, wobei ein Anwender (9) des Systems im Modell (6) der Umgebung (1) den darzustellenden Bereich ausgewählt.A method according to claim 14, characterized in that the at least one detection device ( 2 ) by a control device ( 5 ) is automatically selected and / or controlled, whereby a user ( 9 ) of the system in the model ( 6 ) the environment ( 1 ) selects the area to be displayed. Verfahren nach Anspruch 15, dadurch gekennzeichnet, dass die automatische Auswahl und/oder Steuerung durch den Anwender (9) aktiviert und/oder deaktiviert werden kann.A method according to claim 15, characterized in that the automatic selection and / or control by the user ( 9 ) can be activated and / or deactivated. Verfahren nach einem der Ansprüche 14 bis 16, dadurch gekennzeichnet, dass die Umgebung (1) als 3D-Modell dargestellt wird.Method according to one of claims 14 to 16, characterized in that the environment ( 1 ) is displayed as a 3D model. Verfahren nach einem der Ansprüche 14 bis 17, dadurch gekennzeichnet, dass die mindestens eine Erfassungsvorrichtung (2) als mobile Erfassungsvorrichtung ausgebildet ist, wobei die Position der mobilen Erfassungsvorrichtung erfasst und an die Steuerungsvorrichtung(5) gemeldet wird.Method according to one of claims 14 to 17, characterized in that the at least one detection device ( 2 ) is formed as a mobile detection device, wherein the position of the mobile detection device detected and to the control device ( 5 ) is reported. Verfahren nach einem der Ansprüche 14 bis 18, dadurch gekennzeichnet, dass das Modell (6) der Umgebung (1) auf einer Anzeigevorrichtung (7a) angezeigt wird.Method according to one of claims 14 to 18, characterized in that the model ( 6 ) the environment ( 1 ) on a display device ( 7a ) is shown. Verfahren nach einem der Ansprüche 14 bis 19, dadurch gekennzeichnet, dass dass insbesondere aktuelle, visuelle, akustische oder molekulare Informationen wiedergegeben werden, wobei die Erfassungsvorrichtungen (2) als Kameras, Mikrophone und/oder chemische Sensoren ausgebildet sind.Method according to one of claims 14 to 19, characterized in that in particular current, visual, acoustic or molecular information are reproduced, wherein the detection devices ( 2 ) are designed as cameras, microphones and / or chemical sensors. Verfahren nach einem der Ansprüche 14 bis 20, dadurch gekennzeichnet, dass das Modell (6) der Umgebung (1) auf einem Rechner (4) gespeichert ist.Method according to one of claims 14 to 20, characterized in that the model ( 6 ) the environment ( 1 ) on a computer ( 4 ) is stored. Verfahren nach einem der Ansprüche 14 bis 21, dadurch gekennzeichnet, dass die Erfassungsvorrichtungen (2) von einer auf dem Rechner (4) angeordneten Steuerungsvorrichtung (5) ausgewählt und/oder gesteuert werden.Method according to one of claims 14 to 21, characterized in that the detection devices ( 2 ) from one on the computer ( 4 ) arranged control device ( 5 ) are selected and / or controlled. Verfahren nach einem der Ansprüche 14 bis 22, dadurch gekennzeichnet, dass ein darzustellender Bereich durch den Anwender (9) mithilfe einer Auswahlvorrichtung (8) ausgewählt wird.Method according to one of claims 14 to 22, characterized in that an area to be displayed by the user ( 9 ) using a selection device ( 8th ) is selected. Verfahren nach Anspruch 23, dadurch gekennzeichnet, dass ein wiederzugebender Bereich mithilfe eines Zeige-Geräts, insbesondere einer Mouse und/oder eines Trackball und/oder eines Touch Screens ausgewählt wird.Method according to claim 23, characterized that an area to be played using a pointing device, in particular a mouse and / or a trackball and / or a touch screen selected becomes. Verfahren nach einem der Ansprüche 14 bis 24, dadurch gekennzeichnet, dass der Anwender (9) den wiederzugebenden Bereich durch Angabe eines Punktes und/oder einer Fläche auswählt.Method according to one of claims 14 to 24, characterized in that the user ( 9 ) the area to be reproduced by specifying a point and / or an area. Verfahren nach einem Ansprüche 14 bis 25, dadurch gekennzeichnet, dass die erfassten Informationen für die Wiedergabevorrichtung (7b) durch eine Verarbeitungsvorrichtung (3) verarbeitet und/oder zur aufbereitet werden und/oder dass die Steuerdaten von der Steuerungsvorrichtung (5) durch eine Verarbeitungsvorrichtung (3) an die mindestens eine Erfassungsvorrichtung (2) übertragen werden.Method according to one of Claims 14 to 25, characterized in that the information recorded for the reproduction device ( 7b ) by a processing device ( 3 ) and / or to be processed and / or that the control data from the control device ( 5 ) by a processing device ( 3 ) to the at least one detection device ( 2 ) be transmitted.
DE10358017A 2003-12-11 2003-12-11 3D camera control Ceased DE10358017A1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE10358017A DE10358017A1 (en) 2003-12-11 2003-12-11 3D camera control
EP04820069A EP1692870A2 (en) 2003-12-11 2004-11-26 3d camera control
PCT/EP2004/053128 WO2005057929A2 (en) 2003-12-11 2004-11-26 3d camera control

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE10358017A DE10358017A1 (en) 2003-12-11 2003-12-11 3D camera control

Publications (1)

Publication Number Publication Date
DE10358017A1 true DE10358017A1 (en) 2005-07-21

Family

ID=34672602

Family Applications (1)

Application Number Title Priority Date Filing Date
DE10358017A Ceased DE10358017A1 (en) 2003-12-11 2003-12-11 3D camera control

Country Status (3)

Country Link
EP (1) EP1692870A2 (en)
DE (1) DE10358017A1 (en)
WO (1) WO2005057929A2 (en)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0436213B1 (en) * 1990-01-02 1995-08-02 Honeywell Inc. Obstacle detection system
EP0731926B1 (en) * 1993-11-30 1999-03-10 Honeywell Inc. Gradient reflector location sensing system
WO1999027496A1 (en) * 1997-11-26 1999-06-03 Pathfinder Systems, Inc. System for combining virtual images with real-world scenes
DE19947766A1 (en) * 1999-10-02 2001-05-10 Bosch Gmbh Robert Device for monitoring the surroundings of a parking vehicle
EP0863413B1 (en) * 1997-02-28 2001-12-19 Commissariat A L'energie Atomique Method and apparatus for locating an object in space
DE10213861A1 (en) * 2001-03-30 2002-11-07 Omron Tateisi Electronics Co Optical reflection sensor has display control unit that causes repeatability of measured values obtained by multiple measurements to be displayed on display device
DE10223478A1 (en) * 2001-06-29 2003-01-09 Riegl Laser Measurement Sys Acquiring image of object space involves detecting quality of reconstructed pulses such as shape, width, intensity and/or signal-to-noise ratio, using quality information in further processing
DE10131720A1 (en) * 2001-06-30 2003-01-16 Bosch Gmbh Robert Head-up display system and method
EP1342989A2 (en) * 2002-03-04 2003-09-10 Riegl Laser Measurement Systems Gmbh Method for the recording of an object space

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6697103B1 (en) * 1998-03-19 2004-02-24 Dennis Sunga Fernandez Integrated network for monitoring remote objects
US6359647B1 (en) * 1998-08-07 2002-03-19 Philips Electronics North America Corporation Automated camera handoff system for figure tracking in a multiple camera system
JP4209535B2 (en) * 1999-04-16 2009-01-14 パナソニック株式会社 Camera control device
US7522186B2 (en) * 2000-03-07 2009-04-21 L-3 Communications Corporation Method and apparatus for providing immersive surveillance
WO2002011449A1 (en) * 2000-08-01 2002-02-07 Koninklijke Philips Electronics N.V. Representative presence for sensor-based security systems and other applications
US6771306B2 (en) * 2001-03-28 2004-08-03 Koninklijke Philips Electronics N.V. Method for selecting a target in an automated video tracking system
GB2384128A (en) * 2001-12-13 2003-07-16 Invideo Ltd Schematic mapping of surveillance area

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0436213B1 (en) * 1990-01-02 1995-08-02 Honeywell Inc. Obstacle detection system
EP0731926B1 (en) * 1993-11-30 1999-03-10 Honeywell Inc. Gradient reflector location sensing system
EP0863413B1 (en) * 1997-02-28 2001-12-19 Commissariat A L'energie Atomique Method and apparatus for locating an object in space
WO1999027496A1 (en) * 1997-11-26 1999-06-03 Pathfinder Systems, Inc. System for combining virtual images with real-world scenes
DE19947766A1 (en) * 1999-10-02 2001-05-10 Bosch Gmbh Robert Device for monitoring the surroundings of a parking vehicle
DE10213861A1 (en) * 2001-03-30 2002-11-07 Omron Tateisi Electronics Co Optical reflection sensor has display control unit that causes repeatability of measured values obtained by multiple measurements to be displayed on display device
DE10223478A1 (en) * 2001-06-29 2003-01-09 Riegl Laser Measurement Sys Acquiring image of object space involves detecting quality of reconstructed pulses such as shape, width, intensity and/or signal-to-noise ratio, using quality information in further processing
DE10131720A1 (en) * 2001-06-30 2003-01-16 Bosch Gmbh Robert Head-up display system and method
EP1342989A2 (en) * 2002-03-04 2003-09-10 Riegl Laser Measurement Systems Gmbh Method for the recording of an object space

Also Published As

Publication number Publication date
EP1692870A2 (en) 2006-08-23
WO2005057929A3 (en) 2006-04-13
WO2005057929A2 (en) 2005-06-23

Similar Documents

Publication Publication Date Title
DE60031059T2 (en) Video camera observation system and apparatus for displaying images from this video observation camera
DE102007053812A1 (en) Video surveillance system configuration module, configuration module monitoring system, video surveillance system configuration process, and computer program
WO2009132920A1 (en) Remote control
DE112017005059T5 (en) SYSTEM AND METHOD FOR PROJECTING GRAPHIC OBJECTS
DE102015010726A1 (en) Site monitoring procedure, work machine and site monitoring system
DE102006012239A1 (en) Video surveillance system
DE10025110A1 (en) Method and device for realizing an information and data flow for geodetic devices
DE102019106520A1 (en) Parking assistance device, parking assistance method and parking assistance program
WO2014001009A1 (en) Display apparatus for a video monitoring system, and video monitoring system having the display apparatus
DE112016005798T5 (en) VEHICLE INTERNAL SYSTEM AND METHOD FOR PROVIDING INFORMATION RELATING TO POINTS OF INTEREST
DE102010013499A1 (en) Method for aligning e.g. mobile X-ray device, of optical tracking system of medical treatment system for invasive intervening on target area for patient, involves aligning imaging device towards target point according to wireless signal
DE10358017A1 (en) 3D camera control
EP2764698A2 (en) Cooperative 3d work station
EP1912431A2 (en) Method and device for actuating a pivotable camera
EP2697702B1 (en) Device and method for the gesture control of a screen in a control room
DE10141521C1 (en) User information representation system has specific user information assigned to calculated position coordinates of image of environment provided by camera
WO2016015857A1 (en) Method for determining a position and/or orientation of a sensor
EP1455525A1 (en) Method and device for recording videodata
EP3640767A1 (en) Method for determining at least one area in at least one input model for at least one element to be placed
EP4175281B1 (en) Method and device for producing a communication channel
DE102016106080B4 (en) Mobile medical workstation, system, operating room and procedures for operating control
DE4204601B4 (en) Device for detecting position information with an optical observation unit and method for determining position information
WO2013174714A2 (en) Displaying and operating device for a control room
DE10132929B4 (en) Method and device for controlling pan-tilt movements of a camera
EP1434184A2 (en) Control of a multicamera system

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8131 Rejection