DE102017208526A1 - Marker based camera tracker - Google Patents
Marker based camera tracker Download PDFInfo
- Publication number
- DE102017208526A1 DE102017208526A1 DE102017208526.6A DE102017208526A DE102017208526A1 DE 102017208526 A1 DE102017208526 A1 DE 102017208526A1 DE 102017208526 A DE102017208526 A DE 102017208526A DE 102017208526 A1 DE102017208526 A1 DE 102017208526A1
- Authority
- DE
- Germany
- Prior art keywords
- camera
- markers
- images
- positions
- scene
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/80—Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/2224—Studio circuitry; Studio devices; Studio equipment related to virtual studio applications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Length Measuring Devices By Optical Means (AREA)
Abstract
Ein Verfahren zur Bestimmung von Kameraparametern anhand von mittels einer Kamera aufgenommenen Bilddaten wird beschrieben. Das Verfahren umfasst ein Aufnehmen mehrerer Bilder einer Szene, wobei die Bilder mehrere in der Szene angeordnete Markierungen enthalten; ein Ermitteln der Positionen der Markierungen im Raum; ein Aufnehmen weiterer Bilder der Szene, wobei die weiteren Bilder zumindest einige der in der Szene angeordneten Markierungen enthalten; ein Zuordnen der Raumpositionen der Markierungen in den weiteren Bildern zu deren jeweiligen Bildpositionen; und ein Bestimmen der Kameraparameter bei der Aufnahme der weiteren Bilder anhand der zugeordneten Raum-/Bildpositionen der Markierungen in den weiteren Bildern. A method of determining camera parameters from image data taken by a camera will be described. The method includes taking a plurality of images of a scene, the images including a plurality of markers disposed in the scene; determining the positions of the marks in the space; taking further pictures of the scene, the further pictures including at least some of the markers arranged in the scene; assigning the spatial positions of the markers in the further images to their respective image positions; and determining the camera parameters when capturing the further images based on the assigned spatial / image positions of the markers in the further images.
Description
Das vorliegende Dokument betrifft einen Marker-basierten „through the lens“ Kamera-Tracker, der Kameraparameter anhand von Aufnahmen von Markierungen durch die Aufnahmelinse der Kamera ermittelt, und entsprechende Verfahren zur Ermittlung von Kameraparametern.The present document relates to a marker-based "through the lens" camera tracker that detects camera parameters based on taking pictures of marks through the camera's taking lens, and corresponding methods for determining camera parameters.
Hintergrundbackground
Virtuelle Studios (Studios mit grünem Hintergrund) benötigen zur Einblendung von Hintergründen bei Nutzung von bewegten Kameras eine Kalibrierung, damit der virtuelle Hintergrund immer optisch korrekt dargestellt wird, insbesondere in Bezug auf im Studio vorhandene reale Objekte, die von den Kameras aufgenommen werden.Virtual studios (studios with a green background) need to be calibrated to display backgrounds using moving cameras, so that the virtual background is always visually displayed correctly, especially with respect to real objects in the studio that are captured by the cameras.
Heutige Tracking-Systeme sind aufwendig bei der Vorbereitung und Kalibrierung, meist sehr teuer, die Anwender haben nicht die nötige Kenntnis zu einer Kalibrierung, zusätzliche Geräte sind erforderlich (umständlicher Aufbau). Trotz vieler Vorteile von virtuellen Studios (jede beliebige virtuelle Umgebung kann selbst in kleinsten Studios eingesetzt werden) führt das oft zur Ablehnung der Nutzung von virtuellen Studios.Today's tracking systems are complex in preparation and calibration, usually very expensive, the user does not have the necessary knowledge about a calibration, additional devices are required (cumbersome structure). Despite many advantages of virtual studios (any virtual environment can be used even in the smallest studios), this often leads to the denial of the use of virtual studios.
Folglich besteht ein Bedarf an Kalibrier- und Trackingsystemen für virtuelle Studios, die eine vereinfachte Kalibrierung zur Bestimmung von Aufnahmeparametern ohne zusätzliche Geräte während der Produktion durchführen können. Bei den Aufnahmeparametern kann es sich um Eigenschaften der Aufnahmekameras (auch Produktionskameras genannt) handeln, wie deren Position und Ausrichtung im Raum oder deren Brennweite.Thus, there is a need for virtual studio calibration and tracking systems that can perform simplified calibration to determine acquisition parameters without additional equipment during production. The recording parameters can be characteristics of the recording cameras (also called production cameras), such as their position and orientation in space or their focal length.
Zusammenfassung von Aspekten der ErfindungSummary of aspects of the invention
Das vorgeschlagene Vorgehen basiert auf einer Vermessung von im Studio angebrachten Markierungen mittels einer Kamera und der Bestimmung der räumlichen Positionen der Markierungen. Diese Markierungen werden dann von einer Kamera bei der Aufnahme (Produktion) von Bild- oder Video-Inhalten erfasst und zur Bestimmung der Aufnahmeparameter verwendet. So können zum Beispiel die Raumposition der Kamera bei der Produktion und deren Zoomparameter wie Brennweite laufend während der Produktion bestimmt werden, ohne dass während der Produktion zusätzliche Geräte (wie weitere Kameras) zur Positionsbestimmung der Produktionskamera benötigt werden. Ein solches Vorgehen wird auch als „through the lens“ (durch die Linse der Produktionskamera) bezeichnet. Mit diesen Aufnahmeparametern kann dann eine Kalibrierung des virtuellen Studios erfolgen, so dass virtuelle Inhalte richtig, auch in Bezug auf im Studio vorhandene reale Objekte, in eine aufgenommene Szene eingeblendet werden können.The proposed procedure is based on a measurement of markings mounted in the studio by means of a camera and the determination of the spatial positions of the markings. These markers are then captured by a camera during the capture (production) of image or video content and used to determine the acquisition parameters. For example, the spatial position of the camera during production and its zoom parameters such as focal length can be determined continuously during production without the need for additional devices (such as additional cameras) for determining the position of the production camera during production. Such a procedure is also referred to as "through the lens" (through the lens of the production camera). These recording parameters can then be used to calibrate the virtual studio, so that virtual contents can be correctly inserted into a recorded scene, also with regard to real objects present in the studio.
Gemäß einem ersten Aspekt wird ein Verfahren zur Bestimmung von Kameraparametern anhand von mittels einer Kamera aufgenommenen Bilddaten offenbart. Das Verfahren umfasst ein Aufnehmen mehrerer Bilder einer Szene, wobei die Bilder mehrere in der Szene angeordnete Markierungen enthalten, und ein Ermitteln der Positionen der Markierungen im Raum. Auf diese Weise können alle Markierungen in der Szene vermessen werden. Bei der Szene kann es sich um ein Fernsehstudio oder ein anderes geeignetes Studio zur Produktion von Bild- oder Videoinhalten handeln. Die ermittelten Positionen der Markierungen können dann zur späteren Verwendung abgespeichert werden. Somit sind die vorbereitenden Maßnahmen abgeschlossen und die Produktion von Bild- oder Videoinhalten kann beginnen.According to a first aspect, a method for determining camera parameters using image data recorded by means of a camera is disclosed. The method comprises taking a plurality of images of a scene, the images including a plurality of markers arranged in the scene, and determining the positions of the markers in the space. In this way, all markers in the scene can be measured. The scene may be a television studio or other suitable studio for producing image or video content. The determined positions of the markers can then be stored for later use. Thus, the preparatory measures are completed and the production of image or video content can begin.
Anschließend erfolgt in der Produktion ein Aufnehmen weiterer Bilder der Szene, wobei die weiteren Bilder zumindest einige der in der Szene angeordneten Markierungen enthalten, und ein Zuordnen der Raumpositionen der Markierungen in den weiteren Bildern zu deren jeweiligen Bildpositionen. Bei den weiteren Bildern kann es sich um die produzierten Bild- oder Videoinhalte handeln. Für deren Verarbeitung, zum Beispiel in einem virtuellen Studio, können die Kameraparameter bei der Aufnahme der weiteren Bilder von Nutzen sein. Diese werden anhand der zugeordneten Raum-/Bildpositionen der Markierungen in den weiteren Bildern bestimmt. Die so bestimmten Kameraparameter können zumindest eines aus Kameraposition, Kameraorientierung und Kamerazoom enthalten. In Ausführungsbeispielen erfolgt das Ermitteln der Positionen der Markierungen im Raum mittels eines „Structure from Motion“-Verfahrens.Subsequently, in the production, further images of the scene are taken, wherein the further images contain at least some of the markers arranged in the scene, and an assignment of the spatial positions of the markings in the further images to their respective image positions. The other images can be the produced image or video content. For their processing, for example in a virtual studio, the camera parameters may be useful in taking the additional images. These are determined on the basis of the assigned spatial / image positions of the markings in the further images. The camera parameters thus determined may include at least one of camera position, camera orientation, and camera zoom. In embodiments, the determination of the positions of the markers in the space takes place by means of a "structure from motion" method.
Das Verfahren kann einen weiteren Schritt eines Verwendens der bestimmten Kameraparameter zum Einfügen von virtuellem Inhalt in die weiteren Bilder aufweisen. So kann der Hintergrund des virtuellen Studios abhängig von den Kameraparametern optisch korrekt gefüllt werden.The method may include a further step of using the determined camera parameters to insert virtual content into the further images. Thus, the background of the virtual studio can be optically filled depending on the camera parameters.
Zumindest einige der Markierungen können so ausgestaltet sein, dass sie eine eindeutige Identifikation der jeweiligen Markierung ermöglichen. Zum Beispiel können die Markierungen eine visuelle Kodierung ihrer Identifikationsnummer und/oder eine Referenzposition bzw. -richtung enthalten. Dies erlaubt, dass zumindest einige der Markierungen in den weiteren Bildern eindeutig identifiziert werden, um so auf ihre zuvor ermittelten Raumpositionen zuzugreifen und den jeweiligen Bildpositionen zuzuordnen. Vorzugsweise sind die Markierungen dreidimensional im Raum der Szene angeordnet und ihre jeweiligen dreidimensionalen Positionen im Raum werden ermittelt. At least some of the markers may be designed to allow unique identification of the particular mark. For example, the markers may include a visual coding of their identification number and / or a reference position or direction. This allows at least some of the markers in the further images to be uniquely identified so as to access their previously determined spatial positions and associate them with the respective image positions. Preferably, the markers are arranged three-dimensionally in the space of the scene and their respective three-dimensional positions in space are determined.
Um eine große Anzahl von Markierungen in den Bildern sicher erkennen zu können, können die Markierungen eindeutig identifizierbare Master-Markierungen und Slave-Markierungen aufweisen, deren Kennung nur im räumlichen Bezug zu einer Master-Markierung eindeutig ist. Weiterhin können die Markierungen farblich so gestaltet sein, dass sie aus den weiteren Bildern mittels ihrer Farbkodierung leicht entfernt werden können. Dies ist besonders bei Verwendung einer Green-Box von Vorteil.In order to be able to reliably recognize a large number of markings in the images, the markers can have uniquely identifiable master markings and slave markings whose identifier is unique only in relation to a master mark. Furthermore, the markers can be colored in such a way that they can be easily removed from the other images by means of their color coding. This is particularly advantageous when using a green box.
In Ausführungsbeispielen werden die Bilder der Szene mit einer kalibrierten Vermessungskamera aufgenommen. Diese kann zuvor einer intrinsischen Kalibrierung unterzogen werden, um deren Kameraparameter, wie beispielsweise Brennweite, optisches Zentrum und Verzerrung, anhand der Aufnahmen eines Kalibrierobjekts mit bekannten Abmessungen zu ermitteln. Die weiteren Bilder können mit einer Produktionskamera (z.B. eine Broadcast-Kamera) aufgenommen werden.In embodiments, the images of the scene are taken with a calibrated surveying camera. This can be previously subjected to an intrinsic calibration to determine their camera parameters, such as focal length, optical center and distortion, based on the images of a calibration object with known dimensions. The further images can be taken with a production camera (e.g., a broadcast camera).
Um möglichst viele Markierungen in einem Bild aufzunehmen, können mehrere aufgenommene Einzelbilder, die jeweils nur einen Teil der Szene und der darin angeordneten Markierungen enthalten, mittels sog. Stitching zu zusammengesetzten Bildern zusammengesetzt werden. Anhand der zusammengesetzten Bilder können dann die Positionen der Markierungen im Raum ermittelt werden.In order to record as many markers as possible in an image, a plurality of captured individual images, each of which contains only a part of the scene and the markings arranged therein, can be assembled into composite images by means of stitching. Based on the composite images, the positions of the markers in the room can then be determined.
Gemäß einem zweiten Aspekt wird eine Vorrichtung zum Durchführen des oben beschriebenen Verfahrens vorgeschlagen.According to a second aspect, an apparatus for carrying out the method described above is proposed.
Weiterhin ist ein System zur Bestimmung von Kameraparametern vorgesehen, das mindestens eine Kamera zum Aufnehmen von Bildern einer Szene, mehrere in der Szene angeordnete Markierungen, und einer Auswerteeinheit aufweist. Die Auswerteeinheit ist mit der mindestens einen Kamera verbunden, um die aufgenommenen Bilder zu erhalten und die Positionen der Markierungen im Raum anhand der erhaltenen Bilder zu ermitteln. Weitere Bilder der Szene werden anschließend durch die mindestens eine Kamera aufgenommen und der Auswerteeinheit übergeben. Die Auswerteeinheit ist weiter ausgebildet zum Zuordnen der Raumpositionen der Markierungen in den weiteren Bildern zu deren jeweiligen Bildpositionen; und Bestimmen der Kameraparameter bei der Aufnahme der weiteren Bilder anhand der zugeordneten Raum-/Bildpositionen der Markierungen in den weiteren Bildern. Grundsätzlich kann die Auswerteeinheit die Schritte des oben beschriebenen Verfahrens ausführen und alle dort beschriebene Aspekte können auf das vorgeschlagene System übertragen werden. In Ausführungsbeispielen können 2 Kameras verwendet werden: eine intrinsisch kalibrierte Vermessungskamera zum Aufnehmen der Markierung für die Bestimmung deren Raumpositionen und eine Produktionskamera zum Aufnehmen von Bild- oder Videoinhalten.Furthermore, a system for determining camera parameters is provided which has at least one camera for recording images of a scene, a plurality of markings arranged in the scene, and an evaluation unit. The evaluation unit is connected to the at least one camera in order to obtain the recorded images and to determine the positions of the markings in the space on the basis of the obtained images. Further images of the scene are then taken by the at least one camera and transferred to the evaluation unit. The evaluation unit is further configured to associate the spatial positions of the markers in the further images with their respective image positions; and determining the camera parameters when capturing the further images based on the assigned spatial / image positions of the markers in the further images. In principle, the evaluation unit can carry out the steps of the method described above and all aspects described there can be transferred to the proposed system. In embodiments, two cameras can be used: an intrinsically calibrated survey camera to record the mark for determining their spatial positions and a production camera to capture image or video content.
Figurenlistelist of figures
Im Folgenden wird die Erfindung anhand von Beispielen mit Bezug auf die beiliegenden Figuren beschrieben.
-
1 zeigt ein Beispiel für eine Markierung. -
2 zeigt ein Kalibrierobjekt. -
3 zeigt die geometrischen Verhältnisse einer projektiven Kamera.
-
1 shows an example of a marker. -
2 shows a calibration object. -
3 shows the geometric relationships of a projective camera.
Detaillierte BeschreibungDetailed description
In einem Ausführungsbeispiel basiert das beschriebene System zur dynamischen Bestimmung von Aufnahmeparameter einer Produktionskamera auf einer Vermessung von im Studio angebrachten Markierungen mittels einer Vermessungskamera und der Bestimmung der räumlichen Positionen der Markierungen mittels photogrammetrischer Verfahren. Hierzu werden zwei oder mehr Einzelbildaufnahmen des Studios mit den angebrachten Markierungen mittels einer photogrammetrischen Vermessungskamera erstellt und ausgewertet. Zur Bestimmung der 3D-Positionen der Markierungen kann das sog. „Structure from Motion“-Verfahren angewendet werden. Hierbei handelt es sich um eine Stereovermessung mit unbekannter extrinsischer Kamerakalibrierung, wie im Folgenden ausführlich beschrieben wird. Das vorgeschlagene Vorgehen benötigt kein kalibriertes Stereo-Rig für die Vermessung, sondern erlaubt es mit Freihand-Aufnahmen arbeiten zu können. In one exemplary embodiment, the described system for the dynamic determination of acquisition parameters of a production camera is based on a measurement of markings mounted in the studio by means of a surveying camera and the determination of the spatial positions of the markings by means of photogrammetric methods. For this purpose, two or more individual images of the studio with the attached markings are created and evaluated by means of a photogrammetric surveying camera. To determine the 3D positions of the markings, the so-called "structure from motion" method can be used. This is a stereo survey with unknown extrinsic Camera calibration, as described in detail below. The proposed procedure does not require a calibrated stereo rig for the measurement, but allows to work with freehand recordings.
Die Markierungen (Marker) sind so gestaltet, dass sie einerseits in einem aufgenommenen Bild leicht zu finden bzw. zu erkennen sind und andererseits eine genaue Bestimmung einer Position ermöglichen. Hierzu bietet sich eine runde Grundform an, zum Beispiel ein Kreis mit 2 ausgefüllten, gegenüberliegenden Sektoren, die sich in dem Mittelpunkt der Markierung treffen. Im Allgemeinen definieren 3 Markierungen das Koordinatensystem.The markers are designed in such a way that on the one hand they are easy to find or recognize in a recorded image and on the other hand enable an exact determination of a position. For this purpose, a round basic shape is appropriate, for example a circle with 2 filled, opposite sectors that meet at the center of the marker. In general, 3 marks define the coordinate system.
Vorzugsweise sind die Markierungen mittels Kennzeichnungen visuell kodiert, so dass deren Identität durch Auswertung von aufgenommenem Bildern der Markierungen bestimmt werden kann. Beispielsweise können neben der runden Grundform der Marker zusätzliche Strukturen zur Kodierung vorgesehen sein. Diese zusätzlichen Strukturen können ausgefüllte Kreise (Blobs) sein, die an bestimmten Positionen kreisförmig um die möglicherweise ebenfalls runde Grundform angeordnet sind. Möglich ist zum Beispiel eine binäre Kodierung der Marker-ID mittels dieser zusätzlichen Strukturen. Mit anderen Worten repräsentiert das Vorhandensein einer solchen zusätzlichen Struktur an einer bestimmten Position eine binäre Eins und das Fehlen eine binäre Null. Mittels
Die Marker können neben ihrer Grundform und den ID-Strukturen zur Kodierung der Marker-ID auch noch eine zusätzliche Referenzstruktur (Blob) aufweisen. Diese gibt die Nullrichtung für die Dekodierung und ID-Erkennung an. Zum anderen kann die zusätzliche Struktur kleiner als die ID-Strukturen zur Kodierung sein. Wird diese zusätzliche Struktur in einem Bild nicht erkannt, besteht die Gefahr, dass die Erkennung der ID-Strukturen unzuverlässig ist und die ID kann falsch erkannt werden. In diesem Fall sollte der Marker verworfen werden.In addition to their basic form and the ID structures for coding the marker ID, the markers may also have an additional reference structure (Blob). This indicates the zero direction for decoding and ID recognition. On the other hand, the additional structure may be smaller than the ID structures for coding. If this additional structure is not recognized in an image, there is a risk that ID structure detection will be unreliable and the ID may be misrecognized. In this case, the marker should be discarded.
Es ist von Vorteil, wenn die visuelle Kodierung der Marker-IDs über weiten Zoombereich zu erkennen ist, so dass die Markierungen während der Produktion auch unter verschiedensten Aufnahmebedingungen eindeutig identifiziert werden können. Deshalb sollten auch möglichst viele Markierungen im Studio an verschiedenstem Orten und möglicherweise auch in verschiedenen Größen angebracht werden. So kann sichergestellt werden, dass unter den verschiedenen Aufnahmebedingungen immer ausreichend viele Markierungen im Bild erfasst werden.It is advantageous if the visual coding of the marker IDs can be recognized over a wide zoom range, so that the markings can be unambiguously identified during production under a wide variety of recording conditions. Therefore, as many markers as possible should be placed in the studio in different locations and possibly also in different sizes. This ensures that there are always enough markings in the picture under the different recording conditions.
Um die Identifizierung der Markierungen auch dann zu erleichtern, wenn diese in einem erfassten Bild nur klein abgebildet sind und ihre Detailstrukturen schlecht zu erkennen sind, kann ein „Master-Slave“-Konzept eingesetzt werden. Hierbei werden eine einfach zu erkennende Master-Markierung (beispielsweise mit größeren Abmessungen) und mehrere Slave-Markierungen verwendet, die sich in bekannten räumlichen Anordnungen zur Master-Markierung befinden, beispielsweise kreisringförmig in bekannter Drehrichtung um die Master-Markierung. Nachdem die Master-Markierung anhand ihrer visuellen ID identifiziert wurde, können die Slave-Markierungen identifiziert werden, auch wenn deren visuelle IDs im aufgenommenen Bild zu klein abgebildet sind, um sicher ausgewertet werden zu können.In order to facilitate the identification of the markers even if they are only small in a captured image and their detail structures are difficult to recognize, a "master-slave" concept can be used. In this case, an easily recognizable master mark (for example, with larger dimensions) and multiple slave markers are used, which are located in known spatial arrangements for master mark, for example, annular in a known direction of rotation to the master mark. After the master tag has been identified by its visual ID, the slave tags can be identified, even if their visual IDs are too small in the captured image for safe evaluation.
Das „Master-Slave“-Konzept kann auch verwendet werden um bei einer großen Anzahl von Markern die notwendigen visuellen Kennzeichnungen der Marker zur eindeutigen Identifizierung zu vereinfachen, da zu viele eindeutige Kennzeichnungen zu kleine Strukturen an den Markern erfordern können. Solche kleinen Strukturen sind nicht unter allen Aufnahmebedingungen (beispielsweise weitem Zoom) klar zu erkennen und zu unterscheiden. In solchen Fällen können Slave-Markierungen, deren Kennung nur im räumlichen Bezug zu einem Master-Marker eindeutig ist, eingesetzt werden.The "master-slave" concept can also be used to simplify the necessary visual markings of the markers on a large number of markers for unambiguous identification, since too many unique markings may require too small structures at the markers. Such small structures are not clearly recognizable and distinguishable under all recording conditions (for example, wide zoom). In such cases, slave markers whose identifiers are unique only in relation to a master marker can be used.
Um auch bei ungünstigen Aufnahmebedingungen für die Vermessungskamera eine genügend große Anzahl von Markern in einem Bild zu erhalten, können auch Einzelbilder mittels sog. Stitching zusammengefügt werden. Auf diese Weise kann auch eine 3D-Vermessung für Szenen, die nicht mit einer einzelnen photogrammetrischen Ansicht erfasst werden können (z.B. aufgrund der Größe des Studios), durchgeführt werden. Durch Stitching von breiten Szenen, die nicht auf eine Vermessungsaufnahme passen, können erweiterte Bilder mit einer ausreichenden Anzahl von Markern erzeugt werden. Die Genauigkeit beim Zusammenfügen der Einzelbilder kann mittels überlappenden Markern, die in mehreren Bildern enthalten sind, verbessert werden. Eine Stabilisierung des Stitching kann auch mittels zusätzliche Abstandsmessungen zwischen Markern (bevorzugt Extremmarker an Außenpositionen) oder über Fish-Eye-Aufnahmen erfolgen.In order to obtain a sufficiently large number of markers in an image even under unfavorable conditions for the surveying camera, individual images can also be stitched together using so-called stitching. In this way, a 3D survey for scenes that can not be captured with a single photogrammetric view (e.g., due to the size of the studio) can also be performed. By stitching wide scenes that do not fit a survey, extended images can be created with a sufficient number of markers. The accuracy in assembling the frames can be improved by overlapping markers contained in multiple frames. Stabilization of the stitching can also be achieved by means of additional distance measurements between markers (preferably extreme markers at outer positions) or via fish-eye images.
Diese Markierungen mit bekannter 3D-Position werden dann von der Produktionskamera bei der Aufnahme (Produktion) von Bild- oder Video-Inhalten erfasst und zur Bestimmung der Aufnahmeparameter verwendet. So können zum Beispiel die Raumposition und -orientierung der Produktionskamera und deren Zoomparameter wie Brennweite laufend während der Produktion bestimmt werden, ohne dass während der Produktion zusätzliche Geräte zur Positionsbestimmung benötigt werden. Mit diesen Aufnahmeparametern kann dann eine Kalibrierung des virtuellen Studios erfolgen, so dass virtuelle Inhalte richtig in eine aufgenommene Szene eingeblendet werden können. Dies ist besonders von Vorteil, wenn die Produktionskamera (oder die Produktionskameras) während der Aufnahme bewegt und/oder verschwenkt wird, oder deren Zoom verändert wird. These markers with a known 3D position are then captured by the production camera during the recording (production) of image or video content and used to determine the recording parameters. For example, the spatial position and orientation of the production camera and its zoom parameters such as focal length can be determined continuously during production, without the need for additional positioning devices during production. These recording parameters can then be used to calibrate the virtual studio, so that virtual contents can be displayed correctly in a recorded scene. This is particularly advantageous if the production camera (or the production cameras) is moved and / or pivoted during the recording or whose zoom is changed.
Bei einem Einsatz des vorgeschlagenen Kalibrier- bzw. Trackingsystems für virtuelle Studios zur Erzeugung von Bild- oder Videoinhalten, sog. Green-Box, sind die Markierungen vorzugsweise grün-in-grün ausgeführt, damit sie bei der Einblendung von virtuellen Inhalten zusammen mit dem grünen Hintergrundbild entfernt werden können. Die Marker können aus einem Bild über ihre Farbkodierung entfernt werden.When using the proposed calibration or tracking system for virtual studios for generating image or video content, so-called green box, the markings are preferably executed green-in-green, so that they together with the green in the display of virtual content Background image can be removed. The markers can be removed from an image via their color coding.
Das vorgeschlagene Kalibrier- und Trackingsystem bzw. das entsprechende Verfahren ist jedoch nicht auf virtuelle Studios beschränkt und kann auch anderweitig eingesetzt werden, zum Beispiel überall da, wo Aufnahmeparameter einer Kamera dynamisch bestimmt werden sollen. Einsatzmöglichkeiten bieten sich beispielsweise bei der Aufnahme von Sportveranstaltungen oder bei Fahrzeugcrashtests. Das Verfahren für eine „Through-The-Lens“-Kalibrierung von Aufnahmen kann für Broadcast-Videokameras und allen anderen gängigen Kameras (für Virutal reality und Augmented-Reality-Produktionen) verwendet werden.However, the proposed calibration and tracking system or the corresponding method is not limited to virtual studios and can also be used elsewhere, for example wherever recording parameters of a camera are to be determined dynamically. Applications are for example in the recording of sporting events or vehicle crash tests. The procedure for through-the-lens calibration of recordings can be used for broadcast video cameras and all other popular cameras (for virutal reality and augmented reality productions).
Besondere Vorteile des vorgestellten Vorgehens sind:
- - Sehr einfach in der Umsetzung (keine dedizierte Hardware erforderlich)
- - Marker können quasi beliebig auf grüne Wand aufgebracht werden
- - Position der Marker ist nahezu beliebig
- - Keine großen Kenntnisse von Kalibrierverfahren
- - In allen virtuellen Studios einsetzbar
- - Very easy to implement (no dedicated hardware required)
- - Markers can be applied almost arbitrarily on a green wall
- - Position of the marker is almost arbitrary
- - No great knowledge of calibration procedures
- - Can be used in all virtual studios
In einem Ausführungsbeispiel weist ein Kalibrier- bzw. Trackingsystem eine Produktions- Videokamera (z.B. eine Broadcast-Kamera), eine Vermessungskamera (kann die Broadcast-Kamera sein, aber eine spezielle Kamera ist vorteilhaft in der Handhabung und für Genauigkeit), Marker, die eine eindeutig aus dem Bild erkennbare Kennzeichnung haben, und eine Verarbeitungseinheit auf. Die Verarbeitungseinheit empfängt die von der Vermessungskamera aufgenommen Bilder mit den in der Szene angeordneten Marker, um deren 3D-Positionen zu bestimmen.In one embodiment, a tracking system includes a production video camera (eg, a broadcast camera), a survey camera (may be the broadcast camera, but a particular camera is advantageous in handling and for accuracy), markers that include a video camera uniquely identifiable from the image, and a processing unit. The processing unit receives the images taken by the surveying camera with the markers located in the scene to determine their 3D positions.
Hierzu sind mindestens 2 Aufnahmen der Marker von unterschiedlichen Kamerapositionen erforderlich, so dass auf allen Aufnahmen alle Marker zu sehen sind. Zur Unterstützung der Positionsbestimmung der Marker kann der reale Abstand zwischen wenigstens 2 Marker gemessen und dem Verfahren zur Verfügung gestellt werden. Anschließend führt die Verarbeitungseinheit eine Structure-From-Motion-Rekonstruktion der 3D-Positionen der Marker (entspricht Stereo mit unbekannten Kamerapositionen) unter Verwendung der 2 oder mehr Aufnahmen und des gemessenen Abstands durch. Weiterhin sind die Parameter einer intrinsischen Kalibrierung der Vermessungskamera erforderlich. Diese kann vor den Aufnahmen der Marker im Studio und unabhängig davon durchgeführt werden. Im Allgemeinen wird die Vermessungskamera einmal kalibriert und die intrinsischen Kalibrierungsparameter bestimmt und abgespeichert. Diese sind nur Eigenschaften der Vermessungskamera, werden vor der Vermessung des Studios in die Verarbeitungseinheit eingegeben und können beliebig oft verwendet werden.For this purpose, at least 2 shots of the markers from different camera positions are required, so that all markers can be seen on all shots. To assist in locating the markers, the real distance between at least 2 markers can be measured and provided to the method. Subsequently, the processing unit performs a structure-from-motion reconstruction of the 3D positions of the markers (corresponds to stereo with unknown camera positions) using the 2 or more shots and the measured distance. Furthermore, the parameters of an intrinsic calibration of the surveying camera are required. This can be done before the recording of markers in the studio and independently. In general, the survey camera is calibrated once and the intrinsic calibration parameters are determined and stored. These are only properties of the survey camera, are entered into the processing unit before the measurement of the studio and can be used as often as desired.
Zur intrinsischen Kalibrierung der Vermessungskamera wird ein Kalibrierobjekt mit bekannten Abmessungen verwendet. Von diesem werden ein oder mehrere Aufnahmen des Kalibrierobjekts mit der Vermessungskamera zur intrinsischen Kalibrierung der Vermessungskamera erstellt. Auf diese Weisen können Kameraparameter, wie Brennweite, optisches Zentrum, eventuell Verzerrungen bestimmt werden, die später zur Stereovermessung mit unbekannter extrinsischer Kamerakalibrierung mittels des sog. „Structure from Motion“-Verfahrens für die Bestimmung der 3D-Positionen der Marker herangezogen werden.For intrinsic calibration of the survey camera, a calibration object of known dimensions is used. From this, one or more images of the calibration object are made with the surveying camera for intrinsic calibration of the surveying camera. In this way, camera parameters, such as focal length, optical center, possibly distortions can be determined, which are later used for stereo measurement with unknown extrinsic camera calibration by means of the so-called "structure from motion" method for determining the 3D positions of the markers.
Nachdem die 3D-Positionen der Marker im Studio bestimmt wurden, können diese während der Produktion von Bild-oder Videoinhalten zur Kalibrierung von Position, Orientierung und Zoom der Produktionskamera verwendet werden. Hierzu werden die Bild- oder Videodaten der Produktionskamera mit den aufgenommenen Markern und anderen Bildelementen einer Bildverarbeitungseinheit zugeführt. Diese ermittelt die Markerpositionen in den Bildern, bestimmt deren Kennung und ordnet den Markern im Bild über ihre IDs ihre jeweilige 3D-Position im Raum zu. Die Bildverarbeitungseinheit kann getrennt von der Verarbeitungseinheit sein, die zur Vermessung der 3D-Positionen der Marker verwendet wird. Alternativ können beide Verarbeitungseinheiten durch eine entsprechend eingerichtete Rechnervorrichtung implementiert werden.Once the 3D positions of the markers have been determined in the studio, they can be used during the production of image or video content to calibrate the position, orientation and zoom of the production camera. For this purpose, the image or video data of the production camera with the recorded markers and other picture elements are supplied to an image processing unit. This determines the marker positions in the images, determines their identifier and assigns the markers in the image via their IDs their respective 3D position in space. The image processing unit may be separate from the processing unit used to measure the 3D positions of the markers. Alternatively, both processing units may be implemented by a correspondingly configured computing device.
Aufgrund der bekannten 3D-Position der Marker und ihrer jeweiligen Bildpositionen kann die Aufnahmegeometrie und damit auch die Aufnahmeparameter wie Position, Orientierung und Zoom der Produktionskamera ermittelt werden. Die Marker können anschließend aus den Bildern aufgrund ihrer Farbkodierung wieder entfernt werden. Durch die auf diese Weise (durch die Linse der Produktionskamera) gewonnene Kenntnis der Aufnahmeparameter können unterschiedlichste Bildauswertungen und - vermessungen des produzierten Inhalts ausgeführt werden, zum Beispiel bei der Auswertung von Aufnahmen eines Fahrzeugcrashtests. Da die Aufnahmeparameter in Echtzeit während der Aufnahme der Bild- oder Videodaten mittels der Produktionskamera ermittelt werden, sind diese für dynamische Aufnahmebedingungen, wie bewegte oder verschwenkte Kamera mit Zoom, von besonderer Bedeutung. Sie können in einem virtuellen Studio mit Green-Box verwendet werden, um virtuellen Inhalt mit richtiger Ausrichtung zur Aufnahmesituation optisch korrekt einzublenden.Due to the known 3D position of the markers and their respective image positions, the acquisition geometry and thus also the acquisition parameters such as position, orientation and zoom of the production camera can be determined. The markers can then be removed from the pictures due to their color coding. Through the knowledge of the recording parameters obtained in this way (through the lens of the production camera), a very wide variety of image evaluations and measurements of the produced content can be carried out, for example when evaluating recordings of a vehicle crash test. Since the acquisition parameters are determined in real time during the recording of the image or video data by means of the production camera, these are for dynamic shooting conditions, such as moving or tilted camera with zoom, of particular importance. They can be used in a virtual studio with green box to optically display virtual content with the correct orientation to the recording situation.
Im Folgenden werden Details zur intrinsischen Kalibrierung und zur Rekonstruktion der Markerpositionen beschrieben, wie sie in Ausführungsbeispielen verwendet werden können. Es sei darauf hingewiesen, dass nicht alle Details zur Ausführung der Erfindung erforderlich sind und Ausführungsbeispiele auch ohne diese Details zur Ausführung der Erfindung geeignet sind.Details of intrinsic calibration and marker position reconstruction, as may be used in embodiments, are described below. It should be noted that not all details for carrying out the invention are required and embodiments are suitable without these details for carrying out the invention.
Die intrinsische Kalibrierung ordnet jedem Pixel einer Kamera einen Richtungsvektor zu, wobei das 3D-Koordinatensystem für den Richtungsvektor im Brennpunkt der Kamera verankert ist. Die intrinsische Kalibrierung ist eine Eigenschaft der Kamera unabhängig von ihrer Position oder Ausrichtung in der Welt. Die intrinsische Kalibrierung basiert auf wenigstens einer Aufnahme eines Objekts mit mehreren Kalibrierpunkten und exakt bekannten Abmessungen.
Zur Detektion der Kalibrierpunkte werden die dunklen Bereiche der Punkte über ein adaptives Schwellwertverfahren erkannt und in einer Binärmaske gespeichert. Adaptive Schwellwertverfahren arbeiten nicht mit einem festen Schwellwert, sondern finden Bereiche, die in ihrer lokalen Umgebung dunkler sind als die Umgebung. So können Beleuchtungsunterschiede über das Objekt ausgeglichen werden. Alle zusammenhängenden Bereiche in der entstehenden Binärmaske werden dann darauf untersucht, ob sie kreisförmig sind. Hierbei können auch Verzerrungen durch die Projektion der Kreise in Ellipsen berücksichtigt werden. Alle Kreise werden dann nochmals gefiltert. Nur Kreise einer bestimmten Größe und nur Kreisgruppen, deren Abstände zwischen den Kreisen ein bestimmtes Verhältnis zu den Kreisdurchmessern haben werden akzeptiert. Auf diese Weise findet man genau die Kalibrierpunkte auf dem Kalibrierobjekt.To detect the calibration points, the dark areas of the points are detected by an adaptive threshold method and stored in a binary mask. Adaptive threshold methods do not work with a fixed threshold, but find areas that are darker in their local environment than the environment. Thus, differences in illumination across the object can be compensated. All contiguous areas in the resulting binary mask are then examined for circularity. Distortions due to the projection of the circles in ellipses can also be taken into account. All circles are then filtered again. Only circles of a certain size and only circle groups whose distances between the circles have a certain relationship to the circle diameters are accepted. In this way you will find exactly the calibration points on the calibration object.
Die Kalibrierpunkte werden dann entsprechend ihrer Position auf dem Objekt nach Zeilen und Spalten durchnummeriert und es wird ihnen anhand der bekannten Objektabmessungen eine 3D Position zugeordnet. Das zugehörige Weltkoordinatensystem ist hier am Kalibrierobjekt verankert.The calibration points are then numbered according to their position on the object by rows and columns and assigned a 3D position based on the known object dimensions. The associated world coordinate system is anchored here on the calibration object.
Für die intrinsische Kalibrierung wird das Modell einer projektiven Kamera verwendet. Bei einer projektiven Kamera wird ein Weltpunkt X auf den Bildpunkt (u,v) auf dem Bildsensorchip der Kamera abgebildet, der auf einem Strahl zwischen dem Weltpunkt und dem (virtuellen) Brennpunkt der Kamera liegt. Die intrinsischen Kameraparameter sind durch den Brennpunkt festgelegt. Dieser wird durch die Brennweite f (Abstand von der Bildebene) und das optische Zentrum cu, cv (Durchstoßpunkt der optischen Achse, die senkrecht auf der Bildebene steht) beschrieben.
Im Brennpunkt ist das 3D-Kamerakoordinatensystem verankert. Im Kalibrierobjekt ist das Weltkoordinatensystem verankert. Zwischen beiden transformiert eine Drehmatrix R und ein Translationsvektor T, x = R*X + T, wobei x hier für einen Vektor (x,y,z) in Kamerakoordinaten steht, X für einen Vektor in Weltkoordinaten.At the focal point the 3D camera coordinate system is anchored. The world coordinate system is anchored in the calibration object. Between them, a rotation matrix R and a translation vector T, x = R * X + T, where x stands here for a vector (x, y, z) in camera coordinates, transforms X for a vector in world coordinates.
Aus
Um sich des unbekannten Faktors λ zu entledigen wird das vektorielle Kreuzprodukt beider Seiten genommen und wir erhalten:
Oder in den Koordinaten ausgeschrieben:
Für eine hinreichende Anzahl N Kalibrierpunkte erhält man N Gleichungen (5), aus denen r11, r12, r13, r21, r22, r23, T1,T2 ermittelt werden können. Aus den Orthogonalitätsbedingungen der Drehmatrix erhält man deren restliche Elemente. Die Gleichungen (3) und (4), wieder für N Kalibrierpunkte, können dann zur Berechnung von T3 und f verwendet werden. In Folge können so die Parameter der Vermessungskamera, wie Brennweite, optisches Zentrum, eventuell Verzerrungen, bestimmt werden.
bestimmt werden.For a sufficient number of N calibration points one obtains N equations (5), from which r11, r12, r13, r21, r22, r23, T1, T2 can be determined. From the orthogonality conditions of the rotation matrix one obtains the remaining elements. Equations (3) and (4), again for N calibration points, can then be used to calculate T3 and f. In consequence, the parameters of the surveying camera, such as focal length, optical center, possibly distortions, can be determined.
be determined.
Diese Kalibrierung ist durch lineare Gleichungen bestimmt und daher noch nicht optimal. Zur Erhöhung der Genauigkeit kann eine nichtlineare Optimierung wie beispielsweise ein Gauß-Newton-Verfahren verwendet werden. Beim Gauß-Newton-Verfahren wird iterativ eine Fehlerfunktion folgenden Typs minimiert (siehe z.B. Wikipedia):
Hierbei sind die xi,1..n die Parameter
Bei dieser Optimierung können für eine höhere Genauigkeit optional auch 2 Verzerrungsparameter der Kamera zugelassen werden, die Bildkoordinaten auf verzerrte Bildkoordinaten abbilden:
Nachdem man die Parameter der Vermessungskamera bestimmt hat, können die Markerpositionen mittels des „Structure from Motion“-Verfahrens ermittelt werden. In diesem Fall haben wir N Kalibrierpunkte mit jetzt unbekannten Weltkoordinaten. Diese sind nicht mehr auf einem Präzisions-Kalibrierobjekt angeordnet, sondern z.B. von Hand im Raum verteilt. In den Formeln (
Die Bestimmung der Weltpunkte für die Marker scheint auf den ersten Blick sehr schwierig. Die Geometrie von Kamerabbildungen enthält jedoch sehr starke Strukturen, die man auch hier nutzen kann. Es zeigt sich geometrisch, dass bei Aufnahmen einer Szene von zwei verschiedenen Positionen aus und mit projektiven Kameras, korrespondierende Bildpunkte (u,v)1 und (uv)2 in der ersten und zweiten Aufnahme durch folgenden linearen Zusammenhang verknüpft sind:
Für eine ausreichende Zahl korrespondierender Bildpunkte können diese Gleichungssysteme jedoch gelöst werden. Mathematische Verfahren hierzu findet man unter dem Stichwort „Homography Estimation“.For a sufficient number of corresponding pixels, however, these systems of equations can be solved. Mathematical methods can be found under the keyword "Homography Estimation".
Gleichung (1) gibt für projektive Kameras an, wie Weltpunkte und Bildpunkte zusammenhängen. Wendet man dies konsequent von einem Bildpunkt in der Aufnahme
Dabei sind R,T die gesuchten extrinsischen Kalibrierparameter aus (
Die rechte Seite in (
Sind damit die beiden Kamerapositionen bekannt, sind auch die 3D-Positionen der Weltpunkte (Marker) durch eine Stereorekonstruktion berechenbar. Aus (
Mit den nun bekannten Markerpositionen können für eine beliebige Aufnahme mit einer Produktionskamera die Position R,T und die Brennweite der Kamera für diese Aufnahme berechnet werden. Hierfür verwendet man wieder die Formeln (
Virtuelle Umgebungen und Objekte werden in einem eigenen virtuellen Koordinatensystem als 3D-Welt erzeugt. Um diese 3D-Welt auf ein 2D-Bild abzubilden, wird diese virtuelle Welt durch eine virtuelle Kamera mit einer bestimmten Position, Ausrichtung und Öffnungswinkel (Zoom) aufgenommen, was als Rendern bezeichnet wird.Virtual environments and objects are created in a separate virtual coordinate system as a 3D world. To map this 3D world to a 2D image, this virtual world is captured by a virtual camera with a specific position, orientation, and opening angle (zoom) called rendering.
Damit die Ansicht der Objekte im gerenderten Bild zur Aufnahme der realen Kamera passt, müssen die beiden Koordinatensysteme verbunden werden. Die virtuellen Objekte erhalten dadurch eine Position und Orientierung in der realen Welt und die Position der virtuellen Kamera zum Rendern entspricht dann der Position der realen Kamera.In order for the view of the objects in the rendered image to match the real camera, the two coordinate systems must be connected. The virtual objects thus receive a position and orientation in the real world, and the position of the virtual camera for rendering then corresponds to the position of the real camera.
Hierzu benötigt man die Definition eines gemeinsamen Koordinatensystems, was über die Kennzeichnung ausgesuchter Marker als Ursprung, X-Achse und Y-Achse geschieht. Der Marker der Y-Achse gibt dabei nur die Ebene der Y-Achse an, die eigentliche Achse wird automatisch senkrecht zur X-Achse berechnet, so dass man nicht unbedingt auf eine genau orthogonale Anordnung der Marker angewiesen ist. Die Z-Achse ist dann durch den Ursprung und die Lage dieser Ebene vorgegeben.This requires the definition of a common coordinate system, which is done by marking selected markers as origin, X-axis and Y-axis. The marker of the Y-axis indicates only the plane of the Y-axis, the actual axis is calculated automatically perpendicular to the X-axis, so that one does not necessarily rely on an exactly orthogonal arrangement of the marker. The Z axis is then dictated by the origin and location of that plane.
Außerdem benötigt man die Position, Ausrichtung, Zoom der realen Kamera im realen Koordinatensystem und, über die Verknüpfung der Koordinatensysteme, damit auch im virtuellen Koordinatensystem. Diese Parameter werden durch den beschriebenen Schritt der extrinsischen Kalibrierung anhand der 3D-vermessenen Marker bereitgestellt.In addition, you need the position, orientation, zoom of the real camera in the real coordinate system and, by linking the coordinate systems, so that in the virtual coordinate system. These parameters are provided by the described step of extrinsic calibration using the 3D-measured markers.
Die obigen Verfahren können mit einer geeignet eingerichteten Rechnervorrichtung, insbesondere eine digitale Bildverarbeitungsvorrichtung, ausgeführt werden, wobei die Berechnung der jeweils gesuchten Parameter mittels Softwareprogrammierung erfolgt. Alternativ können hierzu auch spezielle Hardwareschaltungen oder eine Mischung aus beidem eingesetzt werden. An der Produktionskamera selbst sind gegenüber herkömmlichen Modellen keine Veränderungen erforderlich. Auch die Anforderungen an die Vermessungskamera sind nicht besonders hoch, so dass auch hier herkömmliche Modellen verwendet werden können.The above methods can be carried out with a suitably equipped computer device, in particular a digital image processing device, wherein the calculation of the parameters sought in each case takes place by means of software programming. Alternatively, special hardware circuits or a mixture of both can be used for this purpose. On the production camera itself, no changes are required compared to conventional models. The requirements for the surveying camera are not particularly high, so that conventional models can also be used here.
Es ist zu beachten, dass die Beschreibung und die Figuren lediglich die Prinzipien der vorgeschlagenen Vorrichtung darlegen. Auf Basis der vorliegenden Offenbarung ist es dem Fachmann möglich, diverse Varianten der beschriebenen Ausgestaltungen zu erstellen. Diese Varianten, obwohl nicht ausdrücklich beschrieben, werden ebenfalls von diesem Dokument offenbart und werden von den Ansprüchen umfasst.It should be noted that the description and figures merely set forth the principles of the proposed device. Based on the present disclosure, it is possible for the skilled person to create various variants of the described embodiments. These variations, although not expressly described, are also disclosed by this reference and are covered by the claims.
Claims (15)
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017208526.6A DE102017208526A1 (en) | 2017-05-19 | 2017-05-19 | Marker based camera tracker |
PCT/EP2018/063048 WO2018211057A1 (en) | 2017-05-19 | 2018-05-18 | Marker-based camera tracker |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102017208526.6A DE102017208526A1 (en) | 2017-05-19 | 2017-05-19 | Marker based camera tracker |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102017208526A1 true DE102017208526A1 (en) | 2018-11-22 |
Family
ID=62196602
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102017208526.6A Withdrawn DE102017208526A1 (en) | 2017-05-19 | 2017-05-19 | Marker based camera tracker |
Country Status (2)
Country | Link |
---|---|
DE (1) | DE102017208526A1 (en) |
WO (1) | WO2018211057A1 (en) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020119601A1 (en) | 2020-07-24 | 2022-01-27 | Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg | background playback system |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB2366463B (en) * | 1997-05-30 | 2002-04-17 | British Broadcasting Corp | Position determination |
GB2329292A (en) * | 1997-09-12 | 1999-03-17 | Orad Hi Tec Systems Ltd | Camera position sensing system |
KR101221449B1 (en) * | 2009-03-27 | 2013-01-11 | 한국전자통신연구원 | Apparatus and method for calibrating image between cameras |
DE102012107153A1 (en) * | 2012-08-03 | 2014-02-27 | Hendrik Fehlis | Device and method for determining the self-position of an image-receiving camera |
-
2017
- 2017-05-19 DE DE102017208526.6A patent/DE102017208526A1/en not_active Withdrawn
-
2018
- 2018-05-18 WO PCT/EP2018/063048 patent/WO2018211057A1/en active Application Filing
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE102020119601A1 (en) | 2020-07-24 | 2022-01-27 | Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg | background playback system |
US11665307B2 (en) | 2020-07-24 | 2023-05-30 | Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg | Background display system |
Also Published As
Publication number | Publication date |
---|---|
WO2018211057A1 (en) | 2018-11-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102012112322B4 (en) | Method for optically scanning and measuring an environment | |
DE102012112321B4 (en) | Device for optically scanning and measuring an environment | |
DE102015101710B4 (en) | A method of calibrating a moveable gripping member using a remote digital camera | |
EP2489977B1 (en) | Method for determining the 3D coordinates of an object and calibrating an industrial robot | |
DE102014016069B4 (en) | Device and method for picking up an object in 3-dimensional space with a robot | |
DE102006055758B4 (en) | Method for calibrating cameras and projectors | |
EP2880853B1 (en) | Apparatus and method for determining the distinct location of an image-recording camera | |
DE112010004767T5 (en) | Point cloud data processing device, point cloud data processing method and point cloud data processing program | |
DE10137241A1 (en) | Arrangement, for detecting and measuring objects, optically projects markers onto object, records partial views of object in global coordinate system using information re-detected markers | |
DE102015015194A1 (en) | Image processing apparatus and method and program | |
DE112010002174T5 (en) | METHOD AND DEVICE FOR A PRACTICAL 3D SEEDING SYSTEM | |
DE102008031942A1 (en) | Method and device for 3D digitizing an object | |
DE10135300A1 (en) | 3-D photogrammetry system for road acidness processes outlines can measure cylinder positions | |
DE102006005036A1 (en) | System for determination of form and alignment of body, comprises of computer-aided navigation system, detection unit and tracing device, which can be detected by computer-aided navigation system | |
DE102009030644B4 (en) | Non-contact detection device | |
DE102015212352A1 (en) | Method, arrangement and computer program product for the position detection of an object to be examined | |
DE69829091T2 (en) | measuring device | |
DE102012223047B4 (en) | Multi-part correspondent (corresponder) for several cameras | |
DE102012023623A1 (en) | Method for assembling sub-housings of surface of static object, involves determining homologous image points of partial images of surface of object, and assembling images using homologous image points to form overall housing | |
EP3539085B1 (en) | 3d localization | |
AT511460B1 (en) | METHOD FOR DETERMINING THE POSITION OF AN AIRCRAFT | |
DE4113992A1 (en) | Automatic three=dimensional monitoring of hazardous room - using three cameras calibrated to universal standard to relate points in room to those of screen display | |
DE10112732C2 (en) | Method for determining the position of measurement images of an object relative to the object | |
DE102017208526A1 (en) | Marker based camera tracker | |
DE102014012693A1 (en) | System for position and orientation of objects |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R119 | Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee |