DE19815105A1 - Vorrichtung und Verfahren zum Kalibrieren von Kamera bzw. Linse - Google Patents

Vorrichtung und Verfahren zum Kalibrieren von Kamera bzw. Linse

Info

Publication number
DE19815105A1
DE19815105A1 DE19815105A DE19815105A DE19815105A1 DE 19815105 A1 DE19815105 A1 DE 19815105A1 DE 19815105 A DE19815105 A DE 19815105A DE 19815105 A DE19815105 A DE 19815105A DE 19815105 A1 DE19815105 A1 DE 19815105A1
Authority
DE
Germany
Prior art keywords
camera
processor
reference points
coordinate system
tilt
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE19815105A
Other languages
English (en)
Other versions
DE19815105B4 (de
Inventor
Allen E Mathisen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Evans and Sutherland Computer Corp
Original Assignee
Evans and Sutherland Computer Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Evans and Sutherland Computer Corp filed Critical Evans and Sutherland Computer Corp
Publication of DE19815105A1 publication Critical patent/DE19815105A1/de
Application granted granted Critical
Publication of DE19815105B4 publication Critical patent/DE19815105B4/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/695Control of camera direction for changing a field of view, e.g. pan, tilt or based on tracking of objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)

Description

Die Erfindung betrifft allgemein das Generieren von Bildern für eine virtuelle Szene und mehr im einzelnen ein Verfahren und eine Vorrichtung, durch welche eine vollständige Be­ obachtungsöffnungsdefinition für ein komputergeneriertes Bild berechnet wird aus der Sen­ sorinformation von Schwenken, Kippen, Zoom und Fokus der Kamera.
Das Berechnen virtueller Szenen (sets) auf dem Gebiet der komputergenerierten Bilderzeu­ gung ist bekannt. Ein virtueller Szenenaufbau kombiniert von einer Kamera betrachtete und aufgezeichnete Szenen mit Szenenelementen (wie beispielsweise Prospekthintergründen) von einer anderen Quelle. Die von der Kamera aufgezeichneten Szenen sind typisch entwe­ der bewegte oder stationäre Objekte, und die Szenen sind fotografiert vor einer ebenen, farbigen Wand; typisch ist die Wand blau oder grün gefärbt. Spezielle Ausrüstung oder Pro­ zesse werden dann verwendet, um die Kameraszenen mit den anderen Szenenelementen zu kombinieren. Die Kombination wird gewöhnlich erzielt unter Verwendung von Zusammen­ setz-(oder Montage-)Verfahren.
Zum Beispiel umfaßt eine typische Anwendung von Zusammensetzverfahren das Kombinie­ ren einer Kameraszene mit einer Hintergrundszene, in der die Kameraszene eine lebendige Person in dem Vordergrund ist und die Hintergrundszene eine Fotografie einer anderen Szene (einer "synthetischen Szene") ist. Unter Verwendung dieser Verfahren wird alles in der Kameraszene, was die Farbe des Studiohintergrundes (zum Beispiel blau) aufweist, durch die synthetische Szene ersetzt. Vorzugsweise erscheint dann das kombinierte Bild, als ob die Person in der Hintergrundszene angeordnet ist.
Statt einfach die Kameraszene vor der Hintergrundszene zu plazieren (aber deutlich sie nicht in die Hintergrundszene einzumischen), ist es häufig wünschenswert, die Kameraszene erscheinen zu lassen, als ob sie tatsächlich Bestandteil der Hintergrundszene wäre. In sol­ chen Fällen ist es erforderlich, mit beachtlicher Präzision genug Information über die Kame­ ra zu kennen, um die Szene zu generieren, welche die Kamera "sieht", wenn die Hinter­ grundszene tatsächlich Bestandteil der Kameraumgebung wahre. Diese Berechnungen erfor­ dern, daß der Bildgenerator weiß, was eine Kamera "sieht", so daß der Bildgenerator die entsprechende Szene aus einer virtuellen Datenbank erzeugen kann. Die benötigte Kame­ rainformation umfaßt das Kennen der XYZ-Position, der Orientierung (Schwenken, Kippen und Rollen), des Bildfeldes (Zoom) und des Fokus.
Genaue Berechnungen der Kamerainformation ist seit Jahren ein Problem. Einige Systeme umfassen das Einrichten von Kameras unter Verwendung eines Bandmaßes zum Messen von Abständen für jede Position der Kamera. Wenn zum Beispiel die Kamera sich auf einem Ständer befindet, kann das Messen des Standortes des Ständers eine nützliche Information bei der Bestimmung der Kameraposition sein. Dann wird die Kameraszene, statt die Win­ kelposition der Kamera zu berechnen, manuell durch Beobachtung mit der synthetischen Szene in Übereinstimmung gebracht. Diese Berechnungen leiten andere Probleme ein, da sie nicht die Knotenpunktversetzung gegen den Ursprung der Schwenk/Kippachse berücksich­ tigen, der zu Passungsfehlern in einem zusammengesetzten Bild führt. Außerdem lassen die Berechnungen möglicherweise einfach keine Knotenpunktversetzung gegen den Schnitt­ punkt der Schwenk/Kippachse zu. Das Ergebnis ist, daß der Schwerpunkt von der Kipp­ achse weg verlegt ist, was bewirkt, daß Motoren Leistung verbrauchen, während sie dyna­ misch die Kamera in Position halten. Ferner kann die Berechnung nur für ein Blickfeld ge­ nau sein, selbst wenn die Knotenposition genau berechnet ist.
Wie von dem Fachmann gewürdigt wird, sind die erhältlichen Kalibrierverfahren sehr müh­ sam und erfordern häufig Messungen, die eine optische Werkbank und manuell verzeichnete Datenpunkte verwenden. Tatsächlich benötigen einige Verfahren zum richtigen Bewegen einer Kamera auf einer virtuellen Szene bis zu 45 Minuten für jede Kamerabewegung. Wenn Kameras viele Male während des Tages auf der virtuellen Szene bewegt werden, wird be­ trächtliche Zeit verloren, und die Bedeutung einer rascheren Kalibrierens der notwendigen virtuellen Szenen-Einstelldaten wird gewürdigt. Von gegenwärtigem Interesse ist ein Ver­ fahren und eine Vorrichtung zum rascheren Berechnen einer vollständigen Schauöffnungsdefinition für die Berechnung und Generierung virtueller Bilder.
Ein Ziel der Erfindung ist die Schaltung eines Verfahrens und einer Vorrichtung zum schnellen Berechnen einer Beobachtungsöffnungsdefinition, so daß virtuelle Bilder ohne unzumutbare Verzögerung generiert werden können.
Ein weiteres Ziel der Erfindung ist die Schaltung eines solchen Verfahrens und einer solchen Vorrichtung zum schnellen Berechnen eines Augenpunktes einer Kamera, so daß eine virtu­ elle Szene ohne übermäßige Verzögerung generiert werden kann.
Noch ein weiteres Ziel der Erfindung ist die Schaffung eines solchen Verfahrens und einer solchen Vorrichtung zum schnellen Berechnen einer Orientierung einer Kamera, so daß eine virtuelle Szene ohne übermäßige Verzögerung generiert werden kann.
Ein Ziel der Erfindung ist auch die Schaltung eines solchen Verfahrens und einer solchen Vorrichtung zum Berechnen eines Blickfeldes einer Kamera, die nur mechanische Sensoren für die Einstellungen und Steuerungen von Schwenken, Kippen, Zoom und Fokus der Ka­ mera verwendet.
Ein zusätzliches Ziel der Erfindung ist die Schaffung eines solchen Verfahrens und einer solchen Vorrichtung zum Berechnen eines Fokalebenenabstands einer Kamera, so daß eine virtuelle Szene ohne übermäßige Verzögerung generiert werden kann.
Noch ein weiteres Ziel der Erfindung ist die Schaltung eines solchen Verfahrens und einer solchen Vorrichtung zum Berechnen eines Expansionsfokus einer Kamera, so daß eine vir­ tuelle Szene ohne übermäßige Verzögerung generiert werden kann.
Ein weiteres Ziel der Erfindung ist die Schaltung eines solchen Verfahrens und einer solchen Vorrichtung zum Beschränken bestimmter Arten von Bewegungen der Kamera, wodurch die gewünschte Beobachtungsöffnung schnell berechnet werden kann, wobei minimale Pa­ rameter und eine minimale Ausstattung verwendet wird.
Die obigen und weitere nicht spezifisch aufgeführte Ziele werden verwirklicht durch ein Verfahren und eine Vorrichtung zum Generieren einer Beobachtungsöffnung für ein kom­ putergeneriertes Bild unter Verwendung von Sensorinformation, welche sich auf Steuerun­ gen von Schwenken, Kippen, Zoom und Fokus einer Videokamera bezieht. Das Verfahren umfaßt allgemein die Schritte, (a) daß Bezugspunkte in einem umschlossenen Raum festge­ legt werden, welcher zum Aufzeichnen von Bildern mit der Kamera zu verwenden ist, (b) daß die Kamera in dem umschlossenen Raum relativ zu den Bezugspunkten derart positio­ niert wird, daß die Kameraposition bestimmt werden kann durch Triangulation bezüglich der Bezugspunkte, (c) daß Positionsdaten entwickelt werden durch Triangulation, welche die Kameraposition in einem Koordinatensystem relativ zu den Bezugspunkten identifiziert, (d) daß Kameraorientierungsdaten von Sensoren (typisch optischen Kodierern) aufgezeich­ net werden, die angeordnet sind zum Ermitteln von Kameraparametern, welche die Einstel­ lungen von Schwenken, Kippen, Zoom und Fokus der Kamera definieren, und (e) daß eine Datenbank entwickelt wird, die eine Beobachtungsöffnung für die Kamera definiert, defi­ niert aus einer Kombination der Positionsdaten und der Kameraorientierungsdaten. Das Berechnen der Beobachtungsöffnung (das heißt, eines Augenpunktes, einer Orientierung, eines Blickfeldes, eines Fokalebenenabstands und eines Expansionsfokus), während die Ka­ mera sich bewegt, ist das endgültige Ziel der Kameranachführvorrichtung.
Ein Vorteil der Erfindung ist die Schaltung eines Verfahrens und einer Vorrichtung, welche schnell eine Beobachtungsöffnungsdefinition berechnen, so daß virtuelle Bilder ohne unzu­ mutbare Verzögerung generiert werden können. Es ist nicht ungewöhnlich in dem Stand der Technik, daß 45 Minuten benötigt werden, um eine Beobachtungsöffnungsdefinition neu zu berechnen, wenn die Kamera bewegt wird. Diese Verzögerung wird durch die Erfindung bedeutend überwunden.
Ein weitere Vorteil der Erfindung ist die Schaltung eines solchen Verfahrens und einer sol­ chen Vorrichtung zum schnellen Berechnen eines Augenpunktes oder Blickfeldes einer Ka­ mera, so daß ein virtueller Szenenaufbau ohne übermäßige Verzögerung generiert werden kann. Ähnlich dem Berechnen einer Beobachtungsöffnungsdefinition berechnet die Erfin­ dung vorteilhaft eine Augenpunktdefinition oder ein Blickfeld ohne die Verzögerungen, die vom Stand der Technik erfahrene werden.
Ein weiterer Vorteil der Erfindung ist die Schaltung eines solchen Verfahrens und einer solchen Vorrichtung zum Beschränken bestimmter Arten von Bewegungen der Kamera, wodurch die gewünschte Beobachtungsöffnung berechnet werden kann unter Verwendung minimaler Parameter und einer minimalen Ausstattung.
Noch ein weiterer Vorteil der Erfindung besteht in der Verwendung von Schwenk-, Kipp-, Zoom- und Fokus-Sensoren zum Ständerpositionieren.
Im folgenden wird die Erfindung anhand eines in der Zeichnung gezeigten Ausführungsbei­ spiel näher beschrieben. In der Zeichnung zeigen:
Fig. 1 eine Vorderansicht von Bezugspunkten A, B, C und D, von einem Augenpunkt E aus betrachtet;
Fig. 1A das Koordinatensystem, das in der Erfindung für die Berechnungen einer Beob­ achtungsöffnungsdefinition verwendet wird;
Fig. 2 eine Seitenansicht einer an einem Ständer montierten Kamera mit Angabe der Lage von Punkten von Interesse bei Beobachtungsöffnungsberechnungen;
Fig. 3 eine Draufsicht einer Kamera, die an einem Kopf derart montiert ist, daß die late­ rale Zentrierung der Kamera erkannt werden kann;
Fig. 4 eine Draufsicht einer Kamera, so daß der Knotenpunkt als versetzt gegen die Kippachse gesehen werden kann;
Fig. 4A eine Seitenansicht des Vektors TR und der Vektoren, die zum Berechnen des Abstands d verwendet werden;
Fig. 5 eine Draufsicht eines Dreibeinstativkopfes, der mit Röhrenlibellen unter 90 Grad ausgerüstet ist;
Fig. 5A Sichtlinien-Kippwege für nivellierte und nicht nivellierte Kameras und gibt kor­ rektive Aktionen an, die zu unternehmen sind zur richtigen Feineinstellnivellie­ rung einer Kamera, wenn das Kippen den nicht-vertikalen Linien folgt;
Fig. 6 eine perspektivische Seitenansicht einer Vorrichtung zum Messen der Kippver­ setzung;
Fig. 7 eine schematische Skizze eines Prozessors zur Verwendung bei dem Tabellieren und Verarbeiten von Schwenk-, Kipp-, Zoom- und Fokus-Kodiererdaten sowie anderer Daten betreffend die Bezugspunkte;
Fig. 8 eine Seitenansicht der bei der Berechnung des Abstands d verwendeten Winkel;
Fig. 9 eine Draufsicht von einander schneidenden Kreisen, die dazu verwendet werden, die Lage des Schwenk/Kipp-Schnittpunktes T zu berechnen;
Fig. 10 eine perspektivische Seitenansicht einer zweiten Vorrichtung zum Messen der Kippversetzung;
Fig. 11 eine Draufsicht eines Dreibeinstativkopfes, der mit Röhrenlibellen unter 60 Grad ausgerüstet ist; und
Fig. 12 eine Draufsicht eines Dreibeinstativkopfes, der mit einer kreisförmigen (oder Ochsenaugen-) Libelle ausgerüstet ist.
Nun wird auf die Figuren bezug genommen, in denen den verschiedenen Elemente der Er­ findung numerische Bezeichnungen gegeben werden, und in denen die Erfindung diskutiert wird, um auf diese Weise dem Fachmann zu ermöglichen, die Erfindung auszuführen und zu verwenden. Es versteht sich, daß die folgende Beschreibung nur beispielhaft für die Prinzi­ pien der Erfindung ist und nicht als Beschränkung der Ansprüche angesehen werden sollte.
Ein Prinzip der Erfindung besteht darin, eine Kamera selbst zu verwenden anstelle eines Theodoliten oder Universaltheodoliten (transit), um die Kameraposition durch das Vermes­ sungsverfahren der Triangulation zu berechnen. Triangulation ist ein trigonometrisches Verfahren zum Ermitteln einer Position unter Verwendung von Peilungen von zwei "feststehenden" Punkten, die sich in einem bekannten Abstand befinden. Wenn die Kamera als der Theodolit funktioniert, kann sie dazu verwendet werden, ihre eigene Position relativ zu einem Satz von Bezugsmarkierungen in dem Studio zu berechnen. Nachdem die Kame­ raposition bestimmt ist, wird die Positionsinformation mit anderer Kamerainformation kom­ biniert, so daß eine vollständige Bildgenerator-Beobachtungsöffnung (viewport) für die virtuelle Szene (set) definiert werden kann.
Der erste Schritt in der Erfindung ist das Festlegen der "feststehenden" Punkte oder Be­ zugspunkte für die Triangulationsberechnungen, die bei Verwendung der Kamera als einen Theodoliten anzustellen sind. Die Bezugspunkte werden typisch festgelegt in einem um­ schlossenen Raum wie einem Fernsehstudio, wo Vordergrundszenen leicht auf Video auf­ gezeichnet werden können mit dem typischen blauen oder grünen Hintergrund in Vorberei­ tung auf das Zusammensetzen mit einem virtuellen Bild. Eine bevorzugte Anordnung der Bezugspunkte ist in Fig. 1 gezeigt.
In Fig. 1 bilden die Bezugspunkte A, B, C und D ein Rechteck einer Ebene, wobei die Ebene vorzugsweise die Wand des Studios ist. Das Rechteck wird gebildet, wenn vertikale Linien AC und BD parallel zueinander mit der Höhe h festgelegt werden. Die Bezugspunkte A und B befinden sich jeweils in der gleichen Höhe, ebenso wie die Bezugspunkte C und D. Der Abstand zwischen den zwei Linien ist mit w bezeichnet. Ein rechtsgängiges Koordina­ tensystem ist festgelegt in x, y und z, um das Verständnis der Orientierung zwischen diesen Bezugspunkten und anderen einzuführenden Punkten zu vereinfachen. Das Koordinatensy­ stem ist bei dem unteren linken Abschnitt in Fig. 1 gezeigt, und die Einzelheiten des Ko­ ordinatensystems sind in Fig. 1A gezeigt. Die Linie von A nach B liegt parallel zur x-Achse des Studioraumes in dem Koordinatensystem, während die Linie von A nach C parallel zur y-Achse liegt. Die z-Achse steht senkrecht zu der x-y-Ebene und weist hin zu dem Betrachter oder dem Augenpunkt E. Der Augenpunkt E ist auch als der Knotenpunkt bekannt.
Eine horizontale Ebene wird gebildet zwischen dem Knotenpunkt E und den zwei mit L und R bezeichneten Punkten. Die Punkte L und R sind die Punkte, bei den die horizontale Ebene ELR die Linien AC und BD schneidet. Die ELR-Ebene steht senkrecht zu der ABCD-Ebene, also steht die Linie EL senkrecht zu AC und die Linie ER steht senkrecht zu BD. Die Linie LR variiert in ihrer Höhe je nach der momentanen Höhe des Augenpunktes E, wobei der Augenpunkt E mit der Höhe der Kamera und anderen Parametern der Kamera übereinstimmt.
Der Punkt M repräsentiert Modellraum. Die Versetzung zwischen dem Modellraum und dem Studiobezugsraum kann durch den Benutzer eingestellt werden. Der Studioraum kann im Azimut gedreht werden und kann relativ zu dem Modellraum verschoben werden, um optimale Kamerasichten der virtuellen Umgebung zu wählen. Datenbankeinheiten und die Versetzung des Modellraumes zu dem Studiobezugsraum (Vektor MA) können differieren zwischen Datenbanken ebenso wie die Kursorientierung des Studioraumes gegen den Mo­ dellraum. Jedoch werden gemäß der Erfindung die Parameter schnell und leicht verändert.
Das Festlegen der Bezugspunkte A, B, C und D kann auf verschiedene Arten erreicht wer­ den. Ein Verfahren besteht darin, ein Senkblei, eine Leiter, ein Meßband und Markierer (zum Beispiel Reißzwecken) zu erhalten. Dieses Verfahren benötigt annähernd zwei Stunden zum Fertigstellen. Am Anfang sollten sie annähernde Stellen für die Bezugspunkte planen. Obwohl die Abstandseinteilung nicht kritisch ist, wird eine um so höhere Genauig­ keit während der Kalibrierung erzielt, je weiter die Markierer beabstandet sind. Mit dem Senkblei ziehen Sie eine vertikale Linie, die entlang AC liegt bei einer geeigneten Stelle links im Studio. Ziehen Sie die Linie an einer Stelle, die von der Kamera gesehen werden kann für alle vorausgesehenen Kamerapositionen. Eine Wand ist häufig eine gute Wahl, da Wände eine fast vertikale, ebene Fläche aufweisen sowie einen Ort zum Anbringen einer Marke, ohne zusätzliche Stützaufbauten zu benötigen.
Wenn die Markierer Reißzwecken sind, drücken Sie eine Reißzwecke in die Wand an einem willkürlichen Punkt C nahe dem oberen Ende der Lotschnur. Halten Sie den Kopf der Reiß­ zwecke gerade berührend und zentriert an der Lotschnur. Dann drücken Sie eine Reißzwec­ ke in die Wand an einem willkürlichen Punkt A nahe dem unteren Ende der Lotschnur. Der Kopf der Reißzwecke sollte zentriert und die Lotschnur leicht berührend sein. Sie müssen eventuell einstellen, wie tief die Reißzwecken in die Wand gedrückt werden, um ihre Köpfe im Lot zu halten. Sie müssen eventuell eine Unterlage unter eine der Reißzwecken einfügen, wenn die Wand ausreichend aus dem Lot liegt. Der Abstand zwischen A und C sollte ge­ messen werden, und der Abstand h sollte aufgezeichnet werden.
Als nächstes ziehen Sie mit dem Senkblei eine vertikale Linie, die entlang BD liegt bei einer geeigneten Stelle rechts im Studio. Typisch ist dies die gleiche Wand, die verwendet wird bei dem Markieren der Punkte A und C. Drücken Sie eine Reißzwecke in die Wand bei dem Punkt B nahe dem unteren Ende der Lotschnur, wobei der Abstand von dem Fußboden der gleiche ist wie bei Punkt A. Messen Sie von dem Punkt B nach oben entlang der Lotschnur eine Höhe h und plazieren Sie eine weitere Reißzwecke bei dem Punkt D. Der Fußboden kann ein wenig uneben sein, daher kann eine Justierung in der vertikalen Linie BD erforder­ lich sein. Messen Sie die diagonalen Abstände zwischen BC und AD. Verstellen Sie die Punkte B und D entlang der Lotschnur, falls erforderlich, bis die diagonalen Abstände BC und AD übereinstimmen, wobei Sie den Abstand zwischen B und D gleich h halten Schließlich messen Sie die Breite w, den Abstand zwischen den Punkten A und B. Zeichnen Sie w auf für kunftige Bezugnahme.
Wenn Bezugspunkte in dem Studio festgelegt sind, muß eine Kamera in dem Studio derart positioniert werden, daß die Bezugspunkte innerhalb des Blickfeldes der Kamera liegen. Fig. 2 zeigt die Kamera 10 positioniert an einem Kopf 12 eines Ständers 14. Die Kamera 10 wird derart positioniert, daß sie nur eine Schwenk- und Kippbewegung aufweist; ein Kamerarollen wird vermieden. Fig. IA zeigt die Bewegungen, die dem Kamera-Schwenken, -Kippen und -Rollen entsprechen. Schwenken (pan) ist ein Bewegungswinkel der Kamera 10 gegen den Uhrzeigersinn (wenn man zur positiven y-Richtung schaut) auf der y-Achse in der x-z-Ebene, Kippen (tilt) ist ein Bewegungswinkel der Kamera 10 im Uhrzeigersinn (wenn man zur positiven x-Richtung schaut) auf der x.-Achse in der y-z-Ebene, und Rollen (roll) ist ein Bewegungswinkel der Kamera gegen den Uhrzeigersinn (wenn man zur positiven z-Richtung schaut) auf der z-Achse in der x-y-Ebene. Im folgen­ den und gemäß der in dem Fach üblichen Praxis sind die Symbole für Schwenken, Kippen und Rollen h, p bzw. r.
Die Kamera-Schwenk- und Kippwinkel werden durch Sensoren in dem Kopf 12 nachge­ führt. Wie in Fig. 2 gezeigt, sind verschiedene Punkte von Interesse durch unterschiedliche Symbole bezeichnet. M repräsentiert Modellraum, T repräsentiert den Schnittpunkt zwi­ schen den Schwenk- und Kippachsen, P repräsentiert die Schwenkachse und E repräsentiert den Augenpunkt (oder Knotenpunkt) und sollte sich in der Ebene der Schwenkachse senk­ recht zu der Kippachse bewegen. Fadenkreuze oder andere Mittenanzeiger müssen in dem Kamerasucher oder in einem Hilfsmonitor erscheinen. Es sollte beachtet werden, daß der Augenpunkt gewöhnlich gegen den Kameraschwerpunkt versetzt ist.
Fig. 3 zeigt eine Draufsicht der Kamera 10 derart, daß die laterale Zentrierung der Kamera betrachtet werden kann hinsichtlich des Anbringens der Kamera an dem Kopf 12 des Stän­ ders 14. Wie in Fig. 3 gezeigt, ist die Kamera 10 so angebracht, daß sie in Seitenrichtung an dem Kopf 12 zentriert ist. Es ist auch wünschenswert, die Kamera 10 vorwärts oder rückwärts zu bewegen, um den Schwerpunkt nahe der Kippachse zu legen. Folglich ist der Knotenpunkt E gewöhnlich gegen die x-Achse versetzt, wie in Fig. 4 gezeigt. Sie können die Position der Kamera 10 an dem Kopf 12 markieren, falls Sie je die Kamera abnehmen und wieder anbringen müssen.
Fig. 4A zeigt eine Seitenansicht der Strahlen entlang der optischen Achse und ihre zugehö­ rigen Kippwinkel, wenn man auf die Punkte A[B] oder C[D] blickt. T ist die Kippachse und d ist der Abstand zwischen T und AC. R ist ein Bezugspunkt an der Kamera, wo die opti­ sche Achse mit der Vorderseite des Kamerakörpers zusammentrifft. Diese Vektorkompo­ nenten TRy und TRz werden gemessen und aufgezeichnet zur künftigen Verwendung bei der Berechnung von r, der Länge des Vektors TR und des Winkels δ zwischen der hori­ zontalen Ebene und dem Vektor TR.
Ein weiterer wichtiger Montageaspekt ist das Nivellieren der Kamera 10 an dem Kopf 12. Die Kamera 10 muß genau nivelliert werden zu richtigen Kameranachtuhrung bei Verwen­ dung mechanischer Schwenk-, Kipp-, Zoom- und Fokussensoren. Das Nivellieren des Kopfes gestattet eine einfache Zuordnung des Kameraschwenkens und -kippens zu Kurs und Steigung (heading and pitch) in der virtuellen Umgebung. Gewöhnlich ist der Fußboden eines Studios nicht perfekt flach oder horizontal. Daher sollte das Kameraniveau überprüft und korrigiert werden, falls erforderlich, wenn die Kamera von einem Standort zu einem anderen bewegt wird. Die Schwenkachse des Kamerakopfes sollte vertikal sein innerhalb einer Bogenminute für beste Ergebnisse bei Fernsehauflösung für weite und enge Aufnah­ men.
Richtiges Nivellieren findet statt, indem der Kopf 12 visuell so eingestellt wird, daß er annä­ hernd waagerecht steht. Dies kann erreicht werden durch Verwendung von Kopfnivellieran­ zeigern, die häufig in den Kopf eingebaut sind. Wenn der Kopf an einem Dreibeinstativ montiert ist, verstellen Sie den Beinspreizer oder die Verlängerung, um das Nivellieren des Kamerakopfes zu justieren. Fig. 5 zeigt einen Kamerakopf mit zwei röhrenförmigen Nivel­ lierlibellen, die unter 90 Grad zueinander angeordnet sind. Der Kopf ist an einem Dreibein so orientiert, daß die Achse der Libelle 1 annähernd parallel zu einer gedachten Linie durch die Schwenkpunkte von Bein 1 und Bein 2 verläuft, und die Achse der Libelle 2 liegt paral­ lel zu einer gedachten Linie durch Bein 3 senkrecht zu Libelle 1. Um den Kopf zu nivellie­ ren, (1) verstellen Sie Bein 1 (und Bein 2, falls erforderlich), bis die Libelle 1 zentriert ist; (2) verstellen Sie das Bein 3, bis die Libelle 2 zentriert ist (Beachten Sie, daß die Libelle 1 relativ unempfindlich gegen Änderungen in dem Bein 3 ist); und (3) wiederholen Sie die Schritte (1) und (2), bis die gewünschte Nivellierung erreicht ist.
Wenn die Nivellierlibellen nicht genügend genau sind, kann das Niveau des Kopfes 12 fein­ eingestellt werden unter Verwendung der Bezugspunkte in dem Studio (A, B, C und D, festgelegt unter Bezugnahme auf Fig. 1). Die Feineinstellung beginnt mit den obigen Schritten des Nivellierens des Kamerakopfes so genau wie möglich. Dann verstellen Sie den Zoom der Kamera einwärts (zoomen Sie die Kamera ein), stellen den Fokus auf unendlich und entriegeln Sie das Schwenken und Kippen. Die Kamera ist nun zur Feineinstellnivellie­ rung bereit.
In Fig. 5A sind Linien gezeigt, die der Linie entsprechen, der in dem Kamerasucher gefolgt wird, wenn die Kamera vertikal auf oder ab bewegt wird. Die Linie 50 repräsentiert die ver­ tikale Linie zwischen den vorher festgelegten Bezugspunkten A und C oder B und D. Die Linien 54 und 58 repräsentieren Linien, denen der Kamerasucher folgen wird, wenn die Kamera sich nicht genau waagerecht an dem Kopf 12 befindet. Fig. 5A repräsentiert mög­ liche Linien, denen in dem Nivellierprozeß der Erfindung gefolgt werden kann.
Der erste Schritt bei der Feineinstellnivellierung umfaßt das Ausrichten der Kamera auf den Bezugspunkt A. Verriegeln Sie das Kameraschwenken und kippen Sie dann die Kamera nach oben zu dem Bezugspunkt C, wobei Sie beachten, in welcher Richtung das Faden­ kreuz von der vertikalen Linie AC auswandert. Wenn die Kamera von der vertikalen Linie AC entweder auf eine der Linien 54 oder 58 auswandert, dann verstellen Sie das Kame­ radreibein oder den Ständer 14 so, daß es entweder im Uhrzeigersinn (CW) oder gegen den Uhrzeigersinn (CCW) rollt, um das Auswandern von der Vertikale zu kompensieren. Wie­ derholen Sie diesen Prozeß, bis das Kippen eng der vertikalen Linie 50 folgt. Fig. 5A gibt die Richtung an, in der die Kamera 10 zu rollen ist, wenn sie von der gewünschten vertika­ len Linie 50 auswandert.
Als nächstes entriegeln Sie das Schwenken und richten die Kamera 10 auf den Bezugspunkt B. Dann verriegeln Sie das Schwenken und kippen die Kamera 10 zu dem Bezugspunkt D, wobei Sie beachten, in welcher Richtung das Fadenkreuz von der vertikalen Linie 50 aus­ wandert. Verstellen Sie das Dreibein oder den Ständer, um im Uhrzeigersinn oder gegen den Uhrzeigersinn zu rollen, um das Auswandern von der vertikalen Linie 50 zu kompensie­ ren und wiederholen Sie diesen Prozeß, bis das Kippen eng der vertikalen Linie 50 folgt. An diesem Punkt wiederholen Sie den obigen Prozeß hinsichtlich der vertikalen Linie zwischen AC und dann BD, bis das Nivellieren zufriedenstellend ist, das heißt, bis das Kippen genau der vertikalen Linie AC sowie der vertikalen Linie BD folgt.
Wenn die Kamera 10 waagerecht ist, ist eine genaue Messung des absoluten Kippens erfor­ derlich zur Triangulation und zur richtigen Zusammensetzungspassung während der Echt­ zeit-Kameranachführung. Die genaue Messung des relativen Kippwinkels wird garantiert durch die Verwendung optischer Kodierer in dem Kopf 12. Der absolute Kippwinkel wird jedoch festgelegt durch Halten des Kopfniveaus, und indem man weiß, welche Kippkodie­ reranzeige Null Grad der optischen Achse gleichen, oder die "Kippversetzung" kennt. Ob­ wohl die Kippversetzung hauptsächlich ein Merkmal der Kodierermontage in dem Kopf ist, braucht die optische Achse der Kamera nicht genau parallel zu ihrer Montagefläche zu verlaufen, aber die Kippversetzung kompensiert beide Faktoren.
Um die Kippversetzung zu bestimmen, kann auf Fig. 6 bezug genommen werden, während der folgende Prozeß ausgeführt wird. (1) Unter Verwendung des oben beschriebenen Pro­ zesses nivellieren Sie den Kamerakopf so genau wie möglich. In dem Kamerasucher ist ein Fadenkreuz angezeigt, so daß die Kameravisierlinie auf waagerechten Blick eingestellt wer­ den kann, so genau Sie schätzen können. (2) Stellen Sie ein Laser-Nivellierinstrument (oder automatisches Nivellierinstrument) benachbart der Kamera auf sein eigenes Stativ. (3) Stel­ len Sie die Höhe des Laser-Nivellierinstrument-Austrittspunktes (oder des Linsenzentrums des Auto- Nivellierinstrumentes) auf die gleiche Höhe ein wie das Zentrum der Kameralinse. Wenn ein Auto- Nivellierinstrument verwendet wird, markieren Sie einen Fleck an der Wand bei dem Nivellierpunkt. (4) Kippen Sie die Kamera, bis der Laserfleck (oder die Au­ to-Nivelliermarke) in das Zentrum des Fadenkreuzes fällt. Wiederholen Sie die Schritte (3) und (4), bis die Höhe der Lasernivellierung innerhalb von annähernd 1,6 mm (1/16'') von dem Zentrum der Kameralinse liegt. Und schließlich verzeichnen Sie die Kippversetzung, welche die Kippkodiereranzeige ist, für künftige Verwendung.
Wie bei dem Kippwinkel ist eine genaue Messung des absoluten Schwenkwinkels erforder­ lich während der Echtzeit-Kameranachführung zur richtigen Zusammensetzungspassung. Die genaue Messung des relativen Schwenkwinkels wird garantiert durch die Verwendung optischer Kodierer, aber der absolute Winkel wird festgelegt durch Kennen des Schwenk­ kodierer-Anzeigeergebnisses, wenn die optische Achse in die Richtung von Null Grad weist, oder der "Schwenkversetzung". Die Schwenkversetzung verändert sich mit der Ausrichtung des Kodierers auf seiner Welle und mit der Drehung des Ständers 14, wenn er über den Studioboden bewegt wird. Wie nachfolgend beschrieben, wird die Schwenkversetzung automatisch gemessen während des Triangulationsprozesses, und es ist kein zusätzlicher Eingriff des Benutzers erforderlich.
Um die Einstellungen von Schwenken, Kippen, Zoom und Fokus der Kamera 10 abzuta­ sten, werden typisch inkrementale optische Kodierer angewendet, da sie gewöhnlich eine höhere Auflösung und niedrigere Kosten aufweisen als absolute Kodierer. Akkumulatoren in der Kodiererschnittstelle zählen die Impulse von dem Kodierer in positiver sowie in ne­ gativer Richtung. Die Information in diesen Akkumulatoren wird dazu verwendet, die Ko­ diererposition zu ermitteln.
Nach dem Einschalten enthalten Akkumulatoren Werte, die zur absoluten Kodiererposition nicht in Beziehung stehen. Sie müssen auf Null gesetzt oder auf einen bekannten Wert bei einer bekannten Position voreingestellt werden. Die meisten inkrementalen optischen Kodie­ rer sind zu diesem Zweck mit einem Indeximpuls ausgestattet. Um den inkrementalen Ko­ dierer auf Null zu stellen, (1) stellen Sie Schwenken, Kippen, Zoom und Fokus auf extreme Positionen ein und (2) bewegen Sie Schwenken, Kippen, Zoom und Fokus über ihre ge­ samten Bereiche, um sicherzustellen, daß ihre Indexmarken an einem gewissen Punkt ange­ troffen werden.
Nach dem Festlegen der Bezugspunkte und richtigem Positionieren der Kamera 10 wird ein Prozessor 70 (in einer schematischen Skizze in Fig. 7 gezeigt) verwendet zur Eingabe und Verarbeitung aller Daten, die das Festlegen der Beobachtungsöffnungsdefinition (viewport) betreffen. Kodiererdaten werden elektronisch eingegeben. Alle übrigen Daten können in den Prozessor 70 über eine Benutzerschnittstelle 72 oder ein Tastenfeld 74 eingegeben werden. Die Benutzerschnittstelle 72 kann eine Tastatur, eine Maus, ein Berührungsschirm oder eine andere speziell angefertigte Benutzerschnittstelle zum Eingeben von Daten in den Prozessor 70 sein. Der Prozessor 70 erhält die Daten betreffend (i) die Bezugspunkte (das heißt, h, den Abstand zwischen den Punkten A und C, w, den Abstand zwischen den Punkten A und B), (ii) die Nivellierinformation (Kippversetzung), (iii) die Linsencharakteristik, (iv) die Studioraumversetzung und Orientierung, (v) TRy und TRz, (vi) Kodiererspezifikationen und (vii) die Modellraumskala. Der Prozessor 70 ist programmiert zum Verarbeiten der obigen Positionsdaten, kombiniert mit Sensordaten von Schwenk-, Kipp-, Zoom- und Fo­ kus-Sensoren der Kamera, so daß eine Kamera-Beobachtungsöffnung (oder ein Knotenpunkt) durch den Prozessor definiert wird.
Das Berechnen des Knotenpunktes E (Augenpunkt) bei Bewegen der Kamera 10 ist das endgültige Ziel der Kameranachführvorrichtung. Eine Komponente dieser Berechnung ist die Position des Schwenk/Kipp-Schnittpunktes T in dem Modellraum, welche neu festgelegt werden muß, jedesmal wenn der Ständer 14 bewegt wird. Der Vektor von dem Studiobe­ zugspunkt A zu dem Schwenk/Kipp-Schnittpunkt T in Studioraumkoordinaten wird Vektor sAT genannt. Der Vektor sAT wird durch einen Triangulationsprozeß festgelegt. Der Vektor von dem Modellraumursprung zu dem Studiobezugspunkt A in Modellraumkoordi­ naten wird mMA genannt und wird in den Prozessor 70 eingegeben durch den "Eigenschaftssteuerungsdialog", der auf dem Display 78 erscheint. Die Summe dieser Vekto­ ren ist der Vektor mMT oder einfach der Modellraumvektor T.
Der "Ständerpositionierdialog", der auf dem Display 78 erscheint, gestattet Ihnen mAT di­ rekt einzugeben oder Triangulationswinkel einzugeben, aus denen mAT berechnet wird. Automatisches Berechnen der Kameraposition wird erzielt unter Verwendung eines Vier­ punkt-"Visieren-und-Aufnehmen"-Verfahrens. Dieses Verfahren ist unabhängig von der Kamerahöhe, unabhängig von der Position des Augenpunktes entlang der optischen Achse und erfaßt Triangulationsinformation ein, so daß die Kameraposition bestimmt werden kann mit selektiver Verwendung des Tastenfeldes 74 an dem Prozessor 70. Auch Kameras, deren Knotenpunkt versetzt ist gegen den Schnittpunkt T der Schwenk/Kippachse, trägt das Ver­ fahren Rechnung. Das Verfahren wird verwendet, nachdem die Kamera 10 in der gewünsch­ ten Position für die nächste Aufnahme angeordnet worden ist. Der erste Schritt umfaßt das Einzoomen der Kamera auf maximale Vergrößerung und das Einstellen des-Fokus nach Bedarf. Sodann sollte der Kamerakopf nivelliert werden. An diesem Punkt wird das Vier­ punkt-"Visieren-und-Aufnehmen"-Verfahren begonnen:
  • (1) Schwenken und kippen Sie die Kamera so, daß das Fadenkreuz auf den Punkt A fällt und drücken Sie die Taste LL (unten links) auf dem Tastenfeld 74, um die Schwenk- und Kippwinkel des Punktes A aufzuzeichnen;
  • (2) Kippen Sie die Kamera auf den Punkt C und drücken Sie die Taste UL (oben links) auf dem Tastenfeld 74, um die Schwenk- und Kippwinkel des Punktes C aufzuzeich­ nen;
  • (3) Schwenken und kippen Sie die Kamera auf den Punkt D und drücken Sie die Taste UR (oben rechts) auf dem Tastenfeld 74, um die Schwenk- und Kippwinkel des Punktes D aufzuzeichnen; und
  • (4) Kippen Sie die Kamera auf den Punkt B und drücken Sie die Taste LR (unten rechts) auf dem Tastenfeld 74, um die Schwenk- und Kippwinkel des Punktes B aufzu­ zeichnen.
Dieses Vierpunkt-"Visieren-und-Aufnehmen"-Verfahren erfaßt alle Daten, die notwendig sind, um die Position der Kamera relativ zu dem Studiokoordinatensystem zu triangulieren. Der Prozessor 70 führt die Triangulationsberechnungen durch und bestimmt die Kamerapo­ sition. Unter Verwendung der Kamerapositionsdaten ist der Prozessor 70 dann imstande, eine neue Beobachtungsöffnungsdefinition zu berechnen auf der Grundlage der Kamerapo­ sition, jedesmal wenn eine Veränderung stattfindet in den Daten, welche die Sensorinforma­ tion des Schwenkens, Kippens, Zoom und Fokus der Kamera betreffen. Anders ausge­ drückt, wenn T, TR, r, δ, Schwenken, Kippen, Zoom und Fokus bekannt sind, kann E dy­ namisch in dem Prozessor 70 berechnet werden auf der Grundlage der Variablen Schwen­ ken, Kippen, Zoom und Fokus. Der Fall der Nicht-Versetzung des Knotenpunktes, wie in dem Theodoliten, ist ein degenerierter Fall für diesen Prozeß, wobei r gleich Null ist und δ nicht zutrifft. Die Einzelheiten dieser Berechnungen werden im folgenden beschrieben.
Wie oben beschrieben, werden einige der Kameraparameter manuell gemessen und in den Prozessor 70 über die Benutzerschnittstelle 72 eingegeben, der Prozessor 70 muß aber pro­ grammiert werden, um die Eingabedaten in der gewünschten Weise zu manipulieren. Zu­ sätzlich können viele der Kameraparameter ohne manuelle Messungen berechnet werden, und die Parameter werden berechnet durch verschiedene Gleichungen, die in dem Prozessor 70 programmiert sind und die in den folgenden Absätzen gezeigt sind.
Berechnungen des dynamischen Knotenpunktes (E)
Zur Berechnung des Modellraumvektors zu dem Augenpunkt kann Gleichung (1) verwen­ det werden:
mME = mMA + {sAT + (eTR + eRE) [et] [tp] [pm]} [sm] Gleichung (1)
worin
m = Modellraum
s = Studioraum
e = Augenraum (parallel zu Kippraum, aber versetzt)
mMA = die Modellraumversetzung von A geeignet für die gewünschte Datenbankansicht
sAT wird in dem Kamera-"Visieren-und-Aufnehmen"-Positionierprozeß gemessen
eTR wird gemessen, nachdem die Kamera an dem Kopf montiert ist
eRE kommt von der Nachschlagetabelle, bestimmt in dem Linsen­ kalibrierprozeß (siehe gleichzeitig eingereichte Anmeldung mit dem Titel VERFAHREN ZUM MESSEN VON KAMERA- UND LINSEN- EIGENSCHAFTEN ZUR KAMERANACHFÜHRUNG, welche hier durch Bezugnahme inkorporiert wird) [et] = 1
[tp] = Kippdrehung
[ps] = Schwenkdrehung
[sm] = Transformation von Studio- zu Modellraum
Berechnen des Abstands d - Der einfache Fall
Der Prozessor 70 kann dazu verwendet werden, den Abstand d von dem Augenpunkt zu berechnen bei einer willkürlichen Höhe zu einer vertikalen Bezugslinie gegebener Höhe h und Kippwinkeln α1 und α2, gemessen von der Waagerechten (siehe Fig. 8). Die Kame­ rahöhe relativ zu dem Punkt A kann auch berechnet werden. Der Modellraum Ey ist Ay plus h1. Wenn A auf gleichem Niveau mit E ist, wird h1 Null. Der Kopf muß nivelliert wer­ den, bevor Winkelmessungen vorgenommen werden. Diese Rechenverfahren nimmt an, daß der Augenpunkt E bei dem Schnittpunkt der Schwenk/Kippachse liegt wie in dem Fall für den Theodoliten. Unter Verwendung von Gleichung (2) kann der Abstand d berechnet wer­ den:
d = h/(tan(α2)-tan(α1)) Gleichung (2)
worin
h = h2-h1
h1 = dtan (α1) α1 ist ein negativer Winkel in diesem Beispiel, daher ist h1 negativ
h2 = dtan(α2) α2 ist ein positiver Winkel in diesem Beispiel.
Berechnen des Abstands d mit versetztem Augenpunkt
Für einen versetzten Augenpunkt ist der Augenpunkt gegen den Schwenk/Kipp-Schnitt punkt versetzt. Ein versetzter Augenpunkt ist normal für eine Kamera und der Abstand d wird berechnet unter Verwendung von Gleichung (3) mit den Variablen, die in Fig. 4A gezeigt sind. Der Augenpunkt liegt irgendwo entlang der optischen Achse. Seine genaue Position ist kein Faktor. Man beachte in diesem Beispiel, daß α1 ein negativer Winkel ist, jedoch die Steigung seiner Linie positiv ist, und daß α2 ist ein positiver Winkel ist, aber die Steigung seiner Linie negativ ist. Dies liegt daran, daß die Richtung des positiven Kippwin­ kels entgegengesetzt der von Lehrbuchkonventionen ist. Man beachte auch, daß, obwohl TR ein positives y und ein negatives z aufweist, es doch ein positiver Winkel ist. Die Kame­ rahöhe Ty relativ zu A wird ebenfalls berechnet.
d = (TRy(1/cosα1-1/cosα2) + h)/(tanα2-tanα1) Gleichung (3)
Berechnen der Breite w
Obwohl Sie die Breite w manuell messen können, können Sie die Breite w auch mit dem Prozessor 70 berechnen unter Verwendung der Studiobezugspunkte von dem Aufstellungs­ prozeß. Wie in Fig. 9 gezeigt, werden die Abstände d1 und d2 (von dem Augenpunkt zu der linken bzw. rechten Bezugslinie) und der Schwenkwinkel Θ dazu verwendet, die Breite w zu berechnen unter Verwendung des Kosinussatzes:
w = √(d12+d22-2×d1×d2×cos(Θ)) Gleichung (4)
Triangulationsberechnungen
Vektor sAT ist der Schwenk/Kipp-Schnittpunkt T relativ zu A im Studioraum. Er wird au­ tomatisch in dem Prozessor 70 berechnet unter Verwendung der Breite w und der Abstände d1 und d2, die mit den oben beschriebenen Verfahren berechnet sind. Der Augenpunkt liegt bei dem Schnitt der zwei Kreise (Zylinder bei der oben berechneten Höhe Ty), zentriert bei vertikalen Linien A und B und deren Radien d1 bzw. d2 sind. Siehe Fig. 9. Mit den nachfolgend beschriebenen Kreisgleichungen werden die Gleichungen (5) und (6) abgeleitet zur Verwendung in den endgültigen Triangulationsberechnungen.
Kreis 1: x2+z2= d12 oder z2-d12 =x2
Kreis 2: (x-w)2+z2 = d22
x = (d12-d22+w2)/2w Gleichung (5)
z = √(d12-x2) Gleichung (6)
Es gibt zwei Lösungen dieser Gleichungen, da die Kreise sich an zwei Punkten schneiden. Die korrekte Lösung kann aus der Schwenkwinkelmessung bestimmt werden. Wenn der Schwenkwinkel positiv ist bei dem Schwenken von A nach B, liegt der Augenpunkt in der positiven z-Richtung und anderenfalls negativ.
Diese Berechnungen verlieren die Auflösung in z bei Annäherung des Augenpunktes an die ABCD-Ebene. Die Kreise nähern sich Berührung und könnten sich vielleicht nicht einmal überlappen wegen kleiner Fehler in den Winkelmessungen. Sie können die Bezugspunkte neu positionieren, um Genauigkeit wiederzugewinnen, wenn dies zu einem Problem wird.
Berechnungen der Schwenkversetzung
Die Schwenkversetzung ist der Schwenkwert, wenn die Kamera genau parallel zu der z-Achse gerichtet wird. Wie oben beschrieben, wird die Schwenkversetzung automatisch errechnet als Nebenprodukt der obigen Triangulationsoperationen.
Schwenkversetzung = Schwenkwinkel links+atan (ATx/ATz) Gleichung (7)
Wie angegeben, sind die obigen Gleichungen repräsentativ für die bevorzugte Ausführungs­ form der Erfindung, und andere Gleichungen könnten verwendet werden bei dem Program­ mieren des Prozessors 70, um die Schritte der Erfindung zu erreichen. Zusätzlich können andere Ausführungsformen verwendet werden, um andere Schritte in der Erfindung zu er­ reichen.
In einer alternativen Ausführungsform kann ein anderes Verfahren zum Festlegen der Be­ zugspunkte A, B, C und D verwendet werden. Obwohl das Verfahren wieder erfordert, daß Sie ein Senkblei, eine Leiter, ein Meßband und Markierer (zum Beispiel Reißzwecken) er­ halten, benötigt das Verfahren auch eine genau nivellierte Kamera oder zwecks besserer Genauigkeit und bequemer Anwendung einen Theodoliten. Vorteilhafterweise braucht die­ ses Verfahren nur ungefähr 30 min zum Fertigstellen.
Zuerst sollte der Prozessor 70 von Fig. 7 so programmiert werden, daß er einen Kamera­ nachführgerät-Eigenschaftendialog aufweist, der auf dem Display 78 angezeigt wird. Dieser Dialog hilft bei der Kalkulation und der Eingabe von Studiobezugspunktparametern h und w in den Prozessor 70. Dann planen Sie annähernde Orte von Bezugspunkten. Mit dem Senk­ blei ziehen Sie eine vertikale Linie, die entlang AC liegt bei einer geeigneten Stelle auf der linken Seite des Studios. Ziehen Sie die Linie an einer Stelle, die von der Kamera gesehen werden kann für alle vorausgesehenen Kamerapositionen. Eine Wand ist häufig eine gute Walil, mit einer fast vertikalen Fläche sowie einen Ort zum Anbringen einer Marke, ohne zusätzliche Stützaufbauten zu benötigen. Dann stellen Sie die Kamera an einem zentralen Punkt auf dem Studioboden derart auf, daß sie alle vier geplanten Bezugspunktorte sehen kann. Die Kamerahöhe ist nicht kritisch, aber die Kamera sollte waagerecht sein. Stellen Sie ein und verriegeln Sie bei Null Grad.
Der nächste Schritt besteht darin, auf die vertikale Linie AC zu schwenken und zeitweilig die Niveauposition zu markieren, Punkt L. Gehen Sie eine Strecke von L nach unten und markieren den Punkt A. Verwenden Sie eine Markierung, die groß genug ist, um von der Kamera gesehen zu werden, aber klein genug, um Präzision zu unterstützen. Notieren Sie den Abstand AL. Ein alternatives Verfahren ist das Notieren der Schwenkwinkelablesung als Anfangs-Theta (Θi) in dem Prozessor 70 durch Drücken von LL oder UL auf dem Ta­ stenfeld 74 Bei Verwendung eines Theodoliten können Sie Anfangs-Theta manuell in dem vorgesehenen Feld eingeben.
Unter Verwendung eines Bandmaßes gehen Sie um eine Strecke h nach oben (vorzugsweise 304,8 cm oder mehr) von dem Punkt A entlang der Vertikalen und markieren Sie den Punkt C. Eine Unterlage kann entweder bei A oder C verwendet werden, um diese Punkte genau auf der vertikalen Linie zu plazieren. Dies kann erforderlich sein, wenn die Wand nicht im Lot liegt. Tragen Sie die Strecke h in dem Dialog des Prozessordisplay 78 ein. Dann ziehen Sie mit dem Senklot eine vertikale Linie, die BD wird, an einer geeigneten Stelle auf der rechten Seite des Studios. Schwenken Sie von dem Punkt A zu der neuen vertikalen Linie und markieren temporär die Markierung R, welche auf gleichem Niveau wie L liegt. Gehen Sie hinab um AL und markieren den Punkt B. B liegt auf dem gleichen horizontalen Niveau wie A, da die Kamera in einer waagerechten Ebene von L nach R schwenkt. Alternativ no­ tieren Sie die Schwenkwinkelablesung End-Theta (Θf) in dem Prozessor 70 durch Drücken von LR oder UR auf dem Tastenfeld 74. Bei Verwendung eines Theodoliten können Sie End-Theta manuell in dem vorgesehenen Feld eingeben. Der Winkel (Θ) wird in dem Pro­ zessor 70 automatisch berechnet als End-Theta minus Anfangs-Theta. Bei Verwendung eines Theodoliten können Sie die Schwenkwinkeldifferenz zwischen L und R direkt einge­ ben als Winkel Θ in den Prozessor 70 in dem vorgesehenen Feld.
Sodann gehen Sie unter Verwendung eines Bandmaßes eine Strecke h von dem Punkt B entlang der Vertikalen nach oben und markieren D. Mit einem Bandmaß bestimmen Sie den horizontalen Abstand w oder die Breite zwischen den zwei Vertikalen. Messen Sie zwischen L und R. Geben Sie die Breite w ein in den Dialog, der auf dem Display 78 des Prozessors 70 angezeigt wird. An diesem Punkt ist die Markierung der Studiobezugspunkte A, B, C und D nun fertiggestellt. Die Werte der Abmessungen h und w sind auch gemessen und in den Prozessor 70 eingegeben worden.
Fig. 10 zeigt eine andere Ausführungsform für das Verfahren zum Messen des Kippwin­ kels. Dieses Verfahren beginnt mit dem Nivellieren des Kopfes so genau wie möglich. Dann kippen Sie auf Null (waagerecht) so genau, wie Sie schätzen können. Der Kopf von Evans und Sutherland weist zu diesem Zweck eine Libelle an der Montageplatte auf. Dann heben Sie die Höhe der Kamera so an, daß das Zentrum der Linse sich in einer Linie mit den zwei nivellierten Bezugslinien befindet. Dann kippen Sie die Kamera, bis die zwei Bezugslinien sich in dem Zentrum des Bildes bei dem Fadenkreuz treffen, und schließlich drücken Sie "Kippversetzung erfassen" auf dem Display 78 des Prozessors 70. Natürlich versteht es sich, daß Daten in den Prozessor 70 eingegeben werden können durch Drücken von Prompts auf dem Display 78, oder eine Anordnung kann verwendet werden, die eine Benutzerschnitt­ stelle 72 bildet wie beispielsweise eine Maus oder eine andere interaktive Verbindung zu dem Display.
Andere Ausführungsformen zum Nivellieren des Kopfes sind in den Fig. 11 und 12 ge­ zeigt. Fig. 11 zeigt eine Draufsicht eines Kopfes, der mit Rohrlibellen in einem 60°-V aus­ gerüstet ist. Der Kopf ist auf dem Dreibein so orientiert, daß die Achse der Libelle 1 annä­ hernd parallel liegt zu einer gedachten Linie durch die Scharniere von Bein 1 und Bein 3, und die Achse der Libelle 2 parallel liegt zu einer gedachten Linie durch die Scharniere von Bein 2 und Bein 3. Zum Nivellieren des Kopfes unter Verwendung der Anordnung von Fig. 11 (1) verstellen Sie das Bein 1, bis die Libelle 1 zentriert ist (Beachten Sie, daß die Libelle 2 relativ unempfindlich gegen Veränderungen in Bein 1 ist); (2) verstellen Sie Bein 2, bis die Libelle 2 zentriert ist (Beachten Sie, daß die Libelle 1 relativ unempfindlich gegen Veränderungen in Bein 2 ist); und (3) wiederholen Sie die Schritte (1) und (2), falls not­ wendig, bis die gewünschte Nivellierung erreicht ist.
Fig. 12 zeigt eine Draufsicht eines Kopfes, der mit einer Rundfensterlibelle 52 ausgerüstet ist. Der Kopf ist auf dem Dreibein so orientiert, daß die gestrichelten Linien durch die Li­ belle 52 die Richtung des Pfades repräsentieren, welche die Blase annimmt, wenn Bein 1 oder Bein 2 verstellt werden. Um den Kopf zu nivellieren unter Verwendung der Anord­ nung von Fig. 12, (1) verstellen Sie Bein 1, bis die Libellenblase 52 sich irgendwo entlang dem gestrichelten Pfad befindet, der für Bein 2 gezeigt ist; (2) verstellen Sie Bein 2, bis die Libellenblase 52 zentriert ist; und (3) wiederholen Sie die Schritte (1) und (2), falls notwen­ dig, bis die gewünschte Nivellierung erzielt ist.
Es versteht sich, daß die oben beschriebenen Anordnungen nur erläuternd für die Anwen­ dung der Prinzipien der Erfindung sind. Zahlreiche Modifikationen und alternative Anord­ nungen können vom Fachmann ersonnen werden, ohne von dem Gedanken und Rahmen der Erfindung abzuweichen. Die Ansprüche sollen solche Modifikationen und Anordnungen abdecken.

Claims (31)

1. Verfahren zum Generieren einer Beobachtungsöffnung für ein komputergeneriertes Bild unter Verwendung von Sensorinformation welche sich auf Einstellungen von Schwenken, Kippen, Zoom und Fokus einer Videokamera bezieht, gekennzeichnet durch die Schritte,
  • (a) daß Bezugspunkte in einem umschlossenen Raum festgelegt werden, welcher zum Aufzeichnen von Bildern mit der Kamera zu verwenden ist,
  • (b) daß die Kamera in dem umschlossenen Raum relativ zu den Bezugspunkten der­ art positioniert wird, daß die Kameraposition bestimmt werden kann durch Triangulation bezüglich der Bezugspunkte,
  • (c) daß Positionsdaten entwickelt werden durch Triangulation, welche die Kamera­ position in einem Koordinatensystem relativ zu den Bezugspunkten identifiziert,
  • (d) daß Kameraorientierungsdaten von Sensoren aufgezeichnet werden, die ange­ ordnet sind zum Ermitteln von Kameraparametern, welche die Einstellungen von Schwen­ ken, Kippen, Zoom und Fokus der Kamera definieren, und
  • (e) daß eine Datenbank entwickelt wird, die eine Beobachtungsöffnung für die Ka­ mera definiert, wobei die Datenbank definiert wird aus einer Kombination der Positionsda­ ten und der Kameraorientierungsdaten.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Schritt (a) das Posi­ tionieren von wenigstens vier Punkten umfaßt, die von der Kamera beobachtbar sind in ei­ ner ebenen Konfiguration in dem umschlossenen Raum.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Schritt (b) das sukzessive Positionieren der Kamera in dem umschlossenen Raum relativ zu den Bezugs­ punkten umfaßt.
4. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Schritt (b) das Posi­ tionieren der Kamera auf einem Gestell umfaßt, derart, daß die Bezugspunkte innerhalb der Sicht der Kamera liegen.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß das Gestell gewählt wird aus der Gruppe, die aus einem Dreibein und einem Ständer besteht.
6. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Schritt (b) das laterale Zentrieren der Kamera auf einem Gestell umfaßt.
7. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Schritt (b) das Nivel­ lieren der Kamera an einem Kopf eines Gestells umfaßt.
8. Verfahren nach Anspruch 7, dadurch gekennzeichnet, daß das Nivellieren der Kame­ ra das visuelle Feststellen der Nivellierausrichtung der Kamera und das anschließende ma­ nuelle Nivellieren des Kopfes an dem Gestell umfaßt, um dadurch die Kamera zu nivellieren.
9. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Schritt (b) das Ent­ wickeln von Positionsdaten umfaßt, welche eine Kippversetzung der Kamera anzeigen.
10. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Schritt (b) das Ent­ wickeln von Positionsdaten umfaßt, welche einen absoluten Schwenkwinkel der Kamera anzeigen.
11. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Schritt (c) das Einge­ ben der Positionsdaten in einen Prozessor umfaßt, der programmiert ist, um die Datenbank zu generieren, die eine Beobachtungsöffnung für die Kamera definiert, wobei die Positions­ daten umfassen eine Kippversetzung, eine Modellraumskala, einen absoluten Schwenkwin­ kel, einen horizontalen Abstand zwischen Bezugspunkten, einen vertikalen Abstand zwi­ schen Bezugspunkten, eine Linsencharakterisierung, eine Studioversetzung und -orientierung, Kodiererspezifikationen und Kamerawinkel relativ zu den Bezugspunkten.
12. Verfahren nach Anspruch 11, dadurch gekennzeichnet, daß das Koordinatensystem gewählt wird aus einer Gruppe, die aus einem rechtwinkligen Koordinatensystem, einem zylindrischen Koordinatensystem, einem sphärischen Koordinatensystem und einem Polar­ koordinatensystem besteht.
13. Verfahren nach Anspruch 11, dadurch gekennzeichnet, daß das Eingeben der Positi­ onsdaten das sukzessive Zielen der Kamera auf jeden der Bezugspunkte und die Signalisie­ rung des Prozessors umfaßt, um dem Prozessor anzugeben, daß die Kamera auf einen der Bezugspunkte zielt.
14. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Schritt (c) das Verar­ beiten der Positionsdaten der Kamera mit einem Prozessor in der Weise umfaßt, daß relativ zu dem Koordinatensystem die Kameraposition relativ zu den Bezugspunkten bestimmt wird.
15. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Schritt (d) das dyna­ mische Tabellieren der Kameraorientierungsdaten von den Sensoren in einem Prozessor umfaßt, die angeordnet sind, um Kameraparameter zu ermitteln, welche die Einstellungen von Schwenken, Kippen, Zoom und Fokus der Kamera definieren.
16. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß der Schritt (a) das Verar­ beiten mit einem Prozessor der Positionsdaten und der Kameraorientierungsdaten umfaßt in der Weise, daß für jede Einstellung die Verstellung des Schwenkens, Kippens, Zoom und Fokus die Beobachtungsöffnungsdefinition für die Kamera dynamisch bestimmt wird in dem Koordinatensystem relativ zu den Bezugspunkten.
17. Vorrichtung zum Generieren einer Beobachtungsöffnung für ein komputergenerier­ tes Bild unter Verwendung von Sensorinformation betreffend die Einstellungen von Schwenken, Kippen, Zoom und Fokus einer Videokamera, gekennzeichnet durch
wenigstens vier Bezugspunkte (A, B, C, D) in einem umschlossenen Raum, der zum Aufzeichnen von Bildern mit der Kamera (10) zu verwenden ist,
eine Einrichtung zum Positionieren der Kamera (10) in dem umschlossenen Raum relativ zu den Bezugspunkten (A, B, C, D) derart, daß die Kameraposition bestimmt werden kann durch Triangulation mit den Bezugspunkten (A, B, C, D),
eine Einrichtung zum Aufzeichnen von Kameraorientierungsdaten von wenigstens einem Sensor, der angeordnet ist, um Kameraparameter zu ermitteln, welche die Einstellun­ gen von Schwenken, Kippen, Zoom und Fokus der Kamera definieren, und
eine Einrichtung zum Entwickeln einer Datenbank, welche eine Beobachtungsöff­ nung für die Kamera (10) definiert, wobei die Datenbank definiert wird aus einer Kombina­ tion der Positionsdaten und der Kameraorientierungsdaten.
18. Vorrichtung nach Anspruch 17, dadurch gekennzeichnet, daß die Bezugspunkte (A, B, C, D) durch die Kamera (10) beobachtbar sind und in einer ebenen Konfiguration in dem umschlossenen Raum angeordnet sind.
19. Vorrichtung nach Anspruch 17, dadurch gekennzeichnet, daß die Einrichtung zum Positionieren der Kamera (10) ein Gestell umfaßt, das so positioniert ist, daß die Bezugs­ punkte (A, B, C, D) innerhalb der Sicht der Kamera (10) liegen.
20. Vorrichtung nach Anspruch 19, dadurch gekennzeichnet, daß das Gestell ausgewählt ist aus einer Gruppe, die aus einem Dreibein und einem Ständer (14) besteht.
21. Vorrichtung nach Anspruch 17, dadurch gekennzeichnet, daß die Kamera (10) late­ ral auf einem Gestell (14) zentriert ist.
22. Vorrichtung nach Anspruch 17, dadurch gekennzeichnet, daß die Kamera (10) sich waagerecht an einem Kopf (12) eines Gestells (14) befindet.
23. Vorrichtung nach Anspruch 17, dadurch gekennzeichnet, daß die Einrichtung zum Entwickeln von Positionsdaten einen Prozessor (70) umfaßt, der programmiert ist, um Da­ ten zu berechnen und zu speichern, welche eine Kippversetzung der Kamera (19) angeben.
24. Vorrichtung nach Anspruch 17, dadurch gekennzeichnet, daß die Einrichtung zum Entwickeln von Positionsdaten einen Prozessor (70) umfaßt, der programmiert ist, um Daten zu berechnen und zu speichern, welche einen absoluten Schwenkwinkel der Kamera (19) angeben.
25. Vorrichtung nach Anspruch 17, dadurch gekennzeichnet, daß die Einrichtung zum Entwickeln von Positionsdaten einen Prozessor (70) umfaßt mit einer Einrichtung zum Ein­ geben von Daten in den Prozessor (70), wobei der Prozessor (70) programmiert ist, um Positionsdaten zu generieren, welche die Kameraposition in einem Koordinatensystem (xyz) relativ zu wenigsten vier Bezugspunkten (A, B, C, D) identifizieren.
26. Vorrichtung nach Anspruch 25, dadurch gekennzeichnet, daß das Koordinatensy­ stem aus der Gruppe ausgewählt wird, die aus einem rechtwinkligen Koordinatensystem (xyz), einem zylindrischen Koordinatensystem, einem sphärischen Koordinatensystem und einem Polarkoordinatensystem besteht.
27. Vorrichtung nach Anspruch 17, dadurch gekennzeichnet, daß die Einrichtung zum Aufzeichnen von Kameraorientierungsdaten von wenigstens einem Sensor einen Prozessor (70) umfaßt mit einer Einrichtung zum Eingeben der Kameraorientierungsdaten in den Pro­ zessor (70).
28. Vorrichtung nach Anspruch 17, dadurch gekennzeichnet, daß die Einrichtung zum Entwickeln einer Datenbank, die eine Beobachtungsöffnung für die Kamera (10) definiert, einen Prozessor (70) umfaßt, der programmiert ist, um die Datenbank zu entwickeln, wobei die Datenbank definiert wird aus einer Kombination der Positionsdaten und der Kameraori­ entierungsdaten.
29. Verfahren zum Definieren einer Beobachtungsöffnung für ein komputergeneriertes Bild unter Verwendung von Information, welche sich auf Einstellungen von Schwenken, Kippen, Zoom und Fokus einer Kamera bezieht, gekennzeichnet durch die Schritte,
  • (a) daß Bezugspunkte in einem umschlossenen Raum festgelegt werden, welcher zum Aufzeichnen von Bildern mit der Kamera zu verwenden ist,
  • (b) daß die Kameraposition und -Orientierung bestimmt wird von einer Stützein­ richtung in dem umschlossenen Raum durch Triangulation in dem umschlossenen Raum;
  • (c) daß eine Beobachtungsöffnung für die Kamera gemessen wird als Funktion von Zoom- und Fokuseinstellungen der Kamera,
  • (d) daß Versetzungen der Kamera gemessen werden, die das Montieren der Kamera an der Stützeinrichtung mit sich bringt;
  • (e) daß ein virtueller Raum skaliert wird relativ zu Raum in dem umschlossenen Raum, und
  • (f) daß virtueller Raum versetzt wird relativ zu den Kameraversetzungen in dem umschlossenen Raum, um dadurch eine Beobachtungsöffnung für das komputergenerierte Bild zu generieren.
30. Verfahren nach Anspruch 29, dadurch gekennzeichnet, daß der Schritt (b) das Eingeben von Daten in einen Prozessor umfaßt, wenn die Kamera auf jeden der Bezugspunkte in dem umschlossenen Raum gerichtet wird, wobei der Prozessor programmiert ist, um die Kame­ raposition durch Triangulation zu berechnen.
31. Verfahren nach Anspruch 29, dadurch gekennzeichnet, daß die Schritte (c) bis (f) das Eingeben der Beobachtungsöffnung für die Kamera in einen Prozessor umfassen und das Eingeben der Versetzungen der Kamera in den Prozessor, wobei der Prozessor pro­ grammiert ist, um virtuellen Raum zu skalieren und virtuellen Raum zu versetzen, um da­ durch die Beobachtungsöffnung für das komputergenerierte Bild zu generieren.
DE19815105A 1997-04-04 1998-04-03 Vorrichtung und Verfahren zum Kalibrieren von Kamera bzw. Linse Expired - Fee Related DE19815105B4 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US08/835,120 1997-04-04
US08/835,120 US5930740A (en) 1997-04-04 1997-04-04 Camera/lens calibration apparatus and method

Publications (2)

Publication Number Publication Date
DE19815105A1 true DE19815105A1 (de) 1998-10-08
DE19815105B4 DE19815105B4 (de) 2006-10-12

Family

ID=25268630

Family Applications (1)

Application Number Title Priority Date Filing Date
DE19815105A Expired - Fee Related DE19815105B4 (de) 1997-04-04 1998-04-03 Vorrichtung und Verfahren zum Kalibrieren von Kamera bzw. Linse

Country Status (5)

Country Link
US (1) US5930740A (de)
CA (1) CA2233806C (de)
DE (1) DE19815105B4 (de)
GB (1) GB2325578B (de)
IL (1) IL123943A (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10132929A1 (de) * 2001-07-06 2003-01-23 Plettac Ag Verfahren und Vorrichtung zur Steuerung von Schwenk-Neige-Bewegungen einer Kamera
DE10359415A1 (de) * 2003-12-16 2005-07-14 Trimble Jena Gmbh Verfahren zur Kalibrierung eines Vermessungsgeräts

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2305050A (en) * 1995-09-08 1997-03-26 Orad Hi Tec Systems Ltd Determining the position of a television camera for use in a virtual studio employing chroma keying
CA2294960A1 (en) * 1997-07-21 1999-02-04 Will N. Bauer Virtual positioning media control system
RU2161871C2 (ru) * 1998-03-20 2001-01-10 Латыпов Нурахмед Нурисламович Способ и система для создания видеопрограмм
IL130337A0 (en) * 1999-06-07 2000-06-01 Tidex Systems Ltd A method for achieving roaming capabilities and for performing interactive CGI implanting and computer games using the method
GB2353909B (en) * 1999-08-28 2004-03-17 John Alfred Cawkwell Robot positioning and motion mechanism
US6408679B1 (en) * 2000-02-04 2002-06-25 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Bubble measuring instrument and method
KR100365958B1 (ko) * 2000-03-30 2002-12-26 김형석 줌 기능을 갖는 원격 카메라의 목표물 추적 제어 방법
US7151562B1 (en) * 2000-08-03 2006-12-19 Koninklijke Philips Electronics N.V. Method and apparatus for external calibration of a camera via a graphical user interface
US7161620B2 (en) * 2000-10-25 2007-01-09 Shotoku Ltd. Moving pedestal for a camera including wheels and sensors for detecting a moving amount thereof
WO2006052259A1 (en) * 2004-11-11 2006-05-18 Pierre Bierre 3d point location system
US7750944B2 (en) * 2005-05-02 2010-07-06 Ge Security, Inc. Methods and apparatus for camera operation
WO2008073449A2 (en) 2006-12-12 2008-06-19 Evans & Sutherland Computer Corporation System and method for aligning rgb light in a single modulator projector
US8897482B2 (en) * 2008-02-29 2014-11-25 Trimble Ab Stereo photogrammetry from a single station using a surveying instrument with an eccentric camera
US8358317B2 (en) 2008-05-23 2013-01-22 Evans & Sutherland Computer Corporation System and method for displaying a planar image on a curved surface
AT506928B1 (de) * 2008-05-28 2012-07-15 Kiwisecurity Software Gmbh Verfahren zur videoanalyse
US8702248B1 (en) 2008-06-11 2014-04-22 Evans & Sutherland Computer Corporation Projection method for reducing interpixel gaps on a viewing surface
US8077378B1 (en) 2008-11-12 2011-12-13 Evans & Sutherland Computer Corporation Calibration system and method for light modulation device
US9641826B1 (en) 2011-10-06 2017-05-02 Evans & Sutherland Computer Corporation System and method for displaying distant 3-D stereo on a dome surface
EP2987026B1 (de) 2013-04-05 2020-03-25 Andra Motion Technologies Inc. System und verfahren zur steuerung einer vorrichtung im zusammenhang mit bilderfassung
CN108871649B (zh) * 2018-08-14 2020-07-14 坤维(北京)科技有限公司 一种建立基准坐标系的方法
JP7451583B2 (ja) * 2022-02-25 2024-03-18 キヤノン株式会社 撮像装置、情報処理装置、制御方法、プログラム及び記憶媒体

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6021675A (ja) * 1983-07-18 1985-02-04 Toyota Motor Corp 計測機器におけるテレビカメラ位置ずれ自動補正方法及び装置
US5059019A (en) * 1990-05-21 1991-10-22 Mccullough Greg R Laser framefinder
GB2267360B (en) * 1992-05-22 1995-12-06 Octec Ltd Method and system for interacting with floating objects
GB9217098D0 (en) * 1992-08-12 1992-09-23 British Broadcasting Corp Derivation of studio camera position and motion from the camera image
GB2272343A (en) * 1992-11-10 1994-05-11 Gec Ferranti Defence Syst Automatic aircraft landing system calibration
DE19521600A1 (de) * 1995-06-14 1996-12-19 Bodenseewerk Geraetetech Landeverfahren für unbemannte Luftfahrzeuge
GB2305050A (en) * 1995-09-08 1997-03-26 Orad Hi Tec Systems Ltd Determining the position of a television camera for use in a virtual studio employing chroma keying

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10132929A1 (de) * 2001-07-06 2003-01-23 Plettac Ag Verfahren und Vorrichtung zur Steuerung von Schwenk-Neige-Bewegungen einer Kamera
DE10132929B4 (de) * 2001-07-06 2006-06-01 Funkwerk Plettac Electronic Gmbh Verfahren und Vorrichtung zur Steuerung von Schwenk-Neige-Bewegungen einer Kamera
DE10359415A1 (de) * 2003-12-16 2005-07-14 Trimble Jena Gmbh Verfahren zur Kalibrierung eines Vermessungsgeräts

Also Published As

Publication number Publication date
GB2325578B (en) 2001-11-07
CA2233806A1 (en) 1998-10-04
GB9806727D0 (en) 1998-05-27
IL123943A (en) 2001-01-28
US5930740A (en) 1999-07-27
CA2233806C (en) 2004-10-12
DE19815105B4 (de) 2006-10-12
GB2325578A (en) 1998-11-25

Similar Documents

Publication Publication Date Title
DE19815105B4 (de) Vorrichtung und Verfahren zum Kalibrieren von Kamera bzw. Linse
DE102015011914B4 (de) Konturlinienmessvorrichtung und Robotersystem
DE112007003293B4 (de) Optisches Instrument und Verfahren zum Erhalten von Abstands- und Bildinformation
DE19922341C2 (de) Verfahren und eine Anordnung zur Bestimmung der räumlichen Koordinaten mindestens eines Objektpunktes
EP1497613B1 (de) Verfahren und vorrichtung zur bestimmung der räumlichen koordinaten eines gegenstandes
EP1759166B1 (de) Verfahren zur vermessung von gegenständen mit einer herkömmlichen digitalkamera
EP0473010B1 (de) Verfahren zur berührungslosen Vermessung von Objektoberflächen
CH695121A5 (de) Verfahren und Anordnung zur Durchführung von geodätischen Messungen mittels Videotachymeter.
EP2880853B1 (de) Vorrichtung und verfahren zur bestimmung der eigenlage einer bildaufnehmenden kamera
DE10359415A1 (de) Verfahren zur Kalibrierung eines Vermessungsgeräts
DE112007003284T5 (de) Optisches Instrument und Verfahren zum Erhalten von Abstands- und Bildinformation
DE19618283A1 (de) Bildaufnahmevorrichtung und Verfahren für die dreidimensionale berührungsfreie Messung
DE19502459A1 (de) Verfahren zur dreidimensionalen optischen Vermessung der Oberfläche von Objekten
DE10328828A1 (de) Surveying System
DE19804205A1 (de) Fotogrammetrische Meßeinrichtung und fotogrammetrisches Meßverfahren
DE10308525A1 (de) Vermessungssystem
CN104240262A (zh) 一种用于摄影测量的相机外参数标定装置及标定方法
DE102004047325A1 (de) Einrichtung und Verfahren zum Herstellen einer Bildkorrespondenz
EP2573512A2 (de) Verfahren und Anordnung zur Bestimmung der Lage eines Messpunktes im geometrischen Raum
CN110736447B (zh) 一种集成式图像采集设备竖直方向水平位置检校方法
DE10329341B4 (de) Vermessungssystem
EP0481278A1 (de) Verfahren und Messeinrichtung zur Positionsbestimmung von Raumpunkten
DE102008048963A1 (de) 3D-Geometrie-Erfassungsverfahren und -vorrichtung
DE102017112976B4 (de) Verfahren zum Kalibrieren einer optischen Anordnung eines Koordinatenmessgerätes
EP1640688A1 (de) Verfahren und Vorrichtung zur 3-dimensionalen Vermessung der Oberfläche eines Gegenstands

Legal Events

Date Code Title Description
8110 Request for examination paragraph 44
8364 No opposition during term of opposition
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee