DE69425481T2 - Bildverarbeitungsverfahren und -gerät zur Erzeugung eines Zielbildes von einem Quellenbild mit Veränderung der Perspektive - Google Patents

Bildverarbeitungsverfahren und -gerät zur Erzeugung eines Zielbildes von einem Quellenbild mit Veränderung der Perspektive

Info

Publication number
DE69425481T2
DE69425481T2 DE69425481T DE69425481T DE69425481T2 DE 69425481 T2 DE69425481 T2 DE 69425481T2 DE 69425481 T DE69425481 T DE 69425481T DE 69425481 T DE69425481 T DE 69425481T DE 69425481 T2 DE69425481 T2 DE 69425481T2
Authority
DE
Germany
Prior art keywords
image
target image
source
source image
point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
DE69425481T
Other languages
English (en)
Other versions
DE69425481D1 (de
Inventor
Raoul Florent
Pierre Lelong
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips Electronics NV filed Critical Koninklijke Philips Electronics NV
Publication of DE69425481D1 publication Critical patent/DE69425481D1/de
Application granted granted Critical
Publication of DE69425481T2 publication Critical patent/DE69425481T2/de
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • General Physics & Mathematics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Studio Circuits (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

  • Die Erfindung betrifft ein numerisches Bildverarbeitungsverfahren, um mittels einer an einem Bild mit der Bezeichnung Quellenbild vorgenommen geometrischen Übertragung der Perspektive ein berechnetes Bild mit der Bezeichnung Zielbild aufzubauen, welches das neu aufgebaute Quellenbild mit veränderten Positionswinkeln und Richtungswinkeln und gegebenenfalls einem Maßstabsfaktor in bezug auf das Quellenbild darstellt.
  • Die Erfindung betrifft zugleich ein numerisches Gerät zur Bildverarbeitung, das dieses Verfahren verwendet.
  • Die Erfindung findet bei der Einrichtung von Überwachungssystemen mit einer gewissen Anzahl Festkameras ihren Einsatz, die angeordnet sind, damit ihre jeweiligen Aufnahmefelder verbunden werden, um für die Beobachtung einer Panoramasicht ein Weitwinkelfeld zu bilden.
  • Eine Gerät, das ein Verfahren zur Vornahme einer geometrischen Übertragung der Perspektive dienen kann, ist bereits aus der Veröffentlichung "Computer Image Processing and Recognition" von Ernest L. HALL der "Academic Press 1979, A Subsidiary of Harcourt Brace Jonanovitch Publishers, New York, London, Toronto, Sidney, San Francisco" - Kapitel 3, S. 76 ff., und insbesondere S. 76-88 bekannt.
  • Diese Veröffentlichung lehrt die Definitionen der perspektivischen Geometrie sowie die der Übertragung der Perspektive und der Übertragung der umgekehrten Perspektive, je nachdem, ob man vom Übergang der Bildpunkte zu den über diese Punkte verlaufenden Lichtstrahlen oder von den Lichtstrahlen zu den Bildpunkten ausgeht. Der Vorgang, von den Bildpunkten zu den diesen Punkten entsprechenden Strahlen überzugehen, wird als "Perspektivenübertragung" bezeichnet.
  • Diese Veröffentlichung lehrt zuerst ein Verfahren, um das Problem des Übergangs von den Punkten zu den Strahlen zu bewerkstelligen, und danach, um das Problem der "perspektivischen Übertragung" unter Verwendung von Matrizen 4 · 4 zu lösen.
  • Diese Problemlösung verläuft über eine von diesen Matrizen ausgehende absolut analytische Berechnung.
  • Die Bewerkstelligung des Problems anhand von Matrizen 4 · 4 gründet auf folgenden Grundsätzen: Theoretisch sind perspektivische Übertragungen geometrische Problemstellungen in einem dreidimensionalen Raum, die folglich schlechthin drei Koordinatentypen verwenden; in der Veröffentlichung lehrt man, daß die perspektivische Übertragung keine lineare Übertragung ist, woraus Probleme mit der Handhabung der Gleichungen folgen; diese Veröffentlichung lehrt weiter, daß die Lösung dieser Gleichungen jedoch vereinfacht werden kann, mit der Linearisierung dieser Gleichungen, was möglich ist, wenn man eine vierte Variable hinzufügt; die so linearisierten Gleichungen können dann analytisch gelöst werden.
  • Allerdings führt das in der Veröffentlichung gelehrte Verfahren zu extrem komplexen Formulierungen. Die gesamte erwähnte Veröffentlichung ist mit Beispielen versehen.
  • Gemäß der Erfindung liegt eine erste Schwierigkeit jedoch darin, die perspektivischen Übertragung in Echtzeit vorzunehmen, d. h. während einer Bildverarbeitung mit einer Geschwindigkeit von 16 bis 25 pro Sekunde aufgebauten Bildern.
  • Die der Lehre der erwähnten Veröffentlichung formulierten Lösungen ergeben sich aufgrund ihrer Komplexität als in Echtzeit besonders schwierig umzusetzen.
  • Dabei gibt es im Handel elektronische Geräte mit der Bezeichnung "Übertragungs-Chips" (in englisch TRANSFORM CHIPS), die zur Durchführung geometrischer Übertragungen in der Lage und zur Lösung des Problems von perspektivischen Übertragungen verwendbar sind.
  • Dabei ist insbesondere das bei der TRW Company mit der Adresse PO Box 2472, LA JOLLA, CA 92 038 (US) erhältliche Handelsprodukt mit der Bezeichnung TMC 2302 bekannt. Dieses Produkt ist dazu in der Lage, in Echtzeit sehr komplizierte Berechnungen in bezug auf die für vorgesehene perspektivische Übertragungen erforderlichen geometrischen Veränderungen vorzunehmen.
  • Allerdings sind diese Übertragungs-Chips besonders deshalb kostspielig, weil sie keinen breiten Einsatz finden; für eine baldige Preisminderung besteht wenig Hoffnung. Dazu ist zu berücksichtigen, daß ihr Einsatz in einem dem Ziel der Erfindung entsprechenden Gerät zur Signalverarbeitung mit einer Reihe schwer zu überwindender Probleme verbunden ist.
  • Allerdings liefert, nachdem diese Probleme überwunden wurden, der Neuaufbau des Zielbildes gemäß der Definition der Einleitung dieser Anmeldung ein Ergebnis, das man als Neuaufbau nach einer "exakten Perspektive" bezeichnen könnte. Unter Verwendung der Übertragungs-Chips werden die Objekte im Zielbild in einer geometrischen Perspektive dargestellt, die der einer direkten Darstellung des Zielbildes sehr nahe ist, d. h. mit einer real mit den Parametern ausgerichteten Kamera für den Erhalt der für dieses sogenannte Zielbild gewählten geometrischen Perspektive.
  • Ein Ziel der Erfindung ist folglich die Bereitstellung eines Gerätes, das den Neuaufbau eines Zielbildes gemäß der Definition der Einleitung gewährleistet, unter Umgehung der Notwendigkeit, komplexe geometrische Übertragungen vorzunehmen, die ausschließlich mit handelsüblichen, sehr kostspieligen Produkten und den einhergehenden, schwer zu überwindenden technischen Problemen bewerkstelligt werden können.
  • Dieses Ziel wird gemäß der Erfindung mit einem numerischen Bildverarbeitungsverfahren erreicht, um mittels einer auf ein sogenanntes Quellenbild (I) angewandten perspektivischen geometrischen Übertragung ein berechnetes, sogenanntes Zielbild (I*) aufzubauen, welches das neu aufgebaute Quellenbild mit mindestens einer der folgenden Parameteränderungen darstellt: Positionswinkeln, Richtungswinkeln und Maßstabsfaktor in bezug auf das Quellenbild, dadurch gekennzeichnet, daß es Aufbauschritte des sogenannten Zielbildes mit der Korrektur von Verzerrungen und Perspektivenfehlern enthält und folgendes beinhaltet:
  • Die Bestimmung eines gemeinsamen optischen Zentrums für das Quellenbild (I) und das Zielbild(I*), Ursprung einer orthonormierten Bezugsmarkierung;
  • die Berechnung für jedes Pixel des sogenannten Anfangspixels (M*) der Adresse (X*, Y*) im Zielbild (I*), eines sogenannten angenäherten sphärischen Koordinatenpaares (α, β) mittels einer linearen Funktion G&supmin;¹ wie (α, β) = G&supmin;¹ (X*, Y*), deren Koeffizienten die Funktionen der Positions- und Richtungswinkel und des geänderten Maßstabsfaktors sind;
  • die Bereitstellung für jedes berechnete sphärische Koordinatenpaar (α, β) eines Koordinatenpaares (X, Y), das in einer Tabelliervorrichtung (204) gespeichert wird und neben der Auflösung dieser Tabelliervorrichtung die Adresse im Quellenbild (I) eines Punktes (M) entsprechend dem Anfangspixel (M*) im Zielbild (I*) bildet.
  • Ein Vorteil des Verfahrens nach der Erfindung ist, daß es unter ausschließlicher Verwendung von Speicherkarten umgesetzt werden kann. Diese Speicherkarten sind heute kostengünstig, und ihre Preise fallen bei gleichzeitig dazu stets verbesserten Qualitäten und Schreibdichten ständig.
  • So sind die für die Umsetzung der mit der Erfindung vorgeschlagenen "Perspektivenübertragungen" erforderlichen Funktionen auf diesen Speicherkarten sehr leicht aufzuzeichnen oder zu tabellieren (in englisch LUT für LOOK-UP-TABLE).
  • Allerdings erhält der Anwender mittels dem Verfahren nach der Erfindung ein neu aufgebautes Zielbild, das in bezug auf ein Bild, das direkt mit einer reellen Kamera erhalten worden wäre, kleine geometrische Unterschiede aufweist.
  • Doch bei der Verwendung stellte sich im Laufe von Tests heraus, die Beobachtern vorgeschlagen wurden und die nicht wußten, mit welchen Mitteln das Bild erhalten wurde, das man ihnen zeigte, daß die neu aufgebauten Zielbilder nach der Erfindung genauso in der Gunst der Testbeobachter wie die mit einer reellen Kamera erhaltenen Bilder standen, mit denselben Ausrichtungen und demselben Zoom wie die bei dem Test nach der Erfindung erhaltenen Zielbilder. Die Beobachter nehmen die sehr leichten geometrischen Unterschiede, die bei der Berechnung des Zielbildes nach der Erfindung auftreten, nicht negativ wahr und messen den Bildern im Gegenteil eine sehr gute Qualität bei. Die kundigen Beobachter haben selbst gewisse Schwierigkeiten, die Unterschiede festzustellen, die zwischen den beiden Bildtypen, dem reellen und dem neu aufgebauten, bestehen.
  • Dies ist ein großer Vorteil, denn das Verfahren nach der Erfindung kann mittels einer kleinen Anzahl einfacher Module umgesetzt werden, in denen die Berechnungen sehr leicht durchgeführt werden. Ein aus diesen Modulen zur Umsetzung der Erfindung gebildetes Gerät ist folglich extrem einfach herzustellen, im Vergleich zu Geräten, die mit "Übertragungs-Chips" auf dem Handel ausgerüstet sind, außergewöhnlich kostengünstig und liefert ein effiziente Bildqualität.
  • Die Erfindung wird nachstehend im Detail mit Verweis auf die schematischen Figuren beschrieben, von denen:
  • - Fig. 1A ein sogenanntes Quellenbild darstellt, perspektivisch in einer festen orthonormierten dreidimensionalen Markierung, der sogenannten absoluten Markierung, sowie der sphärischen Koordinaten seines Zentrums und eines laufenden Punktes;
  • - Fig. 1B ein sogenanntes Zielbild darstellt, perspektivisch in derselben absoluten Markierung, sowie der sphärischen Koordinaten seines Zentrums und eines laufenden Pixels;
  • - Fig. 2 das Quellenbild darstellt, perspektivisch in einer individuellen orthonormierten Markierung selben Ursprungs wie die absolute Markierung;
  • - Fig. 3A die Projektion des Quellenbildes auf eine der Flächen dieser individuellen Markierung, und Fig. 3B das Quellenbild parallel zu einer anderen Fläche dieser individuellen Markierung darstellt;
  • - Fig. 4A die Projektion des Zielbildes in einer Fläche einer individuellen orthonormierten Markierung selben Ursprungs wie die absolute Markierung, und Fig. 4B das Zielbild parallel zu einer anderen Fläche dieser individuellen Markierung darstellt;
  • - Fig. 5A die Projektionen des Quellen- und Zielbildes in der sogenannten horizontalen Fläche der absoluten Markierung darstellt;
  • Fig. 5B in der absoluten Markierung eine vertikale Fläche darstellt, die einen Lichtstrahl enthält, auf den der Quellenlichtpunkt, das Zielbildpixel, der Quellenbildpunkt und der Ursprung der absoluten Markierung ausgerichtet sind;
  • Fig. 6A die Projektion des Quellenbildes in einer vertikalen Fläche der absoluten Markierung mit der optischen Achse dieses Quellenbildes, und Fig. 6B die Projektion dieses Quellenbildes in der horizontalen Fläche dieser absoluten Markierung darstellt;
  • - Fig. 7A die Projektion des Zielbildes in einer vertikalen Fläche der absoluten Markierung mit der Achse dieses Zielbildes, und Fig. 7B die Projektion dieses Zielbildes im horizontalen Plan dieser absoluten Markierung darstellt;
  • - Fig. 8 die Aktion der Funktionen G&supmin;¹ und F zur geometrischen Übertragung der Perspektive im Verlauf der Koordinaten eines laufenden Pixels im Zielbild in seiner individuellen Markierung zu den sphärischen Koordinaten des über dieses Pixel verlaufenden Lichtstrahls und den absoluten, mit den gemeinsamen Fluchtpunkten des Quellen- und Zielbildes übereinstimmenden Ursprung, und dann den Verlauf zu den Koordinaten des dem Quellenbild in seiner individuellen Markierung entsprechenden Punktes darstellt;
  • - Fig. 9A die Projektion in der horizontalen Fläche der absoluten Markierung von zwei angrenzenden Quellenbildern und eines neu aufgebauten Zielbildes anhand dieser beiden Quellenbilder, und die Fig. 9B die horizontale Fläche der absoluten Markierung gesondert darstellt;
  • Fig. 10 in einer zu den Flächen der Quellenbilder rechtwinkligen Fläche drei angrenzende Quellenbildflächen darstellt, erzeugt von drei reellen Festkameras, deren Winkelfelder ineinander übergehen;
  • - Fig. 11A die Begrenzung in zwei angrenzenden Quellenbildern darstellt, eines beiderseitigen Teils der beiden Bildern, mittels Parametern, die einen Positionswinkel, einen Richtungswinkel und einen Maßstabsfaktor für den erneuten Aufbau eines Zielbildes, das dem auf Fig. 11B dargestellten entspricht;
  • - Fig. 12A ein linkes Quellenbild darstellt; Fig. 12B ein zum vorhergehenden rechts angrenzendes Quellenbild; Fig. 12C das Zielbild darstellt, das man durch einfaches Aneinanderfügen des jeweiligen rechten und linken und rechten Rands des linken und rechten Quellenbildes erhalten würde; und Fig. 12D das unter Anwendung auf diese beiden Ausgangs-Quellenbilder des Bildverarbeitungssystems nach der Erfindung erhaltene Zielbild darstellt;
  • - Fig. 13 in Funktionsblöcken ein Schema eines Bildverarbeitungsgerätes vom Adressenrechnertyp nach der Erfindung darstellt;
  • - Fig. 14 in Funktionsblöcken ein Schema eines Bildverarbeitungsgerätes mit einem Adressenrechner nach Fig. 13 darstellt.
  • A/ Definition des mit der Erfindung gelösten Problems A1/ Darlegung der geometrischen Daten des Problems
  • In bezug auf die Fig. 1A und 1B wird mit (PXa, PYa, PZa) eine orthonormierte dreidimensionale feste Markierung mit der Bezeichnung "absolute Markierung" bezeichnet, des Ursprungs P, der im gesamten Verlauf der folgenden Darlegung als Bezugnahme dienen wird.
  • Die Fläche (PXa, PZa) wird nachstehend bezeichnet: "horizontale Fläche". Die Achse PYa ist folglich rechtwinklig zu der besagten horizontalen Fläche. Diese Achse wird nachstehend bezeichnet: "vertikale Achse". Auch bezeichnet man: "vertikale Fläche" jede diese Achse PYa enthaltende Fläche.
  • In bezug auf Fig. 1A und mit der Fig. 2 bezeichnet man mit I ein numerisches flaches Ausgangsbild, "Quellenbild" I bezeichnet, optisch gebildet, d. h. mit einem optischen Zentrum P und einer optischen Achse PZ, die die Fläche des Quellenbildes I an einem Punkt O überschneidet. Dieser Punkt O ist das geometrische Zentrum des Quellenbildes I, und die optische Achse PZ ist bei O rechtwinklig zum Quellenbild I.
  • In Fig. 2 wird das optische Zentrum P, auch "Fluchtpunkt" bezeichnet, als derartiger Punkt definiert, daß jeder Lichtstrahl Pu, aus einem Lichtobjektpunkt u des Raumes kommend und auf diesen Fluchtpunkt P gestützt, die Optik durchquert, die ohne Abweichung das numerische Quellenbild veranlaßt. Setzen wir folglich einen Objektpunkt u im Raum voraus, mit seinem Bild an einem Punkt M im numerischen Quellenbild I, und als P den diesem numerischen Bild entsprechenden Fluchtpunkt, woraus die Eigenschaften des Fluchtpunktes P ergeben, daß die Punkte u, M, P ausgerichtet sind und der Lichtstrahl Pu geradlinig ist.
  • In der folgenden Darlegung wird der einfache Fall behandelt, bei dem das numerische Quellenbild I quadratisch oder rechteckig ist. Ein Fachmann kann die Erfindung leicht auf andere numerische Bilder übertragen.
  • Unter numerischem Bild versteht man ein Bild, das aus Pixeln gebildet wird, dem jeweils ein Luminanzniveau Q zugeteilt ist. Das Luminanzniveau kann z. B. nach einer von 1 bis 256 abgestuften Luminanzniveauskala erfaßt werden. Die am meisten lumineszierenden oder hellsten Pixel werden den größten Luminanzniveaus, und die am wenigsten lumineszierenden oder dunkelsten Pixel den kleinsten Luminanzniveaus dieser Skala zugeteilt.
  • In bezug auf Fig. 2 und die Fig. 3A und 3B ist das Quellenbild I mit einer individuellen Markierung (PX, PY, PZ) versehen, dreidimensional, orthonormiert, die an dieses besondere Bild I gebunden ist. Der Ursprung der individuellen Markierung (PX, PY, PZ) wird am Fluchtpunkt P des Quellenbildes I gewählt, die optische Achse PZ des Quellenbildes I ist eine der Achsen der Markierung. Diese individuelle Markierung wird "Quellenmarkierung" bezeichnet.
  • In Fig. 3A stimmt die Fläche (PZ, PX) der individuellen Markierung mit der Fläche des Zeichenblattes überein. Das zur Achse PZ rechtwinklige Quellenbild I ist mit einem Segment dargestellt. Die Achse PY ist rechtwinklig zur Fläche des Zeichenblattes. Die Größe d = PO wird "Maßstabsfaktor des Quellenbildes" bezeichnet.
  • In Fig. 3B ist die Fläche (PX, PY) der individuellen Quellenmarkierung parallel zur Fläche des Zeichenblattes, und das Quellenbild I, hier Quadratisch, ist auf dieser Fläche dargestellt. Die Achse PZ ist bei O rechtwinklig zu dieser Fläche. Die Achsen PX, PY der individuellen Quellenmarkierung haben in dieser Quellenbildfläche die Projektionen OX', OY'; die Achsen PX, PY, und folglich ihre Projektionen OX', OY', sind jeweils parellel zu den Zeilen und den Spalten der Pixel des numerischen Quellenbildes gewählt. Das geometrische Zentrum O ist in Übereinstimmung mit einem Pixel gewählt.
  • In bezug auf Fig. 3B hat jeder Punkt M des Quellenbildes I als Projektionen in der Markierung OX', OY' jeweils die Punkte M' und M",
  • wie: MM' = Y,
  • und MM" = X.
  • So hat jeder Punkt M des Quellenbildes I als Koordinaten:
  • M → (X, Y) in der Markierung (OX', OY')
  • und M → (X, Y, d) in der Quellenmarkierung (PX, PY, PZ).
  • In bezug auf die Fig. 1B und mit den Fig. 4A und 4B bestimmt man außerdem im dreidimensionalen Raum eine andere Bildfläche mit der Bezeichnung "Zielbildfläche", die man mit I* (I Sternchen) bezeichnet. Dieses Zielbild I* ist ein numerisches Bild, aus Gründen der vereinfachten Darlegung gewählt, derselben geometrischen Form wie das Quellenbild I, d. h. quadratisch oder rechteckig. Andererseits ist dieses Zielbild zugleich mit einem optischen Zentrum oder Fluchtpunkt verbunden, wobei eine optische Achse durch diesen Fluchtpunkt verläuft.
  • Hypothetisch wird angenommen, daß der Fluchtpunkt des Zielbildes I* der Punkt P ist, d. h., daß die Fluchtpunkte der Quellen- I und Zielbilder I* übereinstimmen. Man bezeichnet mit PZ* die optische Achse des Zielbildes I*, das die Fläche dieses Zielbildes I' an einem Punkt O* überschneidet. Dieser Punkt O* ist das geometrische Zentrum des Zielbildes I*, und die optische Achse PZ* ist bei O* rechtwinklig zur Fläche des Zielbildes I*.
  • Der Fluchtpunkt P hat dieselben Eigenschaften in bezug auf den Aufbau des Zielbildes I* wie das Quellenbild I, d. h., daß der Punkt M* in I* eines Objektpunktes u im Raum sich an der Schnittstelle des Lichtstrahls Pu und der Zielbildfläche I* befindet, und daß die Punkte PM*u an dem geradlinigen Lichtstrahl Pu ausgerichtet sind.
  • In bezug auf die Fig. 4A und 4B ist das Zielbild I* mit einer individuellen orthonormierten dreidimensionalen Markierung (PX*, PY*, PZ*) versehen, die diesem besonderen Zielbild I* angehängt ist. Der Ursprung der individuellen Markierung (PX*, PY*, PZ*) wird am gemeinsamen Fluchtpunkt P der Quellen- I und Zielbilder I* gewählt; und die optische Achse PZ* des Zielbildes I* ist eine der Achsen dieser Markierung. Die individuelle Markierung hat die Bezeichnung "Zielmarkierung".
  • In Fig. 4A stimmt die Fläche (PZ*, PX*) der Zielmarkierung mit der Fläche des Zeichenblattes überein. Das Zielbild I*, das rechtwinklig zur Achse PZ* liegt, ist mit einem Segment dargestellt. Dich Achse PY* ist rechtwinklig zur Fläche des Zeichenblatts. Die Größe d* = PO* hat die Bezeichnung "Maßstabsfaktor des Zielbildes".
  • In Fig. 4B ist die Fläche (PX*, PY*) der individuellen Zielmarkierung parallel zur Fläche des Zeichenblatts, und das Zielbild I*, hier wie das Quellenbild I quadratisch, ist auf dieser Fläche dargestellt. Die Achse PZ* ist bei O* rechtwinklig zu dieser Fläche. Die Achsen PX* und PY* der Zielmarkierung haben die Projektionen O*X'*, O*Y'* im Zielbild; die Achsen PX* und PY* und folglich ihre Projektionen O*X'* O*Y'* werden jeweils parallel zu den Zeilen und Spalten der Pixel des numerischen Zielbildes gewählt. Das geometrische Zentrum O* wird in Übereinstimmung mit einem Pixel gewählt.
  • In bezug auf Fig. 4B hat jedes Pixel M* des Zielbildes in der Markierung (O*X'*, O*Y'*) als Projektion die jeweiligen Punkte M'* und M"*. So hat Jedes Pixel M* im Zielbild I* die Koordinaten:
  • M* → (X*, Y*) in der Markierung (O*X'*, O*Y'*)
  • und M* → (X*, Y*, d*) in der Zielmarkierung (PX*, PY*, PZ*).
  • In bezug auf die Fig. 1A und 1B stellt man jetzt die Hypothese auf, daß die Fluchtpunkte aller Quellen- und Zielbilder mit dem Ursprung P der absoluten Markierung (PXa, PYa, PZa) übereinstimmen.
  • In bezug auf Fig. 1A kann man die Winkelparameter bestimmen, die die individuelle Markierung des Quellenbildes I zur absoluten Markierung verbinden. Die Fig. 1A zeigt die Fläche des Quellenbildes I in Perspektive, in einem dreidimensionalen Raum, mit der Markierung (OX', OY') auf der Fläche, während das geometrische Zentrum O im Abstand d (oder Quellenmaßstabsfaktor) zum absoluten Ursprung (oder gemeinsamer Fluchtpunkt) P liegt und zudem die drei Achsen (PXa, PYa, PZa) dieser absoluten Markierung aufweist. Die Achse PZa ist die "Ursprungs-Markierungsachse" in der horizontalen Fläche (PZa, PXa).
  • Wie zuvor betrachtet wird die optische Quelle PZ bei PTa über die horizontale Fläche (PXa, PZa) projiziert. Diese Projektion wird parallel zur vertikalen Achse PYa vorgenommen. Bei diesem Vorgang ist Oa die Projektion des geometrischen Zentrums O. Die Fläche (PZ, PTa) ist eine "vertikale Fläche".
  • Dieser Projektionsvorgang definiert zwei Winkel, die den individuellen Quellenbezug (PX, PY, PZ) mit der absoluten Markierung (PXa, PYa, PZa) verbinden. Diese beiden Winkel sind:
  • - Der Positionswinkel φ (in englisch TILTING ANGLE) als der Winkel, dessen optische Quellenachse PZ man drehen muß, vertikal, um ihn auf bei PTa auf die horizontale Fläche (PXa, PZa) zu bringen,
  • - der Richtungswinkel Θ (in englisch PANNING ANGLE) als der Winkel, dessen Projektion PTa man horizontal drehen muß, um ihn auf die Markierungs- Ursprungsachse PZa zu bringen.
  • Auf Fig. 6A, die die vertikale Fläche (PYa, PTa) darstellt, ist I die Spur des Quellenbildes, PZ die optische Achse, O das geometrische Zentrum des Quellenbildes und d der Quellen-Maßstabsfaktor. Somit:
  • - Wird der Positionswinkel φ vom Winkel (PZ, PTa) markiert.
  • In Fig. 6B, die die horizontale Fläche (PZa, PXa) darstellt,
  • - wird der Richtungswinkel Θ vom Winkel (PTa, PZa) markiert.
  • Wenn man auf Fig. 1A die Quellenfläche I durch die Zielfläche I* ersetzt, kann man auf dieselbe Weise den Positionswinkel φ* und den Richtungswinkel Θ* definieren, die die individuelle Zielmarkierung mit der absoluten Markierung verbinden.
  • So kann man in bezug auf die Fig. 1B die Winkelparameter definieren, die die individuelle Markierung des Zielbildes I* mit der absoluten Markierung verbinden. Fig. 1B zeigt die Zielbildfläche I* in Perspektive, in einem dreidimensionalen Raum, mit der Markierung (OX'*, OY'*) auf ihrer Fläche, während ihr geometrischen Zentrum O* im Abstand d* (oder Quellenmaßstabsfaktor) zum absoluten Ursprung (oder gemeinsamer Fluchtpunkt) P liegt und zudem die drei Achsen (PXa, PYa, PZa) dieser absoluten Markierung aufweist.
  • Die Optische Zielachse PZ* wird bei PTa* über die horizontale Fläche (PXa, PZa) projiziert. Diese Projektion wird parallel zur vertikalen Achse PYa vorgenommen. Bei diesem Vorgang ist Oa* die Projektion des geometrischen Zentrums O*. Die Fläche (PZ, PTa) ist eine "vertikale Fläche".
  • Dieser Projektionsvorgang definiert zwei Winkel, die den individuellen Quellenbezug (PX*, PY*, PZ*) mit der absoluten Markierung (PXa, PYa, PZa) verbinden. Diese beiden Winkel sind:
  • - Der Positionswinkel φ* (in englisch TILTING ANGLE) als der Winkel, dessen optische Quellenachse PZ* man drehen muß, vertikal, um ihn auf bei PTa* auf die horizontale Fläche (PXa, PZa) zu bringen,
  • - der Richtungswinkel Θ* (in englisch PANNING ANGLE) als der Winkel, dessen Projektion PTa* man horizontal drehen muß, um ihn auf die Markierungs- Ursprungsachse PZa zu bringen.
  • Auf Fig. 7A, die die vertikale Fläche (PYa, PTa) darstellt, ist I* die Spur des Quellenbildes, PZ* die optische Achse, O* das geometrische Zentrum des Quellenbildes und d* der Quellen-Maßstabsfaktor. Somit:
  • - Wird der Positionswinkel φ* vom Winkel (PZ*, PTa*) markiert.
  • In Fig. 7B, die die horizontale Fläche (PZa, PXa) darstellt, ist Ia* die orthogonale Projektion des Zielbildes I*, Oa* die Projektion von O*, PTa* die Projektion der optischen Achse PZ*. Somit:
  • - wird der Richtungswinkel Θ* vom Winkel (PTa, PZa) markiert.
  • In Fig. 5A, die auf der "horizontalen Fläche" (PZa, PXa) der absoluten Markierung dargestellt ist, sind die Segmente Ia und Ia* Projektionen der jeweiligen Quellen- I und Zielbildflächen I*, und die Achsen PTa und PTa* sind die Projektionen der zuvor in bezug auf die Fig. 1A und 1B und mit den Fig. 6 und 7 beschriebenen optischen Achsen PZ und PZ*. Somit:
  • - ist der Quellen-Richtungswinkel Θ = (PTa, PZa),
  • - ist der Ziel-Richtungswinkel Θ* = (PTa*, PZa),
  • A2/ Darlegung der Ziele der Erfindung
  • Das Ziel der Erfindung ist die Bereitstellung eines Verfahrens zum Aufbau eines Zielbildes I* anhand eines Quellenbildes I unter Verwendung einer geometrischen Übertragung, die die Winkeländerungen berücksichtigt, um:
  • - vom Quellen-Richtungswinkel Θ zum Ziel-Richtungswinkel Θ* überzugehen);
  • - vom Quellen-Positionswinkel φ zum Ziel Positionswinkel φ* überzugehen, und die die Maßstabsänderung berücksichtigt, um von einem Maßstabsfaktor d zu einem Maßstabsfaktor d* überzugehen.
  • Der Aufbau des Bildes verläuft über die Zuteilung eine Luminanzniveaus Q an jedes Pixel M* des Zielbildes, gekennzeichnet durch seine Parameter φ*, Θ*, d*. Dieses Luminanzniveau muß am Punkt M des Quellenbildes gesucht werden, welches das Bild desselben Objektpunktes u des dreidimensionalen Raumes bei einer zu filmenden Handlung ist.
  • Unter Berücksichtigung der Tatsache, daß das Zielbild I* so gewählt wird, damit es denselben Fluchtpunkt P wie das Quellenbild hat, und unter Berücksichtigung der Eigenschaften des gemeinsamen Fluchtpunktes, ergeht, daß die Quellen- M und Zielbildpunkte M* auf demselben geradlinigen Lichtstrahl Pu ausgerichtet sind. Wenn man so von der Hypothese ausgeht, daß die Koordinaten (X*, Y*) des Punktes M* des Zielbildes I*, dessen Luminanzniveau Q man sucht, in seiner individuellen Markierung (PX*, PY*, PZ*) bekannt sind, dann beinhaltet das Verfahren nach der vorliegenden Erfindung die Bestimmung der Koordinaten (X, Y) des entsprechenden Punktes M im Quellenbild I in seiner individuellen Markierung (PX, PY, PZ).
  • Dann, nachdem man die Position dieses Punktes M im Quellenbild I kennt, beinhaltet das Verfahren nach der vorliegenden Erfindung die Bestimmung der mit diesem Punkt M im Quellenbild verbundenen Luminanzfunktion Q(X,Y).
  • Daraufhin, da man die mit diesem Punkt M im Quellenbild im Quellenbild verbundene Luminanzfunktion Q(X,Y) kennt, beinhaltet das Verfahren nach der vorliegenden Erfindung die Bestimmung der mit diesem Punkt M im Quellenbild verbundenen Luminanzfunktion Q*(X*,Y*), die dem im Zielbild aufzubauenden Punkt M* zugeteilt werden muß. Da man zu diesem Zeitpunkt die Daten hat, die aus einer Luminanzfunktion für jeden Punkt des Zielbildes bestehen, ermöglicht es das Verfahren nach der Erfindung dann, das Zielbild aufzubauen. In allen Bildverarbeitungsverfahren wird das Quellenbild mit einer ersten Parameterserie in bezug auf eine absolute Markierung im dreidimensionalen Raum definiert, und das Zielbild wird mit einer zweiten Parameterserie in bezug auf die besagte absolute Markierung definiert. Diese Parameter sind die Richtungs- Θ, Θ* und Positionswinkel φ, φ*, die jede individuelle Markierung mit der absoluten Markierung verbinden, sowie die Maßstabsfaktoren d und d* in bezug auf jede Quellen- Oder Zielbildfläche.
  • Der Neuaufbau des Zielbildes gründet auf der Tatsache, daß die entsprechenden Punkte M im Quellen- und M* im Zielbild Bildpunkte eines selben Objektpunktes u des dreidimensionalen Räumen sind und sich auf einem selben geradlinigen Lichtstrahl Pu befinden, der sich auf den den beiden Bildern I und I* gemeinsamen Fluchtpunkt P stützt und durch den Objektpunkt u verläuft.
  • B/ Beschreibung des Verfahrens nach der Erfindung B1/ Definition der geometrischen Funktionen mit der Bezeichnung perspektivische Übertragungsfunktionen
  • Zum Erhalt der Entsprechung zwischen einem Pixel im Zielbild und einem Punkt im Quellenbild, Bild desselben Punktes u des Raumes, befindlich auf einem Lichtstrahl Pu, auf den gemeinsamen Fluchtpunkt P gestützt, ist es notwendig, die Perspektiven- Übertragungsfunktionen zu definieren, die die Verbindung der Koordinaten jedes Punktes einer Quellen- oder Zielfläche dieses Lichtstrahle Pu ermöglichen, die durch diesen Objektpunkt u des Raumes und den Fluchtpunkt P verlaufen.
  • Diese Perspektiven-Übertragungsfunktionen sind mit der Bestimmung der Relation betraut zwischen:
  • - der Luminanzfunktion Q*(X*, Y*) 1a)
  • in bezug auf das Pixel M* des Zielbildes I*
  • - und der Luminanzfunktion Y(X, Y) 1b)
  • in bezug auf den entsprechenden Punkt M des Zielbildes I. Diese Entsprechung wird bestimmt, wenn folgende Gleichheit erlangt wird:
  • Q*(X*,Y*) = Q(X,Y) 2)
  • Zur Lösung dieses Problems definiert man:
  • - eine erste Funktion F wie:
  • (X,Y) = F(α,β) 3a)
  • - und eine zweite Funktion G wie:
  • (X*,Y*) = G(α,β) 3b)
  • Die Parameter α und β sind Winkelparameter, die später definiert werden. Nach der Definition dieser Winkelparameter α und β kann das Glied 1a) der Relation 2) unter Berücksichtigung von α und β mittels der ersten Funktion F wie folgt geschrieben werden:
  • Q(X,Y) = Q[F(α,β)] 4a)
  • Aus der Relation 3b) leitet man ab, daß
  • (α,β) = G&supmin;¹(X*,Y*) 5)
  • Diese Relation 5), angewandt auf die Relation 4a), ermöglicht die Ableitung, daß:
  • Q(X,Y) = Q[F(G&supmin;¹(X*,Y*)] 4b)
  • Der Ausdruck 2) wird dann geschrieben, indem sein Glied 1b) durch den Ausdruck 4b) ersetzt wird. Woraus folgt:
  • Q*(X*,Y*) = Q[F(G&supmin;¹(X*,Y*))] 5a)
  • Das zweite Glied der Gleichung 5a) ist eine Verbindung von drei Funktionen, die man unter Verwendung des mathematischen Funktionssatzzeichens schreiben kann
  • o(sprich "Kreis").
  • Die Gleichung 5a) schreibt sich folglich:
  • Q*(X*,Y*) = Qo Fo G&supmin;¹ (X*, Y*) 5b)
  • oder einfacher
  • Q* = Qo Fo G&supmin;¹ 6)
  • (sprich Q Sternchen gleich Q Kreis F Kreis Umkehrung von G).
  • In der Gleichung 6 sind die Funktionen Q* und Q Luminanzfunktionen und die Funktionen F und G&supmin;¹ Perspektiven-Übertragungsfunktionen.
  • Man erwähnte bereits in der Einleitung der Erfindung, daß der bekannte Stand der Technik Perspektiven-Übertragungsfunktionen lehrt, die über die Verarbeitung des Quellenbildes gewiß einen "exakten" Aufbau des Zielbildes ermöglichen, doch daß dieser exakte Aufbau zum Preis von sehr schwer umzusetzenden Mitteln erhalten wird, im Rahmen von mit dem zu lösenden Problem kaum vereinbarenden und zudem kostspieligen Beeinträchtigungen.
  • Die vorliegende Erfindung bezweckt die Bestimmung der Funktionen F und G&supmin;¹ der Perspektivenübertragung mit folgenden Eigenschaften:
  • a) Diese Funktionen liefern, ohne einen "vollkommen exakten Aufbau" des Zielbildes ausgehend von dem Quellenbild zu ermöglichen, dennoch einen Aufbau des Zielbildes unter Berücksichtigung von Näherungen, den ein kundiger Beobachter als "angemessen und ausreichend präzise" betrachten kann, und bei dem generell ein nicht kundiger fachlicher Beobachter keinen Unterschied zwischen dem nach der Erfindung aufgebauten Zielbild und einem auf "vollkommen exakte" Art aufgebauten Zielbild erkennen kann.
  • b) Diese Funktionen können mit einfachen und wenig kostspieligen Mittel umgesetzt werden.
  • c) Diese umgesetzten Funktionen ermöglichen den Aufbau eines Zielbildes in Echtzeit, was das im einleitenden Teil dieser Beschreibung dargelegte technische Problem löst.
  • Der Erfindung zufolge definiert man zuerst die beiden Funktionen F und G&supmin;¹.
  • B2/ Bestimmung der Funktion G&supmin;¹ der geometrischen Perspektivenübertragung nach der Erfindung.
  • In bezug auf die Fig. 1B, wie u. a. auf den Fig. 5B und Fig. 7B gezeigt, wird ein durch das Pixel M* des Zielbildes I* verlaufender Lichtstrahl Pu orthogonal bei Pua auf die horizontale Fläche (PZa, PXa) der absoluten Markierung projiziert.
  • Bei dieser Projektion ist die Fläche (Pu, Pua) eine vertikale Fläche, und der Punkt M* ist die Projektion auf Pua des Pixels M* von Pu, wobei diese Projektion parallel zur vertikalen Achse PYa verläuft.
  • Folglich sucht man, sobald man die Koordinaten (X*, Y*) eines bestimmten Pixels M* des Zielbildes kennt, die sphärischen Koordinaten zu bestimmen, die den durch diesen Punkt M* verlaufenden Lichtstrahl Pu definieren.
  • Diese an den Lichtstrahl Pu gebundenen sphärischen Koordinaten sind:
  • - der Winkel α = (PZa, Pua) auf der horizontalen Fläche,
  • - der Winkel β = (PW, Pua) auf der vertikalen Fläche.
  • Diese Winkel definieren insgesamt die Position des Lichtstrahls Pu in der absoluten Markierung und folglich im dreidimensionalen Raum.
  • Zur Veranschaulichung der Definition des Winkels α zeigt die Fig. 5A die horizontale Fläche (PZa, PXa), auf der:
  • - Die Achse Pua die Projektion des Lichtstrahls Pu ist,
  • - die Punkte ua, Ma* und Ma jeweils die Projektionen der Punkte u, M* und M und auf Pua ausgerichtet sind,
  • der Winkel α = (PZa, Pua) der Winkel zwischen der Projektion Pua des Lichtstrahls Pu und der Bezugsachse PZa der absoluten Markierung auf der horizontalen Fläche ist.
  • Zur Veranschaulichung der Definition des Winkels β zeigt die Fig. 5B die horizontale Fläche (PY, Pua), auf der:
  • - Die Achse Pu der Lichtstrahl ist, auf den der Objektpunkt u des Raumes und der Punkt M des Quellenbildes sowie das Pixel M* des Zielbildes ausgerichtet sind,
  • - die Achse Pua die Projektion Pu auf der horizontalen Fläche ist,
  • - die Punkte Ma, Ma* ua jeweils die Projektionen der Punkte des Quellenbilds M, des Zielbilds M* und der Objektpunkt u des Raumes sind,
  • - der Winkel β = (Pua, Pu) der Winkel zwischen dem Lichtstrahl Pu und seiner Projektion Pua auf der horizontalen Fläche ist.
  • Hiernach werden Relationen gewählt, um diese sphärischen Koordinaten α, β (oder Winkel α, β), in der absoluten Markierung betrachtet, mit den Koordinaten X*, Y* zu verbinden, in der individuellen Markierung des Zielbildes I* betrachtet.
  • Zur Bestimmung der geometrischen Funktion G&supmin;¹ nach der Erfindung wählt man die Winkelparameter α, β als "lineare Funktionen" der Koordinaten X*, Y* des laufenden Pixels M*.
  • Zu diesen Zweck schreibt man:
  • α = aΘ · X* + bΘ 7a)
  • β = aφ · Y* + bφ 7b)
  • Es ist wohl zu bemerken, daß die Wahl der linearen Relationen zur Definition der Winkel α und β ab jetzt dazu führt, einen neuen Lichtstrahl PW zu betrachten, der ANNÄHERND durch das Pixel M*(X*,Y*) des Zielbildes verläuft, und nicht mehr den reellen Lichtstrahl Pu, der exakt durch das Pixel M*(X*,Y*) verläuft. Diese Wahl der Näherung, die, wie zuvor gesehen, führt dazu, daß das neu aufgebaute Bild nicht "exakt" ist, wie nach dem Stand der Technik, sondern "angenähert". Allerdings hat das neu aufgebaute Bild nach der Erfindung, mit der gewollten Perspektivenänderung, sehr nahe am "exakten" Bild liegende Eigenschaften, wobei optische Abweichungen zudem möglichst korrigiert werden. Bei der Näherung der Erfindung wird vorausgesetzt, daß der bei PWa auf der horizontalen Fläche projizierte Lichtstrahl PW annähernd mit dem reellen Lichtstrahl Pu übereinstimmt und die von den linearen Relationen 7a), 7b) definierten sphärischen Koordinaten aufweist. Die Projektionen PWa, Pua der Strahlen PW, Pu werden ebenfalls als annähernd übereinstimmend vorausgesetzt.
  • In den linearen Relationen 7a) und 7b) hängen die Parameter aΘ, bΘ und aφ, bφ nur vom Richtungs- Θ* und dem Positionswinkel φ* sowie dem Maßstabsfaktor d* ab, d. h. der Position des Zielbildes I* in der absoluten Markierung.
  • In bezug auf Fig. 4B sind die Dimensionen des Zielbildes 2Vx* parallel zur Achse O*X'*, und 2Vy* parallel zur Achse O*Y'* (im besonderen Fall der Fig. 4B, Vx* = V*). Die Dimensionen Vx* und Vy* werden in der Anzahl Pixel ausgedrückt, d. h.:
  • X* ε[-Vx*, Vx*] im Winkelintervall [-ΔΘ*, +ΔΘ*]
  • Y* ε[-Vy*, Vy*] im Winkelintervall [-Δφ*, + Δφ*]
  • Auf Fig. 7B stellt man fest, daß wenn
  • X* = 0 ergibt, daß α = Θ*
  • X* = ± Vx* ergibt, daß α = Θ* ± ΔΘ*
  • was macht, daß
  • α = (ΔΘ*/Vx*)X* + Θ* 8a)
  • Man definiert Dx* gleich der Anzahl Pixel im Bild I* über den zu Vx* parallelen Radianten. Was es ermöglicht, zu schreiben, daß:
  • (Vx*/ΔΘ*) = Dx*
  • Woraus folgt, daß
  • α = (1/Dx*)X* + Θ* 9a)
  • Mit der Identifizierung der Relation 7a) mit der Relation 9a) folgt, daß:
  • aΘ = (1/Dx*)
  • bΘ = Θ*
  • Der Fachmann berechnet ebenso einfach, daß:
  • β = (Δφ*/Vy*)Y* + φ* 8b)
  • Wobei, wenn vorausgesetzt wird, daß Dy* = Vy*/Δφ* folgt, daß:
  • αφ = 1/Dy
  • bφ = φ*
  • und daß β = (1/Dy*)Y* + φ* 9b)
  • Es wurden folglich die einfachen linearen Relationen bestimmt, die jedes Pixel M* des Zielbildes I* mit einem Lichtstrahl PW verbinden, was eine Näherung des reellen Strahls Pu ist, auf dem sich M* befindet.
  • Diese Relationen
  • α = (1/Dx*)X* + Θ* 9a)
  • β = (1/Dy*)Y* + φ* 9b)
  • ermöglichen es dem Fachmann, die Funktion (371 der gesuchten Relation 5) zu bestimmen:
  • (α, β) = G&supmin;¹ (X*, Y*) 5)
  • Diese Funktion G&supmin;¹ ermöglicht die Berechnung der sphärischen Koordinaten (α, β) des angenäherten Lichtstrahls PW, den man zur Verbindung mit einem bestimmten Pixels M* (X*, Y*) des Zielbildes I* wählt, sobald man die Winkel φ*, Θ* und die Anzahl Pixel pro Radiant Dx*, Dy* dieses Bildes kennt.
  • Die Parameter Dx*, Dy* werden "Auflösung" des Zielbildes genannt und sind Funktionen des Ziel-Maßstabsfaktors d* und der Umgrenzung des Zielbildes Vx*, Vy*. Tatsächlich wird in bezug auf die Fig. 7A und 7B ersichtlich, daß:
  • tg ΔΘ = Vx*/POa*
  • POa* = d* · cos φ*
  • womit Dx* = (1/Vx*) Arctg ((Vx*/d* · cosφ*)
  • womit andererseits:
  • tg Δφ* = Vy*/d*
  • womit: Dy* = (1/Vy*) Arct (Vy*/d*)
  • Diese Funktion G&supmin;¹ enthält folglich die Parameter Θ*, φ* und d*, die kontinuierlich anwenderbedingt variieren können. Nach der Erfindung wurde diese Funktion jedoch ausreichend einfach gewählt, um in Echtzeit berechenbar zu sein und zugleich eine korrekt neu aufgebautes Bild zu liefern, wie weiter unten ersichtlich wird.
  • B3/ Berechnung der geometrischen Funktion F zur perspektivischen Übertragung nach der Erfindung
  • Jetzt müssen anhand der bekannten sphärischen Koordinaten (α, β) des gewählten angenäherten Lichtstrahls die Koordinaten (X, Y) des Punktes M des Quellenbildes I an seiner individuellen Markierung bestimmt werden, wobei sich dieser Punkt M auf demselben, mit dem exakten Lichtstrahl Pu annähernd übereinstimmenden Lichtstrahl PW befindet.
  • In bezug auf Fig. 2, die eine perspektivische Quellenfläche I in ihrer individuellen Markierung (PX, PY, PZ) darstellt, wird ein Punkt M vollständig definiert mit der Kenntnis:
  • - des Winkels A = (PM', PO),
  • - des Winkels B = (PM, PM'),
  • wobei M' die Projektion von M auf der Achse X' auf der Quellenbildfläche I ist,
  • - und des Maßstabsfaktors d = PO,
  • der dem Abstand zwischen dem gemeinsamen Fluchtpunkt P, als absoluter Ursprung dienend, und dem Punkt O, dem geometrischen Zentrum des Bildes I, entspricht.
  • Dabei sah man zuvor in bezug auf die Fig. 3B, daß: MM' = Y
  • und MM" = X.
  • In bezug auf Fig. 2 berechnet man:
  • X = d · tgA 10a)
  • Y = d · tgB/cos A 10b)
  • In bezug auf diese Fig. 2 sucht man jetzt die Definition des Punktes M nicht nur an seiner individuellen Markierung, sondern an der absoluten Markierung.
  • In bezug auf Fig. 1A geht man von der individuellen Markierung zur absoluten Markierung über, indem man eine schrittweise Drehung φ (TILTING) und eine Drehung Θ (PANNING) an der optischen Achse PZ der Quellenbildfläche vornimmt, um sie auf die Achse PZa der absoluten Markierung zu bringen.
  • Man kann so folgende Formeln der Markierungsänderung schreiben:
  • woraus man nach der Berechnung erhält:
  • B = arcsin(cos β · cos(α - Θ)sinφ + sinβ cosφ) 11b)
  • Die Verbindung der Relationen 3a) und der Relationen 10a), 10b) ergibt die zwischen (X,Y) und (α, β) gesuchte Relation F. Diese Relation ist exakt und folglich kompliziert, doch es ist zu bemerken, daß sie nicht von den Parametern Θ und φ des Quellenbildes abhängt, die fest und A PRIORI bekannt sind, und den Paaren (α, β). Mit der Festlegung A PRIORI einer bestimmten Reihe an Paaren (α, β) kann die Funktion F tabelliert werden, womit die schwierigen Berechnungen aufgrund der Komplexität der Funktion F umgangen werden können. Auch die Zieldistorsionen können in der tabellierten Funktion berücksichtigt werden. Je zahlreicher die A PRIORI vorgesehenen Paare (α, β) sind, desto präziser ist die Bestimmung der Punkte M(X,Y).
  • B4/ Bildverarbeitungssverfahren für den Zielbildaufbau mittels der geometrischen Funktionen F und G&supmin;¹
  • Der Anwender definiert die Parameter des Zielbildes I*, das er aufbauen will. Diese Parameter sind der Richtungswinkel Θ*, der Positionswinkel φ* und der Maßstabsfaktor d*.
  • Der Erfindung zufolge besteht das Bildverarbeitungsverfahren zum Aufbau des Zielbildes I* zuerst aus der Definition der Koordinaten (X*, Y*) jedes Pixels M* dieses Zielbildes I*. Und dann für jedes der Pixel:
  • M* (X* Y*),
  • dieses Verfahren wendet die Funktion G&supmin;¹, definiert durch:
  • (α, β) = G&supmin;¹ (X*, Y*) 5)
  • in der:
  • α = (1/Dx*)X* + Θ* 9a)
  • β = (1/Dy*)Y* + φ* 9b)
  • Die Anwendung der perspektivischen geometrischen Übertragungsfunktion G&supmin;¹ (5) ermöglicht es folglich anhand der Koordinaten eines bestimmten Pixels M*, an der individuellen Markierung des Zielbildes I*, auf einfache Art die sphärischen Koordinaten (α, β) des geradlinigen Lichtstrahls PW zu berechnen, der annähern über dieses Pixel M* und den gemeinsamen Fluchtpunkt P aller Bilder verlauft, dessen Ursprung zudem die absolute Markierung ist, an der die Winkel α, β gemessen werden.
  • Nach der Berechnung der sphärischen Koordinaten (α, β) des annähernden Lichtstrahls PW beinhaltet das Bildverarbeitungsverfahren die Suche in einer Tabelle für jedes sphärische Koordinatenpaar (α, β), definiert an der absoluten Markierung der Koordinaten (X, Y), eines Punktes M des Quellenbildes an der Schnittstelle des annähernden Lichtstrahls PW mit diesem Quellenbild, wobei die Koordinaten an der absoluten Markierung dieses Quellenbildes gemessen werden.
  • Zu diesem Zweck bestimmt man in einem ersten Schritt eine gewisse Reihe sphärischer Koordinatenpaare (α, β), die man (α&sub0;, β&sub0;) kennzeichnet, und man berechnet für jedes gegebene Paar (α&sub0;, β&sub0;) die Koordinaten (X, Y), unter Anwendung der perspektivischen geometrischen Übertragungsfunktion F
  • (X,Y) = F(α&sub0;, β&sub0;) 3a)
  • mit X = d · tgA 10a)
  • Y = d · tgB/cos A 10b)
  • wobei in diesen Relationen die Zwischenparameter A und B die trigonometrische Funktionen 11a) und 11b) der sphärischen Koordinaten (α&sub0;, β&sub0;) sind, in denen die Parameter des Quellenbildes I eingreifen, die der Richtungswinkel Θ und der Positionswinkel φ sind. Für jedes Paar (α&sub0;, β&sub0;) sind die Koordinaten X und Y des Punktes M folglich reine Funktionen des Maßstabsfaktors d des Quellenbildes und der Winkel Θ und φ, die A PRIORI bei diesem Bildverarbeitungsverfahren bekannte Werte sind. Folglich werden bei diesem ersten Schritt die Paare (α&sub0;, β&sub0;) erhalten und dann werden die entsprechenden Koordinatenpaare (X,Y) berechnet und in einer Tabelle unter den Adressen (α&sub0;, β&sub0;) gespeichert.
  • Die Tabelle wird verwendet, indem jedes mittels G&supmin;¹ berechnete Paar (α,β) mit einer Adresse (α&sub0;, β&sub0;) der Tabelle in Verbindung gebracht wird, nahe der Auflösung der Tabelle. An dieser Adresse befindet sie ein gespeichertes, vorausberechnetes Koordinatenpaar (X,Y), das gelesen wird.
  • Da es zu diesem Zeitpunkt die Koordinaten des Punktes M des Quellenbildes hat, das am besten mit dem Pixel M* des Zielbildes übereinstimmt, beinhaltet das Verfahren die Bestimmung, eventuell über Interpolation, des Wertes des Luminanzniveaus dieses Punktes M, und dann die Übertragung dieses Luminanzniveaus auf das Pixel M* des aufzubauenden Zielbildes.
  • Diese Operationen werden für jedes Pixel des Zielbildes wiederholt, bis das gesamte Zielbild aufgebaut ist.
  • Wenn der Anwender neue Parameter φ*, Θ* und d* für das Zielbild wählt, wird ein neues Zielbild aufgebaut, wobei das Quellenbild eine unveränderte Position im dreidimensionalen Raum mit den unveränderten Parametern Θ, φ und d beibehält.
  • Bei den vom Anwender vorgegebenen Variationen der Position und des Maßstabsfaktors des Zielbildes behält dieses Zielbild dennoch seinen gemeinsamen Fluchtpunkt mit dem Quellenbild bei.
  • C/ Bildverarbeitungsgerät zur Umsetzung der geometrischen Funktionen F und G&supmin;¹
  • Fig. 13 zeigt, in Funktionsblöcken, ein Bildverarbeitungsgerät 200 zum Aufbau eines Zielbildes I* anhand eines Quellenbildes I unter Umsetzung der perspektivischen geometrischen Übertragungen G&supmin;¹ und F, wie zuvor definiert. Allgemein wird dieses Gerät nachstehend "Adressenrechner", Verweis 200, bezeichnet, anhand der Adresse (X*,Y*) eines Pixels M* im Zielbild I* mit der Berechnung der Adresse (X,Y) des entsprechenden Punktes im Quellenbild I betraut.
  • Auf Fig. 13 ist der Block 210 ein Speicherblock, der die Parameter φ*, Θ* und d* speichert, vom Anwender gewählt, um das Zielbild I* in Echtzeit aufzubauen (d. h. ca. 20 Bilder Pro Sekunde), mit oder ohne den Parameteränderungen des Zielbildes. Der Block 201 ist ein Block, der die Umgrenzung des Zielbildes I* definiert, d. h. die Parameter Vx* und Vy* anhand der vom Anwender gewählten Parameter. Der Block 113 ist ein Adressengenerator, der an der individuellen Markierung des Zielbildes die verschiedenen Adressen (X*,Y*) jedes Pixels M* dieses Zielbildes I*, also eine Adresse pro Pixel, liefert.
  • Der Block 220 erhält die Daten des Blocks 113 und 210. Im Block 220 wird die Funktion G&supmin;¹ umgesetzt.
  • Die Blöcke 113, 201 und 210 sind z. B. Speicherzonen. Die Verbindungen zwischen den Blöcken 113, 201 und 210 sind Zugangssysteme zu diesen Speichern.
  • Fig. 8 zeigt die Art, wie die Funktionen G&supmin;¹ und F in dem Adressenrechner 200 verwendet werden.
  • Jedem Paar (X*, Y*), geliefert vom entsprechenden Block 113, unter Berücksichtigung der Winkel Θ* und φ* und des Parameters d*, d. h. der Parameter Dx*, D* entspricht ein genäherter Strahl PW, gekennzeichnet durch die sphärischen Koordinaten α und β, gegeben durch die Relationen 9a) und 9b).
  • Bei der Abtastung des Zielbildes I* in dem Maße, in dem der Block 113 die Pixelkoordinaten der verschiedenen Zeilen dieses Bildes nach und nach liefert, tastet der Lichtstrahl PW eine Zone K* einer Kugel S des auf Fig. 8 dargestellten Zentrums P ab. Jeder annähernde Strahl PW überschneidet die Kugel S in Zone K* an einem Punkt K. Es gibt ebenso viele Schnittstellen K in der Zone K* auf der Oberfläche der Kugel S wie Lichtstrahlen PW, d. h. Pixel in I*. Jedem dieser Punkte K der Kugel S wird ein berechnetes Paar α, β zugeordnet. Die Dimension der abgetasteten Oberfläche K* auf der Kugel S hängt von den weiter oben definierten Parametern ΔΘ* und Δφ* ab, d. h. den Dimensionen VX* und Vy* des Zielbildes I* (bei gegebenen Dx* und Dy*).
  • Die mit den Relationen 5) und 9a), 9b) definierte geometrische Übertragung G&supmin;¹ besteht folglich aus einer "Projektion" des Zielbildes I* auf die sphärische Zone K*. Über diese Projektion bestimmt man die Punkte K(α, β) von K* entsprechend den Punkten M*(X*,Y*) von I*. Diese Bestimmung wird dank der mit den Block 220 des Diagramms der Fig. 13 symbolisierten Rechenmittel in Echtzeit vorgenommen.
  • Die auf Fig. 8 dargestellte Kugel S ist eine rein theoretische Konstruktion, dafür bestimmt, dem Fachmann verständlich zu machen, wie die komplizierte Funktion F zu tabellieren ist.
  • Zum Tabellieren der Funktion F bestimmt man A PRIORI eine "Auflösung" an Pixeln pro Radianten auf der Kugel S, die mindestens so gut wie jede mögliche "Auflösung" des Zielbildes I* ist. Man wählt A PRIORI eine Menge an Pixeln K&sub0; der Adresse (α&sub0;, β&sub0;), über die Oberfläche der Kugel verteilt, hier in der betrachteten Zone K*. Die Adresse (α&sub0;, β&sub0;) jedes gegebenen Pixels K&sub0; wird von den sphärischen Koordinaten (α&sub0;, β&sub0;)des Radius PK&sub0; der Kugel S gebildet. Für jedes mit einem gegebenen Pixel K&sub0; verbundene Paar (α&sub0;, β&sub0;)berechnet man mittels der zuvor beschriebenen trigonometrischen Funktion F die Koordinaten (X,Y) der Punkte M des entsprechenden Quellenbildes I. Tatsächlich sind die Koordinaten X, Y über die Relationen 10a), 10b) und 11a), 11b) für jedes Paar (α, β) ab dem Moment ein für allemal fest und bestimmbar, an dem die Parameter φ, Θ und d des Zielbildes I bekannt sind.
  • So ist das Quellenbild I nach der Erfindung hypothetisch ein festes Bild, und die Parameter sind A PRIORI bekannt. Die von F anhand der sphärischen Koordinaten (α&sub0;, β&sub0;) berechneten Koordinatenpaare (X,Y) können folglich in der Speicherzone 204, auch (LUT) TABLE bezeichnet, an den gewählten, von den Paaren (α&sub0;, β&sub0;) gebildeten Adressen gespeichert werden.
  • Anders gesagt gibt man in eine Tabelle (LUT) für jede Adresse (α&sub0;, β&sub0;), von den gewählten sphärischen Pixelkoordinaten K&sub0;, gebildet, die vorausberechneten Koordinaten (X,Y) der Punkte M des Quellenbildes I.
  • Jetzt berechnen die Mittel 220 in dem auf Fig. 13 dargestellten Adressenrechner mit der Funktion G&supmin;¹ für jedes Paar (X,Y) in Echtzeit ein Paar (α, β).
  • Diese Rechenmittel 220 beinhalten z. B. zwei numerische "Neigungsgeneratoren", der eine, um α zu liefern, indem er die lineare Relation 9a) umsetzt, und der andere, um β zu liefern, indem der die lineare Relation 9b) umsetzt. So wurde mittels der Erfindung die Funktion G&supmin;¹, die Variablen enthält, die jedesmal dann wechseln, wenn der Anwender neue Einstellungen des Zielbildes wählt, ausreichend vereinfacht, um in Echtzeit berechnet zu werden.
  • In bezug auf die Fig. 13 erhält der folgende Block 204 das Ergebnis der im Block 220 vorgenommenen Berechnungen, bestehend aus berechneten Paaren (α, β). Dieser Block 204 ist die Tabelle (LUT), in der die Ergebnisse der Berechnungen mit der Funktion F gespeichert werden, auf die A PRIORI gewählten Paare (α&sub0;, β&sub0;) angewandt, d. h. die Punkte M(X,Y) entsprechend den Punkten K&sub0; (α&sub0;, β&sub0;). Die Adressiermittel suchen in der Tabelle 204 die Adresse (α&sub0;, β&sub0;), die am besten, nahe der Auflösung der Tabelle, der berechneten Adresse (α, β) entspricht, geliefert vom Rechenblock 220. Und an dieser Adresse (α&sub0;, β&sub0;) befinden sich die Koordinaten (X,Y) eines Punktes M des Quellenbildes I, das somit mit dem Anfangspixel M*(X*,Y*) des Zielbildes I* in Verbindung gebracht wird.
  • Beim Aufbau des Zielbildes nach der Erfindung kommen folglich zwei verschiedene Näherungen ins Spiel:
  • - Eine erste Näherung bei der Berechnung der sphärischen Koordinaten (α, β) eines angenäherten Leuchtradius PW anstatt eines realen Leuchtradius Pu, aufgrund der Tatsache, daß man für die Funktion G&supmin;¹ vereinfachte lineare Relationen von X*, Y* wählt, anstatt der exakt verbindenden Relationen (X*,Y*) zu (α, β).
  • - Eine zweite Näherung bei der Bestimmung der Punkte M(X,Y), aufgrund der Tatsache, daß man die Koordinaten (X,Y) als Paare liefert, mit der Funktion F A PRIORI exakt berechnet, was zuvor bestimmten und tabellierten Paaren (α&sub0;, β&sub0;) entspricht, und nicht den reell mit G&supmin;¹ berechneten Paaren (α, β).
  • Der Block 204, z. B. eine Tabelle vom Typ LUT (auf englisch LOOK UP TABLE), kann bei einem Initialisierungsschritt direkt geladen werden, mit Hilfe der im Funktionsblock 21 enthaltenen Daten in bezug auf das Quellenbild, und auf die man die Funktion F für eine vorbestimmt Anzahl Paare (α&sub0;, β&sub0;) vornimmt.
  • Der Block 21 ist ein Speicherblock, der die Parameter des Quellenbilds φ, Θ und d speichert.
  • D/ Bildverarbeitungsgerät mit Festkameras und einem eine mobile Kamera simulierenden System
  • Die Erfindung betrifft zugleich ein Bildverarbeitungsgerät, bestehend aus:
  • - Einem System aus n reellen Festkameras, derart angeordnet, daß ihre individuellen Aufnahmefelder ineinander übergehen, um ein einziges Weitwinkel- Aufnahmefeld für die Beobachtung einer Panoramasicht zu bilden,
  • - einem Bildaufbausystem, das eine sogenannte virtuelle, mobile Kamera simuliert, die kontinuierlich die Panoramasicht abtastet, um in Echtzeit ein sogenanntes Ziel-Unterbild zu liefern, das einem willkürlichen Abschnitt des Weitwinkel- Aufnahmefelds entspricht und anhand von angrenzenden, von den n reellen Kameras gelieferten Quellenbildern aufgebaut ist, wobei diese virtuelle Kamera einen mit dem der reellen Kameras übereinstimmenden oder naheliegenden Fluchtpunkt hat.
  • Diese Erfindung findet ihre Anwendung im Bereich der Fernsehüberwachung oder im Bereich des Fernsehens, wenn Aufnahmen erforderlich sind, die breite Blickfelder abdecken, wie z. B. bei der Aufnahme von Sportveranstaltungen. Die Erfindung findet auch ihre Anwendung im Bereich des Automobilbaus, um Breit- und Rundblick-Rückspiegel ohne toten Winkel herzustellen.
  • Wie die Anwendung des zuvor beschriebenen Systems zum Bild-Neuaufbau hat die Erfindung das Ziel, ein Gerät bereitzustellen, das eine mobile Kamera simulieren kann, die ein von den n Festkameras abgedecktes Weitwinkelfeld abtastet, wobei die Blickfelder ineinander übergehen.
  • Das Ziel der vorliegenden Erfindung ist insbesondere die Bereitstellung eines solchen Geräts, das eine Kamera simuliert, die sämtliche Möglichkeiten enthält, die eine reell existierende Kamera haben könnte: D. h., ausgehend von einem festen Beobachtungspunkt, Möglichkeiten der horizontalen Winkelverschiebung nach links oder rechts eines zu beobachtenden oder zu überwachenden Panoramafeldes, Möglichkeiten der vertikalen Winkelverschiebung nach oben oder unten dieses Panoramafeldes, und zudem Zoom- Möglichkeiten auf einen Flächenteil dieses Feldes.
  • Dabei stellen sich technische Probleme beim Bildaufbau. Tatsächlich, um die Möglichkeiten einer reellen Kamera zu liefern, muß die virtuelle Kamera zuerst den Bildaufbau in Echtzeit ermöglichen. Dies bedeutet, daß die Rechenzeit ausreichend kurz sein muß. Doch der Aufbau des Zielbildes wirft im vorliegenden Fall in Wirklichkeit technische Probleme bei der Berechnung komplizierter geometrischer Figuren auf.
  • Ein erstes Problem liegt an der Tatsache, daß obwohl man über eine Vielzahl reeller Kameras verfügt, die aneinander angrenzend und derart angeordnet sind, daß das jeweils angeordnete Feld keinerlei Zone des aufzubauenden Panoramabereichs ausläßt und man so über alle Daten für den Aufbau des Zielbildes verfügt, dennoch an jeder Grenze zwischen den Kameras, beim Übergang von einem von einer Kamera gelieferten Bild auf ein anderes Bild einer angrenzenden Kamera, zwischen zwei Zonen des von diesen beiden Kameras aufgenommenen Bereichs starke Bildverzerrungen bestehen, die alleine auf den verschiedenen Aufnahmewinkel der beiden Kameras zurückzuführen sind.
  • Ein zweites Problem liegt der Tatsache zugrunde, daß in den meisten Fällen zur Durchführung einer Überwachung über ein Weitwinkelfeld und unter Verwendung einer möglichst geringen Anzahl reeller Kameras, die verwendeten Kameras selbst eine Optik vom "Weitwinkeltyp" (in englisch FISH-EYE) aufweisen. Dieser Objektivtyp erzeugt bedeutende und typische Verzerrungen. Insbesondere die horizontalen und vertikalen Formen erhalten eine Kreisbogenform.
  • Daraus ergibt sich, daß wenn die erwähnten Probleme nicht gelöst werden, die über zwei Zonen reichenden Zielbilder des Aufnahmebereichs von zwei unterschiedlichen Kameras sehr unangenehm anzuzeigen und völlig unpräzise sind.
  • Daher muß die geometrische Übereinstimmung der von verschiedenen reellen Festkameras kommenden Bildteile bewältigt werden, unter Berücksichtigung und Ausgleich der Verzerrungen aufgrund:
  • - der unterschiedlichen Aufnahmewinkel,
  • - der optischen Objektivfehler der reellen Festkameras.
  • Außerdem muß die Bildverarbeitung in Echtzeit bewältigt werden.
  • Ein Ziel der Erfindung ist folglich die Bereitstellung eines Gerätes, das die Funktion des Neuaufbaus des Zielbildes in Echtzeit gewährleistet, unter Umgehung der Notwendigkeit, komplexe geometrische Übertragungen zu verwenden, die nur mit kostspieligen Handelsprodukten erzielt werden können, wie bereits zuvor erwähnt.
  • Dieses Ziel wird nach der Erfindung mit einem nachstehend beschriebenen Bildverarbeitungsgerät erreicht.
  • Mit diesem Gerät erhält der Anwender, der ein Panoramabild überwacht, genau denselben Komfort und dieselben Leistungen wie ein Anwender, der über eine mobile Kamera verfügt, mit Zoom und den mechanischen Mitteln, um die Ausrichtungsvariation der optischen Achse vorzunehmen, d. h., um Positions- und Richtungsänderungen des Sichtbereichs durchzuführen. Der Vorteil ist, daß die mechanischen Mittel vermieden werden. Diese mechanischen Mittel, die aus mechanischen Schwenkmotoren für den Positions- und Richtungswinkel sowie einem Motor zum Einstellen des Zooms verfügen, sind immer mit Nachteilen verbunden: Erstens können sie blockieren, und außerdem sind die vollzogenen Versetzungen sehr langsam. Außerdem sind sie sehr kostspielig. Und schließlich, da sie meist im Freien installiert sind, leiden sie schnell unter Wettereinflüssen. Die verwendeten elektronischen Bildverarbeitungsmittel nach der Erfindung vermeiden all diese Nachteile, denn sie sind präzise, zuverlässig, sehr schnell und einfach zu bedienen. Außerdem können sie im Innern angeordnet werden, geschützt vor Wettereinflüssen. Zudem sind die elektronischen Mittel für eine automatische Arbeitsweise leicht zu programmieren. Und letztlich sind sie weniger kostspielig als die mechanischen Mittel.
  • So erhält der Anwender, mit den Mitteln der Erfindung, zuerst ein angenehm zu betrachtendes Bild, und zudem eine größere Präzision und Möglichkeiten zum Ändern des Blickfelds als wenn er über mechanische Mittel verfügen würde. Außerdem kann ein Panoramafeld eines größeren Winkels beobachtet werden, da man Felder zu 180º oder selbst 360º beobachten kann, je nach der Anzahl verwendeter Kameras.
  • In Sachen Überwachung stellt dies einen großen Fortschritt dar. Die Tatsache, mehrere Kameras zu verwenden, um die notwendige Datenaufnahme für den Neuaufbau des Bildes vorzunehmen, ist kein Nachteil, denn eine solche feste Kameraanordnung mit CCD (Ladungsspeicherelementen) ist inzwischen kostengünstiger als mechanisch Vor richtungen zum Ändern der Position, der Richtung, zum Schwenken und für den Zoom, in Verbindung mit einer einzigen reellen mobilen Kamera.
  • D1/ Das Aufnahmesystem
  • Fig. 10 zeigt im Schnitt eine mögliche Anordnung von mehreren reellen Festkameras zum Aufzeichnen der Daten in bezug auf einen Blickwinkel von 180º. Die Aufzeichnung dieser Panoramasicht wird mit drei Festkameras C1, C2, C3 vorgenommen. Die optischen Felder der Kameras sind derart, daß absolut alle Details der Panoramasicht von der einen oder anderen Kamera aufgezeichnet werden, so, daß kein Objekt der Überwachung entgeht. Die Kameras sind angeordnet, um einen gemeinsamen Fluchtpunkt P (in Englisch VIEW POINT) oder sehr naheliegende Fluchtpunkte zu haben.
  • Die Achsen PZ1, PZ2, PZ3 stellen jeweils die optischen Achsen der Kameras C1, C2, C3 dar; und die Punkte 01, 02, 03 stellen jeweils die geometrischen Zentren der Bilder I1, I2, I3 auf den Bildflächen der optischen Achsen dar.
  • Der Fachmann kann, ohne weitere Erläuterungen der verschiedenen Anordnungen der Festkameras untereinander verschiedenste Beobachtungsarten einer Panoramasicht schaffen.
  • Allgemein enthält das Aufnahmegerät eine Vielzahl von n reellen Festkameras, mit festem und bekanntem Fokus, derart aneinander angrenzend angeordnet, daß ihre individuellen Aufnahmefelder ineinander übergreifen, um ein Weitwinkel-Blickfeld abzudecken. So liefern die n aneinandergrenzenden Festkameras n aneinandergrenzende Festbilder, so, daß dieses Aufnahmegerät eine Panoramasicht überwachen kann. Die optischen Felder der Kamera sind derart, daß alle Details der Panoramasicht von der einen oder anderen Kamera aufgenommen werden, um kein Objekt von der Überwachung auszuschließen.
  • Um dieses Resultat zu erlangen sind diese angrenzenden n Festkameras zudem derart angeordnet, daß ihre optischen Zentren P oder auch Fluchtpunkte (oder in englisch VIEW POINT) übereinstimmen.
  • Tatsächlich können die Fluchtpunkte der n Kameras physisch nicht übereinstimmen. Nachstehend wird jedoch davon ausgegangen, daß die Übereinstimmungsbedingung ausreichend erfüllt wird, wenn der Abstand, der jeden dieser Fluchtpunkte voneinander trennt, in bezug auf deren Abstand zur gefilmten Panoramasicht gering ist, wenn z. B. ihr gegenseitiger Abstand 5 cm oder 10 cm, und der Abstand zur Panoramasicht 5 m beträgt. So wird die Übereinstimmungsbedingung erfüllt, wenn das Verhältnis dieser Abstände der Größenordnung von oder größer als 50 ist.
  • D2/ Bildaufbau mit den Kameras
  • Das Ziel der Erfindung ist die Bereitstellung eines System zum Neuaufbau eines numerischen Bildes, das eine mobile Kamera simuliert, dazu in der Lage, mit den vom Anwender gewählten Einstellungen in Echtzeit ein numerisches Bild eines beliebigen Teils oder ein Unterbild der von den n Festkameras aufgezeichneten Panoramasicht zu liefern.
  • Die n Kameras liefern jeweils die sogenannten numerischen Quellenbilder I1..., Ii, Ij..., In. Im folgenden werden z. B. die Quellenbilder Ii und Ij betrachtet, von zwei reellen unter den n Festkameras aufgenommen.
  • In bezug Fig. 9A bilden diese reellen angrenzenden Festkameras Ci und Cj jeweils Bilder der Panoramasicht der angrenzenden Quellenbildflächen Ii und Ij. In bezug auf Fig. 9B definiert man die absolute Markierung PXa, PYa, PZa orthogonaler Achsen, in denen die Achsen PXa und PZa horizontal sind, und die Achse PYa vertikal ist.
  • Die Quellenbilder Ii und Ij sind Numerisch, und jedes Pixel M dieser Bilder ist mit seinen Koordinaten mit einer individuellen Markierung an jede Bildfläche gebunden, wie zuvor in bezug auf die Fig. 3A und 3B beschrieben wurde.
  • Nach der Aufstellung der an jede Bildfläche der Kameras gebundenen individuellen Markierungen können diese festen Quellenbildflächen an die terrestrische Markierung gebunden werden über:
  • - ihren Richtungswinkel (PANNING) Θi, Θj,
  • - ihren Positionswinkel (TILTING) φi, φJ.
  • Auf der Fig. 9A sind die Achsen PTai und PTaj die Projektionen der optischen Achsen PZ1 und PZj, die Punkte Oai, Oaj sind die Projektionen optischen Zentren Oi und Oj, und die Segmente Iai und Iaj sind die Projektionen der Bildflächen Ii und Ij auf der Fläche der Figur, die die horizontale Fläche (PZa, PXa) der absoluten Markierung ist.
  • Folglich ist auf der Fig. 9A Θi = (PTai, PZa); Θj (PTai, PZa). Die Winkel φi und φj in bezug auf die Quellenbilder Ii und Ij können wie zuvor in bezug auf die Fig. 6A bestimmt werden, so, daß φi = (PZi, PTai) und φj = (PZj, PTaj).
  • Fig. 11a zeigt die Seite der angrenzenden Bilder Ii und Ij der von den beiden angrenzenden Festkameras Ci und Cj gelieferten Panoramasicht. Auf Fig. 11A sind, zur vereinfachten Darlegung, die Bilder Ii und Ij beide mit der Vorderfläche der Figur dargestellt, während diese Bilder in Wirklichkeit untereinander einen Winkel gleich der optischen Achsen der Festkameras bilden. Auf diesen Bildern kann der Anwender die Ansicht beliebiger, mit der Linie Jo abgegrenzter Unterbilder mehr oder weniger links oder rechts, mehr oder weniger oben oder unten wählen, mit der den Festkameras entsprechenden Vergrößerung oder einer darüberliegenden Vergrößerung oder eventuell einer darunterliegenden Vergrößerung.
  • Die simulierte mobile Kamera ist dazu in der Lage, das Zielbild I* anhand der Quellenbilder Si, Sj aufzubauen, abgegrenzt mit der Linie Jo der Fig. 11A. Diese mit C* bezeichnete Kamera wird nachstehend virtuelle Kamera bezeichnet, aufgrund der Tatsache, daß sie eine nicht reell existierende Kamera simuliert. Diese mobile Kamera ist natürlich nicht auf die Betrachtung der beiden Bilder Ii, Ij begrenzt. Sie kann alle Quellenbilder I1 bis In betrachten, wie zuvor erwähnt wurde; sie kann eventuell das Zielbild anhand von mehr als zwei angrenzenden Quellenbildern aufbauen.
  • Diese virtuelle Kamera C* wird wie zuvor definiert über:
  • - ihren Richtungswinkel Θ*
  • - ihren Positionswinkel φ*
  • - ihre Auflösung Dx*, Dy*, d. h. ihren Maßstabsfaktor d*, ihre Höhe 2Vy* parallel zu den Spalten und ihre Breite 2Vx* parallel zu den Pixelzeilen. Ihr Fluchtpunkt stimmt mit den angenäherten Fluchtpunkten der reellen Festkameras und mit dem absoluten Ursprung P überein. Der Punkt O* ist das geometrische Zentrum des Zielbildes I*.
  • Die Fig. 9A zeigt die mit Ia* bezeichnete Projektion der Bildfläche der virtuellen Kamera auf der horizontalen Fläche, und ihre optische Achse PTa* verläuft über die Projektion Oa* durch das geometrische Zentrum O* des Zielbildes I*.
  • So ist die virtuelle Kamera mit der Änderung der Richtungs- und Positionswinkel Θ* und φ* und ihres Maßstabsfaktors d* sowie ihrer Umgrenzung Vx*, Fy* absolut einer mobilen Kamera in Echtzeit gleichzustellen, die das Weitwinkel-Blickfeld abtastet, das von den miteinander verbundenen Blickfeldern der verschiedenen reellen Festkameras gebildet wird.
  • In bezug auf Fig. 11A ist zu bemerken, daß die virtuelle Kamera C* einen kleinen Teil (Unterabschnitt) des mit Jo abgegrenzten Weitwinkel-Blickfelds betrachten kann, um ein vergrößertes Bild I* zu liefern, z. B. derselben endgültigen Dimension wie jedes der Bilder I1...In, von jeder der reellen Kameras geliefert, unter Verwendung ihres variablen Fokus PO*. Auch ist zu bemerken, daß die Versetzung des Blickfeldes der mobilen Kamera C* kontinuierlich und willkürlich sein kann.
  • Nachstehend wird der Fall behandelt, bei dem das Jo entsprechende Blickfeld sich beiderseits (Si, Sj) der bei LO angrenzenden Bilder 1Iiund Ij befindet, von den beiden angrenzenden Kameras geliefert. Der Fachmann kann dies später auf andere Fälle übertragen, die mehr als zwei Quellenbilder betreffen.
  • In bezug auf Fig. 11B, im Falle das von der virtuellen Kamera C* aufgebaute Bild I* mehr als zwei verschiedene Bilder enthält, wird das eine 11* anhand der im numerischen Bild 11 enthaltenen Informationen Si aufgebaut, und das andere Ij* anhand der im numerischen Bild Ij enthaltenen Informationen Sj aufgebaut. Auf Fig. 9A zeigen Iai* und Iaj* die Projektionen der Zielbilder Ii* und Ij* auf der horizontalen Fläche.
  • Wie zuvor beschrieben definiert man jetzt für das numerische Zielbild I* eine individuelle rechteckige Koordinatenmarkierung. Jedes Pixel M* der Zielbildfläche I* ist folglich über seine Koordinaten auf dieser individuellen Zielmarkierung markiert.
  • Zudem definiert man anhand der Dimension der Pixel Vx*, Vy* des Zielbildes eine optische Definition dieses Bildes, d. h. die Definition der Anzahl Pixel pro Radiant Dx* nach der horizontalen Richtung und die Anzahl Pixel pro Radiant Dy* nach der vertikalen Richtung.
  • D3/ Zielbild-Aulbauverfahren anhand der Quellenbilder
  • Die Aufgabe der numerischen Bildverarbeitungsmittel nach der Erfindung ist folglich der Aufbau in Echtzeit des "Zielbildes", geliefert von der virtuellen Kamera, ausgehend von den "Quellenbildern", geliefert von den reellen Festkameras.
  • Man sah, daß beim Aufbau des Zielbildes I* sich ein technisches Problem stellte, da die linken und rechten Ii und Ij angrenzenden, von den reellen angrenzenden Kameras geliefert, wie in der Form von numerischen Landschaftsbildern jeweils auf den Fig. 12A und 12B dargestellt, Verzerrungen aufweisen, die bewirken, daß sie nicht korrekt zusammenpassen: Insbesondere bestimmte Teile der rechten Zeilen sind gekrümmt, die Vertikalen sind nicht vertikal usw. Dies bewirkt, daß sich diese Zeilen bei der Verbindung überschneiden, anstatt ineinander überzugehen. Dazu kommen die Teile des Quellenbildes beiderseits der Verbindung von Teilen der zu beobachtenden Panoramasicht, die aus unterschiedlichen Perspektiven betrachtet werden. Dies führt dazu, daß die Teile des Zielbildes Ii* und Ij* schlecht miteinander verbunden werden, wie auf dem numerischen Zielbild ersichtlich, das als Beispiel auf Fig. 12C dargestellt ist und aus dem lediglichen Aneinanderfügen der angrenzenden linken und rechten Teile der numerischen Bilder der Fig. 12A und 12B gebildet wird.
  • Die vorliegende Erfindung schlägt ein Verfahren und Gerät zum Beheben dieser Fehler und der Bereitstellung eine in Echtzeit neu aufgebauten numerischen Bildes vor, das frei von Verzerrungs- und Perspektivenfehlern ist und bei dem die Teile Ii* und Ij*, aus dem es gebildet wird, derart ineinander übergehen, daß die scharfe Grenze für den Beobachter und Anwender unsichtbar ist.
  • Fig. 12D zeigt das numerische Bild der Landschaft von Fig. 12C, auf der die Verzerrungs- und Perspektivenfehler mit den Mitteln der Erfindung korrigiert wurden.
  • Der kundige Fachmann kann feststellen, daß ein sehr leichter Fehler der horizontalen Linien bestehen bleibt, die leicht abgerundet sind, wie dies der Fall wäre, wenn die Aufnahme direkt von einer reellen Kamera mit einem Weitwinkelobjektiv aufgenommen worden wäre. Dies läßt das neu aufgebaute Bild natürlicher erscheinen.
  • Allerdings kann man feststellen, daß diese einer Weitwinkeloptik gleichzusetzenden Verzerrungen in dem neu aufgebauten Bild der Fig. 12D weitaus geringfügiger sind als bei einem reellen Bild wie dem der Fig. 12A oder 12B. Außerdem besteht die Grenze beim Aufbau des Zielbildes, die man auf Fig. 12C sah, auf der Fig. 12D nicht mehr.
  • Das allgemeine Verfahren zum Aufbau des Zielbildes enthält mehrere Schritte, die von dem weiter unten beschriebenen Signalverarbeitungsgerät umgesetzt werden.
  • Dieses Verfahren besteht zuerst aus einem Schritt, bei dem:
  • - Man jedem Pixel M* mit einer Adresse (X*,Y*) im Zielbild I* einen entsprechenden Punkt M an einer Adresse (X,Y) im Quellenbild zuteilt, wobei diese Adresse definiert wird über:
  • - Den Verweis oder Index der reellen Kamera, die das Quellenbild liefern wird;
  • - die Adresse (X,Y;) des Punktes M in diesem Quellenbild.
  • Das Verfahren enthält dann einen zweiten Schritt, bei dem:
  • - Der wahrscheinlichste Wert der Luminanz Q an diesem Punkt M des Quellenbildes bewertet wird,
  • - dann dieser Luminanzwert dem Pixel M* im Zielbild zugeteilt wird.
  • Diese Schritte werden für alle Pixel M* des Zielbildes I* durchgeführt.
  • Diese Verarbeitungsmittel gewähren dem in Echtzeit neu aufgebauten Zielbild bestmöglich alle Qualitäten eines Bildes, daß der Beobachter direkt mit einer herkömmlichen mobilen Kamera erhalten würde:
  • - minimale Verzerrungen, Perspektivenangleichung,
  • - keine abgeschnittenen Zeilen an der Grenze zwischen zwei angrenzenden Bildern.
  • D4/ Das Bildverarbeitungsgerät
  • Fig. 14 zeigt in der Form von Funktionsblöcken die verschiedenen Elemente des Bildverarbeitungsgeräts nach der Erfindung.
  • Die Blöcke I1, Ii, Ij..., In stehen für n Speicherflächen, deren Ausgänge die n, mit I1, ... Ii, Ij..., In bezeichneten Quellenbilder liefern.
  • Jedes der Quellenbilder ist Aufnahmeparametern zugeteilt, entsprechend der Ausrichtung der reellen Kamera in bezug auf den Aufnahmebereich, sowie einem Maßstabsfaktor. Diese Parameter müssen bekannt sein oder sehr präzise bestimmt werden.
  • Die Anordnung 1 zeigt ein Kontrollsystem, das es dem Anwender ermöglicht, die Parameter in bezug auf die Ausrichtung und Umgrenzung der virtuellen Kamera C* auszuwählen und anzuzeigen.
  • Die Anordnung 100 ist das System für den Bildneuaufbau, das anhand der von den reellen Kameras gelieferten Quellenbilder I1...In die Berechnung des Zielbildes I* ermöglicht, das die virtuelle Kamera C* nach der Ausrichtung und Einstellung mit den vom Kontrollsystem definierten Parametern liefern würde, während diese virtuelle Kamera C* so angeordnet ist, daß ihr Fluchtpunkt mit dem Fluchtpunkt P der reellen Kameras übereinstimmt oder nahe daran liegt.
  • Der Block 10 entspricht Anzeige- oder Aufzeichnungsvorrichtungen, was u. a. ein digitaler Monitor zur Anzeige in Echtzeit und/oder ein Videorecorder zur Aufzeichnung auf Magnetbändern usw. sein kann.
  • Andererseits ist zu bemerken, daß die reellen Kameras analoge Daten liefern können. In diesem Fall werden nicht dargestellte Module mit Analog-Digital-Wandlern zum Aufbau der numerischen Quellenbilder verwendet.
  • Vorzugsweise kann der Fachmann Kameras mit Ladungsspeicherelementen (CCD, in englisch Charge-Coupled Device) verwenden. Diese Art Kameras sind wenig kostspielig, leicht, robust und zuverlässig. Ihre Auflösung ist sehr gut und kann in Zukunft unter Berücksichtigung der technologischen Entwicklung noch besser werden.
  • In bezug auf Fig. 13 enthält das Bildverarbeitungsgerät insbesondere:
  • - In einer Anordnung 1 eine Anwenderschnittstelle 2 und Mittel zum Speichern 210 der Parameter φ*, Θ*, d* und Mittel zum Speichern 201 der Umgrenzung Vx*, Vy* der virtuellen Kamera C*.
  • In bezug auf Fig. 14 enthält das Gerät auch:
  • In einer Anordnung 100 einen Adressenrechner 200, mit einem Adressengenerator 113, der die Adressen (X*,Y*) der Pixel des Zielbilds I* erzeugt, Pixel nach Pixel, um die Gesamtheit dieses Zielbildes I* abzudecken; und Mittel zum Speichern 21 der Parameter φ1 bis φn, Θ1 bis Θn und d1 bis dn (die Maßstabsfaktoren der reellen Kameras C1 bis Cn) respektive,
  • - Mittel zum Speichern 117.
  • Für jedes Pixel M* des aufzubauenden Zielbildes I* wird vom Block 113 des Adressengenerators eine Adresse (X*,Y*) im Zielbild I* geliefert. Unter Berücksichtigung der vom Anwender gewählten Einstellungen, die mittels der eigentlichen Anwenderschnittstelle 2 in den Kontrollblock 1 eingegeben wurden und in der Form der Parameter φ*, Θ*, d* und Vx*, Vy* der virtuellen Kamera in den jeweiligen Blöcken 210 und 201 gespeichert wurden, und unter Berücksichtigung der Parameter φj, Θj und dj (j steht hier für den Index aller Kameras 1 bis n) der reellen Kameras, die im Block 21 gespeichert sind, liefert der Adressenrechner 200 den Index j (unter allen Indizes 1 bis n) der reellen Kamera mit der Fähigkeit, das Bild Ij zu liefern, wo die entsprechenden Daten an der Adresse (X*,Y*) des Pixels M* des Zielbildes I* zu finden sind, und berechnet die Adresse (X,Y) des in diesem ausgewählten Quellenbild Ij entsprechenden Punktes M, und dies über die verschiedenen, vom Anwender bei 2 vorgegebenen Änderungen und Perspektiven.
  • Mit diesen Operatoren stellt man folglich eine Entsprechung zwischen einem Pixel M* an einer gegebenen Adresse (X*,Y*) des Zielbildes I* und einem Punkt M an einer berechneten Adresse (X,Y) eines Quellenbildes Ij her.
  • Dann wird der Luminanzwert Q am Punkt M der Adresse (X,Y) im Quellenbild Ij bestimmt, um dem entsprechenden Pixel M* an der Adresse (X*,Y*) im Zielbild I* zugeteilt zu werden. Und dies für alle Pixel im Zielbild I*.
  • Doch, während die Adresse (X*,Y*) im Zielbild I* reell die eines Pixels M* ist, ist dagegen die Adresse (X,Y) im Quellenbild Ij hingegen eine berechnete Adresse, was allgemein dazu führt, daß diese gefundene Adresse nicht mit einem Pixel übereinstimmt, sondern mit einem zwischen diesen Pixeln angeordneten Punkt M. Die Luminanz dieses Punktes M muß folglich ebenfalls berechnet werden.
  • Das Problem wird vom Interpolator 112 gehandhabt.
  • Der Interpolator 112 berücksichtigt einen Wert nach der Luminanz der Pixel, z. B. m1, m2, m3, m4 einer Umgebung des Punktes M (X,Y), um die dem Punkt M(X,Y) entsprechend betreffende Luminanz zu berechnen, über ein Interpolationsverfahren. So berechnet der Block 112 die wahrscheinlichste, diesem Punkt M der Adresse (X,Y) zuzuteilende Luminanzfunktion.
  • Die vom Interpolator an der Adresse (X,Y) in den Quellenbildern berechnete Luminanzfunktion Q wird dann als Luminanz-Funktionswert dem an der Ausgangsadresse (X*,Y*) im Zielbild I* befindlichen Pixel M* zugeteilt und im Block 117 gespeichert.
  • Der verwendete Adressenrechner 200 ist der weiter oben im Detail in bezug auf Fig. 13 beschriebene, im Falle der Verarbeitung eines einzigen Quellenbildes.
  • Im Falle von mehreren Quellenbildern enthält der Adressenrechner 200 insbesondere:
  • - Das Modul 204, das bei einem Initialisierungsschritt mit den im Block 21 gespeicherten Daten in bezug auf alle reellen Kameras"geladen" wird und direkt den Index j des Quellenbildes und die Adresse (X,Y) in diesem Quellenbild liefert, wobei diese Daten "in der Kugel S" am Pixel K&sub0; (α&sub0;, β&sub0;) gelesen werden, entsprechend dem Punkt K(α,β), vom Modul 220 berechnet, wie bereits beschrieben.
  • In bezug auf Fig. 14 kann das Bild I* dann im Speicherblock 117 neu aufgebaut werden, indem jedem Pixel M* der Adresse (X*,Y*) ein Wert der Luminanzfunktion Q gegeben wird. Jetzt kann das Zielbild aufgebaut werden.
  • Dann kann das Bild I* angezeigt oder in den Mitteln 10 gespeichert werden.
  • Wenn der Fall vorliegt, daß mehrere Quellenbilder möglich sind, z. B. aufgrund der Abdeckung von Quellenbildern in einem Grenzbereich, wird der Block 204 tabelliert, um direkt ein einziges der beiden Quellenbilder zu liefern.
  • Zu diesem Zweck liegt beim Tabellieren eine Methode zur Auswahl zwischen zwei Bildern der Entscheidung zugrunde, ob die aus einer geraden Linie gebildete Verbindung im Grenzbereich zwischen zwei Bildern weitgehend in der Mitte der abgedeckten Zone verläuft. Diese Regel ist sowohl bei horizontal angrenzenden Kameras, wie auf Fig. 10, als auch bei vertikalen Verbindungen anwendbar.
  • Zu bemerken ist auch, daß das, was in bezug auf die Kodierung der Graustufen der Pixel gesagt wurde, auch auf die Kodierung eines Farbbildes anwendbar ist. Die Kodierung findet dann einfach mit einer größeren Anzahl Bits statt.
  • Dann kann bei Varianten der Erfindung die am Punkt M zu bestimmende Funktion Q eines Zielbildes I oder Ij, dem Pixel M* des Zielbildes I* zuzuteilen, sein:
  • - entweder die bereits beschriebene Luminanzfunktion,
  • - oder eine Chrominanzfunktion,
  • - oder eine Luminanz- und Chrominanzfunktion,
  • - eine Funktion der Röntgenstrahlenintensität,
  • - oder eine Funktion der Gammastrahlenintensität usw.
  • Allgemein ist die Funktion Q eine charakteristische Funktion des numerischen Signals an dem im Quellenbild berechneten Punkt M.
  • Zu bemerken ist, daß folgende Maßnahmen getroffen werden müssen, damit eine Verbindung im Zielbild nicht anfällig ist:
  • - Die präzise Kalibrierung der Festkameras,
  • die Korrektur der Ergebnisse über Rückschleifen, gefolgt von einer eventuellen Änderung der Parameter der Festkameramodelle bis zum Erhalt einer perfekten, ein fehlerloses Zielbild liefernden Zusammenfügung.
  • Diese Operation bzw. Initialisierung muß als integraler Teil des Kalibrationsvorgangs verstanden werden.

Claims (18)

1. Numerisches Bildverarbeitungsverfahren, um mittels einer auf ein sogenanntes Quellenbild (I) angewandten perspektivischen geometrischen Übertragung ein berechnetes, sogenanntes Zielbild (I*) aufzubauen, welches das neu aufgebaute Quellenbild mit mindestens einer der folgenden Parameteränderungen darstellt: Positionswinkeln, Richtungswinkeln und Maßstabsfaktor in bezug auf das Quellenbild, dadurch gekennzeichnet, daß es Aufbauschritte des sogenannten Zielbildes mit der Korrektur von Verzerrungen und Perspektivenfehlern enthält und folgendes beinhaltet:
Die Bestimmung eines gemeinsamen optischen Zentrums für das Quellenbild (I) und das Zielbild(I*), Ursprung einer orthonormierten Bezugsmarkierung;
die Berechnung für jedes Pixel des sogenannten Anfangspixels (M*) der Adresse (X*, Y*) im Zielbild (I*), eines sogenannten angenäherten sphärischen Koordinatenpaares (α, β) mittels einer linearen Funktion G&supmin;¹ wie (α, β) = G&supmin;¹ (X*, Y*), deren Koeffizienten die Funktionen der Positions- und Richtungswinkel und des geänderten Maßstabsfaktors sind;
die Bereitstellung für jedes berechnete sphärische Koordinatenpaar (α, β) eines Koordinatenpaares (X, Y), das in einer Tabelliervorrichtung (204) gespeichert wird und neben der Auflösung dieser Tabelliervorrichtung die Adresse im Quellenbild (I) eines Punktes (M) entsprechend dem Anfangspixel (M*) im Zielbild (I*) bildet.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die Berechnung jedes sphärischen Koordinatenpaares (α, β) mit der linearen Funktion G&supmin;¹ einen ersten und einen zweiten Rechenschritt der jeweiligen ersten und zweiten sphärischen Koordinaten (α, β) mittels einer ersten und einer zweiten linearen Relation einer ersten und einer zweiten Koordinate (X*,Y*) des Anfangspixels (M*) in einer lokalen Markierung des Zielbildes (I*) jeweils jedes sphärischen Koordinatenpaares (α, β) beinhaltet, berechnet über lineare Relationen zur Definition in einer Bezugsmarkierung mit als Ursprung dem gemeinsamen optischen Bildzentrum eines annähernd durch dieses optische Zentrum (P) und das Anfangspixel (M*) verlaufenden Lichtstrahls (PW).
3. Verfahren nach Anspruch 2 dadurch gekennzeichnet, daß bei der Berechnung jedes sphärischen Koordinatenpaares (α, β) die erste und zweite lineare Funktion ist:
α = (1/Dx*)X* + Θ*
β = (1/Dy*)Y* + φ*
wobei X* und Y* die Koordinaten des Anfangspixels (M)* an der lokalen Markierung des Zielbildes sind,
wobei Θ* der Richtungswinkel, φ* der Positionswinkel an der Bezugsmarkierung und
wobei Dx*, Dy* jeweils die Auflösungen des Zielbildes parallel zu den lokalen Koordinatenachsen dieses Zielbildes (I*) sind.
4. Verfahren nach einem der Ansprüche 1 bis 3, dadurch gekennzeichnet, daß es zudem beinhaltet:
Das Lesen in einer Tabelle nach dem zur Auflösung der Tabelle in Verbindung bringen des berechneten genäherten sphärischen Koordinatenpaares (α,β) mit einer der Adressen (α&sub0;,β&sub0;) der Tabelle eines Paares (X,Y), das dort gespeichert ist, und die Adresse eines Punktes (M) im Quellenbild (I) entsprechend dem Anfangspixel (M*) im Zielbild (I*) bildet.
5. Verfahren nach einem Anspruch 4, dadurch gekennzeichnet, daß es beinhaltet:
Das Laden der Tabelle bei einem Initialisierungsschritt mit den Koordinatenpaaren (X,Y) der Punkte (M), definiert in einer lokalen Markierung des Quellenbildes (I) und gespeichert an Adressen dieser von vorausbestimmten sphärischen Koordinatenpaaren (α&sub0;,β&sub0;) gebildeten Tabelle, in einer Bezugsmarkierung definiert, mit als Ursprung dem gemeinsamen optischen Zentrum, wobei jedes Koordinatenpaar (X,Y) an ein sphärisches Koordinatenpaar (α&sub0;,β&sub0;) gebunden ist, über eine trigonometrische Funktion F, mit als festen Parametern dem Positionswinkel (φ), dem Richtungswinkel (Θ) und dem Maßstabsfaktor (d) des Quellenbildes.
6. Verfahren nach einem Anspruch 5, dadurch gekennzeichnet, daß es beinhaltet:
Die Berechnung vor dem Laden der Tabelle der Koordinatenpaare (X,Y) der Punkte (M) im Quellenbild (I), gebunden an die sphärischen Koordinatenpaare (α&sub0;,β&sub0;), wobei diese Berechnung eine erste und eine zweite Berechnung der ersten und der zweiten Koordinate (X,Y) jedes Punktes (M) des Quellenbildes mittels einer ersten und einer zwei ten trigonometrischen Funktion mit als Variablen der sphärischen Koordinaten (α&sub0;,β&sub0;) beinhaltet.
7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, daß bei der Berechnung jedes Koordinatenpaares (X,Y) der Punkte (M) im Quellenbild die erste und die zweite trigonometrische Relation jeweils sind:
X = d · tgA mit
und Y = d · tgB/cosA mit
B = arcsin(cosβ&sub0; · cos(α&sub0; - Θ)sinφ + sinβ&sub0; cosφ)
8. Verfahren nach einem der Ansprüche 4 bis 7, dadurch gekennzeichnet, daß es den Aufbau beinhaltet, mittels einer Vielzahl an geometrischen Übertragungen, jeweils auf eine Vielzahl von n angrenzender Quellenbilder (I1-In) angewandt, die alle ein gemeinsames optischen Zentrum haben, mit als Ursprung der Bezugsmarkierung, eines Zielbildes, das Unterteilungen der angrenzenden Quellenbilder enthält, und das mit mindestens einem der folgenden Parameteränderungen neu aufgebaut wird: Positionswinkel, Richtungswinkel und Maßstabsfaktor hinsichtlich jeder der Unterteilungen der Quellenbilder, dadurch gekennzeichnet, daß es beinhaltet:
Das Lesen in der Tabelle der Adresse (X,Y) des Punktes (M) des Quellenbildes entsprechend dem Anfangspixel (M*) des Zielbildes, in Verbindung mit dem Lesen an derselben Adresse dieser Tabelle eines Indexes, der das besondere Quellenbild unter den n an diesem Punkt (M) zu findenden Quellenbild anzeigt.
9. Verfahren nach einem der Ansprüche 1 bis 8, dadurch gekennzeichnet, daß es beinhaltet:
Die Bewertung einer charakteristischen Funktion des numerischen Signals, mit jedem berechneten Punkt (M) im Quellenbild (I) verbunden),
der Zuteilung dieser charakteristischen Funktion an jedes Anfangspixel (M*), im Zielbild (I*) berechnet.
10. Numerisches Bildverarbeitungsgerät zum Aufbau mittels einer geometrischen Übertragung der Perspektive, angewandt auf ein sogenanntes Quellenbild (I), eines berechneten sogenannten Zielbildes (I*), welches das neu aufgebaute Quellenbild mit Änderungen mindestens einer der folgenden Faktoren darstellt: Positionswinkel, Richtungs winkel und Maßstabsfaktor in bezug auf das Quellenbild, dadurch gekennzeichnet, daß es beinhaltet:
einen Adressenrechner (200), der beinhaltet:
- Rechenmittel (220) zum liefern, für jedes Pixel, die sogenannten Anfangspixels (M*) der Adresse (X*,Y*) im Zielbild (I*), eines sogenannten genäherten sphärischen Koordinatenpaares (α, β), berechnet anhand der Referenzmarkierung mittels einer linearen Funktion G&supmin;¹, deren Koeffizienten Funktionen der Positionswinkel (9*), Richtungswinkel (O*) des Zielbildes (I*) an dieser Markierung, seines Maßstabsfaktors d* und seiner Umgrenzung sind,
- Tabulationsmitteln (204), um nahe der Auflösung dieser Tabulationsmittel für jedes berechnete sphärische Koordinatenpaar (α, β) ein Paar (X,Y) zu liefern, das gespeichert ist und die Adresse im Quellenbild (I) eines Punktes (M) entsprechend dem Anfangspixel (M*) im Zielbild (I*) bildet.
11. Gerät nach Anspruch 10, dadurch gekennzeichnet, daß es beinhaltet:
Bewertungsmittel (112) einer charakteristischen Funktion des numerischen Signals, mit jedem berechneten Punkt (M) im Quellenbild (I) verbunden,
Zuteilungsmittel (117) dieser charakteristischen Funktion an jedes entsprechende Anfangspixel (M*) im Zielbild (I*).
12. Gerät nach einem der Ansprüche 10 oder 11, dadurch gekennzeichnet, daß es zwei numerische Neigungs-Rechenmodule beinhaltet, das eine zur Berechnung der ersten sphärischen Koordinaten (α) mittels einer ersten linearen Relation mit als Variablen der ersten Koordinate (X*) des Anfangspixels (M*) in einer lokalen Markierung des Zielbildes (I*), und das andere zur Berechnung der zweiten sphärischen Koordinate (β) mittels einer zweiten linearen Relation mit als Variablen der zweiten Koordinate (Y*) des Pixels (M*) an dieser lokalen Markierung, wobei die Koeffizienten dieser Relationen Funktionen des Richtungs-, Positionswinkel, des veränderten Maßstabsfaktors in bezug auf das Zielbild und seine Umgrenzung (Vx*, Vy*) sind.
13. Gerät nach einem der Ansprüche 10 bis 12, dadurch gekennzeichnet, daß es einen Adressengenerator (113) beinhaltet, zum Erzeugen der Adressen (X*, Y*) der Pixel (M*) des Zielbildes (I*) an einer lokalen Markierung.
14. Gerät nach einem der Ansprüche 10 bis 13, dadurch gekennzeichnet, daß es Speichermittel (210) beinhaltet, um die Werte der Positions- (φ*), Richtungswinkel (Θ*) an der Bezugsmarkierung und des Maßstabsfaktors (d*) zu liefern, und Speichermittel (201), um die Umgrenzung (Vx*, Vy*) zu liefern.
15. Gerät nach einem der Ansprüche 10 bis 14, dadurch gekennzeichnet, daß es Speichermittel (21) beinhaltet, um die Positions- (φ), Richtungswinkel (Θ) und den Maßstabsfaktor (d) des Quellenbildes (I) zu liefern.
16. Gerät nach einem der Ansprüche 10 bis 15, dadurch gekennzeichnet, daß es ein Schnittstellenmodul (2) beinhaltet, mittels dem ein Anwender Werte für den Positions- (φ*), Richtungswinkel (Θ*), den Maßstabsfaktor (d*) und die Umgrenzung (Vx*, Vy*) des Zielbildes (I*) vorgeben kann.
17. Gerät nach einem der Ansprüche 10 bis 16, dadurch gekennzeichnet, daß es Mittel zum Anzeigen oder Speichern des neu aufgebauten Zielbildes (I*) beinhaltet.
18. Gerät nach einem der Ansprüche 10 bis 17, dadurch gekennzeichnet, daß es Module für den Aufbau einer Vielzahl von n angrenzenden Bildern numerischer Quelle (I1- In) beinhaltet, mit gemeinsamen optischen Zentren, mit als Ursprung der Bezugsmarkierung, und dadurch, daß der Aufbau eines Zielbildes anhand dieser angrenzenden Unterteilungen dieser Quellenbilder mindestens einen der folgenden Parameteränderungen beinhaltet: Positions-, Richtungswinkel und Maßstabsfaktor in bezug auf alle diese Unterteilungen der Quellenbilder, wobei die Tabulationsmittel (204) in Verbindung mit der Adresse (X,Y) eines Pixels (M) in einem besonderen Quellenbild (I1-In) den Index dieses besonderen Quellenbildes beinhalten, wo dieser Punkt (M) zu finden ist.
DE69425481T 1993-12-29 1994-12-19 Bildverarbeitungsverfahren und -gerät zur Erzeugung eines Zielbildes von einem Quellenbild mit Veränderung der Perspektive Expired - Fee Related DE69425481T2 (de)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
FR9315804A FR2714502A1 (fr) 1993-12-29 1993-12-29 Procédé et dispositif de traitement d'image pour construire à partir d'une image source une image cible avec changement de perspective.

Publications (2)

Publication Number Publication Date
DE69425481D1 DE69425481D1 (de) 2000-09-14
DE69425481T2 true DE69425481T2 (de) 2001-04-19

Family

ID=9454525

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69425481T Expired - Fee Related DE69425481T2 (de) 1993-12-29 1994-12-19 Bildverarbeitungsverfahren und -gerät zur Erzeugung eines Zielbildes von einem Quellenbild mit Veränderung der Perspektive

Country Status (5)

Country Link
US (1) US5586231A (de)
EP (1) EP0661671B1 (de)
JP (1) JPH07220057A (de)
DE (1) DE69425481T2 (de)
FR (1) FR2714502A1 (de)

Families Citing this family (75)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2714502A1 (fr) * 1993-12-29 1995-06-30 Philips Laboratoire Electroniq Procédé et dispositif de traitement d'image pour construire à partir d'une image source une image cible avec changement de perspective.
FR2714503A1 (fr) * 1993-12-29 1995-06-30 Philips Laboratoire Electroniq Procédé et dispositif de traitement d'image pour construire à partir d'une image source une image cible avec changement de perspective.
US5691765A (en) * 1995-07-27 1997-11-25 Sensormatic Electronics Corporation Image forming and processing device and method for use with no moving parts camera
US6192145B1 (en) * 1996-02-12 2001-02-20 Sarnoff Corporation Method and apparatus for three-dimensional scene processing using parallax geometry of pairs of points
US6049619A (en) * 1996-02-12 2000-04-11 Sarnoff Corporation Method and apparatus for detecting moving objects in two- and three-dimensional scenes
US6075542A (en) * 1996-07-29 2000-06-13 Eastman Kodak Company Method of combining two digital images
US6031541A (en) * 1996-08-05 2000-02-29 International Business Machines Corporation Method and apparatus for viewing panoramic three dimensional scenes
JP3745475B2 (ja) * 1996-12-06 2006-02-15 株式会社セガ ゲーム装置及び画像処理装置
US5963213A (en) * 1997-05-07 1999-10-05 Olivr Corporation Ltd. Method and system for accelerating warping
US6249616B1 (en) 1997-05-30 2001-06-19 Enroute, Inc Combining digital images based on three-dimensional relationships between source image data sets
JP4007524B2 (ja) * 1997-11-18 2007-11-14 株式会社リコー 画像合成方法及び装置並びに情報記録媒体
US6281901B1 (en) 1998-11-25 2001-08-28 The United States Of America As Represented By The Secretary Of The Navy Interactive overlay for displaying 3-D data
JP3126955B2 (ja) * 1999-02-12 2001-01-22 株式会社アドバネット 画像変換用演算装置
US7292261B1 (en) * 1999-08-20 2007-11-06 Patrick Teo Virtual reality camera
JP3601392B2 (ja) * 1999-12-27 2004-12-15 住友電気工業株式会社 画像処理装置、画像処理方法及び車両監視システム
IL136373A0 (en) * 2000-05-25 2001-06-14 Itpen Ltd Partnership Israel Representation of three-dimensional bodies on computer screens and games involving such representations
US6795068B1 (en) 2000-07-21 2004-09-21 Sony Computer Entertainment Inc. Prop input device and method for mapping an object from a two-dimensional camera image to a three-dimensional space for controlling action in a game program
US7071914B1 (en) 2000-09-01 2006-07-04 Sony Computer Entertainment Inc. User input device and method for interaction with graphic images
AU2002254217A1 (en) * 2001-02-24 2002-09-12 Eyesee360, Inc. Method and apparatus for processing photographic images
FR2821960A1 (fr) * 2001-03-06 2002-09-13 7Eme Sens Soc Procede de presentation de differentes configurations d'un meme sujet sur un meme ecran d'ordinateur
JP3467774B2 (ja) * 2001-04-27 2003-11-17 住友電気工業株式会社 画像処理装置、画像処理方法及び車両監視システム
US7123777B2 (en) * 2001-09-27 2006-10-17 Eyesee360, Inc. System and method for panoramic imaging
US7058239B2 (en) * 2001-10-29 2006-06-06 Eyesee360, Inc. System and method for panoramic imaging
JP3975736B2 (ja) * 2001-12-07 2007-09-12 ソニー株式会社 画像処理装置及び画像処理方法、記憶媒体、並びにコンピュータ・プログラム
US7312814B2 (en) * 2002-01-23 2007-12-25 Pelco System and method for storing pattern data
GB2387519B (en) * 2002-04-08 2005-06-22 Canon Europa Nv Viewing controller for three-dimensional computer graphics
US7161579B2 (en) 2002-07-18 2007-01-09 Sony Computer Entertainment Inc. Hand-held computer interactive device
US7623115B2 (en) 2002-07-27 2009-11-24 Sony Computer Entertainment Inc. Method and apparatus for light input device
US7102615B2 (en) 2002-07-27 2006-09-05 Sony Computer Entertainment Inc. Man-machine interface using a deformable device
US8797260B2 (en) 2002-07-27 2014-08-05 Sony Computer Entertainment Inc. Inertially trackable hand-held controller
US7646372B2 (en) 2003-09-15 2010-01-12 Sony Computer Entertainment Inc. Methods and systems for enabling direction detection when interfacing with a computer program
US7883415B2 (en) 2003-09-15 2011-02-08 Sony Computer Entertainment Inc. Method and apparatus for adjusting a view of a scene being displayed according to tracked head motion
US8313380B2 (en) 2002-07-27 2012-11-20 Sony Computer Entertainment America Llc Scheme for translating movements of a hand-held controller into inputs for a system
US7760248B2 (en) 2002-07-27 2010-07-20 Sony Computer Entertainment Inc. Selective sound source listening in conjunction with computer interactive processing
US7627139B2 (en) 2002-07-27 2009-12-01 Sony Computer Entertainment Inc. Computer image and audio processing of intensity and input devices for interfacing with a computer program
US9474968B2 (en) 2002-07-27 2016-10-25 Sony Interactive Entertainment America Llc Method and system for applying gearing effects to visual tracking
US9393487B2 (en) 2002-07-27 2016-07-19 Sony Interactive Entertainment Inc. Method for mapping movements of a hand-held controller to game commands
US8570378B2 (en) 2002-07-27 2013-10-29 Sony Computer Entertainment Inc. Method and apparatus for tracking three-dimensional movements of an object using a depth sensing camera
US8686939B2 (en) 2002-07-27 2014-04-01 Sony Computer Entertainment Inc. System, method, and apparatus for three-dimensional input control
US9682319B2 (en) 2002-07-31 2017-06-20 Sony Interactive Entertainment Inc. Combiner method for altering game gearing
US9177387B2 (en) 2003-02-11 2015-11-03 Sony Computer Entertainment Inc. Method and apparatus for real time motion capture
US8072470B2 (en) 2003-05-29 2011-12-06 Sony Computer Entertainment Inc. System and method for providing a real-time three-dimensional interactive environment
DE10341822A1 (de) * 2003-09-09 2005-09-29 Clauß, Ulrich, Dr.-Ing. Verfahren und Anordnung zur photogrammetrischen Messbildaufnahme und -verarbeitung
US8287373B2 (en) 2008-12-05 2012-10-16 Sony Computer Entertainment Inc. Control device for communicating visual information
US8323106B2 (en) 2008-05-30 2012-12-04 Sony Computer Entertainment America Llc Determination of controller three-dimensional location using image analysis and ultrasonic communication
US7874917B2 (en) 2003-09-15 2011-01-25 Sony Computer Entertainment Inc. Methods and systems for enabling depth and direction detection when interfacing with a computer program
US10279254B2 (en) 2005-10-26 2019-05-07 Sony Interactive Entertainment Inc. Controller having visually trackable object for interfacing with a gaming system
US9573056B2 (en) 2005-10-26 2017-02-21 Sony Interactive Entertainment Inc. Expandable control device via hardware attachment
US8133115B2 (en) 2003-10-22 2012-03-13 Sony Computer Entertainment America Llc System and method for recording and displaying a graphical path in a video game
US7663689B2 (en) 2004-01-16 2010-02-16 Sony Computer Entertainment Inc. Method and apparatus for optimizing capture device settings through depth information
US8547401B2 (en) 2004-08-19 2013-10-01 Sony Computer Entertainment Inc. Portable augmented reality device and method
US20060071933A1 (en) 2004-10-06 2006-04-06 Sony Computer Entertainment Inc. Application binary interface for multi-pass shaders
US7636126B2 (en) 2005-06-22 2009-12-22 Sony Computer Entertainment Inc. Delay matching in audio/video systems
JP2007066291A (ja) * 2005-08-02 2007-03-15 Seiko Epson Corp 画像表示方法および画像表示装置、画像表示システム、サーバ、プログラム、記録媒体
US7880746B2 (en) 2006-05-04 2011-02-01 Sony Computer Entertainment Inc. Bandwidth management through lighting control of a user environment via a display device
US7965859B2 (en) 2006-05-04 2011-06-21 Sony Computer Entertainment Inc. Lighting control of a user environment via a display device
US8310656B2 (en) 2006-09-28 2012-11-13 Sony Computer Entertainment America Llc Mapping movements of a hand-held controller to the two-dimensional image plane of a display screen
US8781151B2 (en) 2006-09-28 2014-07-15 Sony Computer Entertainment Inc. Object detection using video input combined with tilt angle information
USRE48417E1 (en) 2006-09-28 2021-02-02 Sony Interactive Entertainment Inc. Object direction using video input combined with tilt angle information
US8988466B2 (en) * 2006-12-13 2015-03-24 Adobe Systems Incorporated Panoramic image straightening
US8542907B2 (en) 2007-12-17 2013-09-24 Sony Computer Entertainment America Llc Dynamic three-dimensional object mapping for user-defined control device
US7961224B2 (en) 2008-01-25 2011-06-14 Peter N. Cheimets Photon counting imaging system
EP2257911B1 (de) 2008-02-27 2018-10-10 Sony Computer Entertainment America LLC Verfahren zur erfassung von tiefendaten einer szene und anwendung von computeraktionen
US8368753B2 (en) 2008-03-17 2013-02-05 Sony Computer Entertainment America Llc Controller with an integrated depth camera
US8961313B2 (en) 2009-05-29 2015-02-24 Sony Computer Entertainment America Llc Multi-positional three-dimensional controller
US8527657B2 (en) 2009-03-20 2013-09-03 Sony Computer Entertainment America Llc Methods and systems for dynamically adjusting update rates in multi-player network gaming
US8342963B2 (en) 2009-04-10 2013-01-01 Sony Computer Entertainment America Inc. Methods and systems for enabling control of artificial intelligence game characters
US8142288B2 (en) 2009-05-08 2012-03-27 Sony Computer Entertainment America Llc Base station movement detection and compensation
US8393964B2 (en) 2009-05-08 2013-03-12 Sony Computer Entertainment America Llc Base station for position location
ES2358142B9 (es) * 2009-10-21 2019-04-15 3D Sport Signs S L Procedimiento, sistema y programa de ordenador para obtener una transformada de una imagen.
US10786736B2 (en) 2010-05-11 2020-09-29 Sony Interactive Entertainment LLC Placement of user information in a game space
US8913162B2 (en) * 2010-11-04 2014-12-16 Konica Minolta, Inc. Image processing method, image processing apparatus and image capturing apparatus
US9342817B2 (en) 2011-07-07 2016-05-17 Sony Interactive Entertainment LLC Auto-creating groups for sharing photos
US20150187198A1 (en) * 2013-12-27 2015-07-02 Aaron G. Silverberg Orientation Measurement And Guidance Of Manually Positioned Objects
CN108629811B (zh) * 2018-04-04 2021-08-20 广州市安晓科技有限责任公司 一种汽车环视全景的自动标定方法及***

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2546017B1 (fr) * 1983-05-11 1986-01-17 Thomson Csf Procede pour realiser une transformation geometrique sur une image video, et dispositifs mettant en oeuvre ce procede
US4734690A (en) * 1984-07-20 1988-03-29 Tektronix, Inc. Method and apparatus for spherical panning
JPS62102369A (ja) * 1985-10-29 1987-05-12 インタ−ナショナル ビジネス マシ−ンズ コ−ポレ−ション グラフイツク物体の3次元透視投影を生成する方法
US4807158A (en) * 1986-09-30 1989-02-21 Daleco/Ivex Partners, Ltd. Method and apparatus for sampling images to simulate movement within a multidimensional space
US4969036A (en) * 1989-03-31 1990-11-06 Bir Bhanu System for computing the self-motion of moving images devices
EP0605045B1 (de) * 1992-12-29 1999-03-31 Laboratoires D'electronique Philips S.A.S. Bildverarbeitungsverfahren und -vorrichtung zum Erzeugen eines Bildes aus mehreren angrenzenden Bildern
FR2714502A1 (fr) * 1993-12-29 1995-06-30 Philips Laboratoire Electroniq Procédé et dispositif de traitement d'image pour construire à partir d'une image source une image cible avec changement de perspective.

Also Published As

Publication number Publication date
US5586231A (en) 1996-12-17
FR2714502A1 (fr) 1995-06-30
EP0661671A1 (de) 1995-07-05
EP0661671B1 (de) 2000-08-09
DE69425481D1 (de) 2000-09-14
JPH07220057A (ja) 1995-08-18

Similar Documents

Publication Publication Date Title
DE69425481T2 (de) Bildverarbeitungsverfahren und -gerät zur Erzeugung eines Zielbildes von einem Quellenbild mit Veränderung der Perspektive
DE69430182T2 (de) Bildverarbeitungsverfahren und -gerät zur Erzeugung eines Zielbildes von einem Quellenbild mit Veränderung der Perspektive
DE69324224T2 (de) Bildverarbeitungsverfahren und -vorrichtung zum Erzeugen eines Bildes aus mehreren angrenzenden Bildern
DE69411849T2 (de) Verfahren zur Verarbeitung von Luminanzpegel in einem zusammengesetzten Bild und Bildverarbeitungssystem zur Anwendung dieses Verfahrens
DE69230512T2 (de) Modelierungsprozess für Bildaufnahmesystem und Verfahren und System zur Kombinierung von echten Bildern und Synthesebildern
DE69521739T2 (de) Verfahren und Vorrichtung zur Bildverarbeitung
DE69621509T2 (de) Verfahren zur Auswahl zweier Einzelbilder einer zweidimensionalen Bildsequenz als Basis für die Berechnung der relativen Tiefe von Bildobjekten
DE69222695T2 (de) Autostereoskopisches Fotografie-System mit elektronisch interpolierten Bildern
EP2464098B1 (de) Umfeld-Darstellungsvorrichtung sowie ein Fahrzeug mit einer derartigen Umfeld-Darstellungsvorrichtung und Verfahren zur Darstellung eines Panoramabildes
DE3219032C2 (de) Stereophotogrammetrisches Aufnahme- und Auswerteverfahren sowie Auswertevorrichtung
AT394459B (de) Verfahren zum gewinnen von bildern zur verwendung beim darstellen eines dreidimensionalen scheinbildes und bildaufzeichnungstraeger, auf dem erste und zweite gruppen von serien derartiger bilder gespeichert sind
EP2880853B1 (de) Vorrichtung und verfahren zur bestimmung der eigenlage einer bildaufnehmenden kamera
WO2006089542A1 (de) Verfahren und einrichtung zum nachführen von sweet-spots
DE102005010250A1 (de) Verfahren und Einrichtung zum Nachführen von Sweet-Spots
DE102016203709B4 (de) Bildverarbeitungsverfahren, Bildverarbeitungsmittel und Bildverarbeitungsvorrichtung zur Erzeugung von Abbildungen eines Teils eines dreidimensionalen Raums
DE112004002767T5 (de) Reflexionssperre für Panoramadisplay
WO1995031795A2 (de) Verfahren zum erzeugen räumlich wirkender bilder
EP2350977B1 (de) Verfahren zur bildfusion von zumindest zwei bildern zu einem panoramabild
EP3711289B1 (de) Verfahren zur automatischen wiederherstellung eines eingemessenen zustands eines projektionssystems
EP1906655A1 (de) Verfahren zur Korrektur perspektivischer Verzerrungen eines Linsensystems
DE3035213A1 (de) Verfahren und vorrichtung zur gewinnung und wiedergabe von gelaendebildern fuer sichtsimulatoren
EP0976003A1 (de) Optisches abbildungssystem und graphische benutzerschnittstelle
WO2018133996A1 (de) Verfahren zum kombinieren einer vielzahl von kamerabildern
EP4068198B1 (de) Verfahren zur erzeugung eines bilds eines objekts, computerprogrammprodukt und bilderzeugungssystem zur durchführung des verfahrens
WO1999009449A1 (de) Verfahren und anordnung zum herstellen eines räumlich wiedergebbaren bildes

Legal Events

Date Code Title Description
8364 No opposition during term of opposition
8320 Willingness to grant licences declared (paragraph 23)
8339 Ceased/non-payment of the annual fee