DE102007049740A1 - Verfahren zur Ermittlung von zweidimensionalen Bewegungsvektorfeldern in einer Bildsequenz und Bildverarbeitungseinrichtung hierzu - Google Patents

Verfahren zur Ermittlung von zweidimensionalen Bewegungsvektorfeldern in einer Bildsequenz und Bildverarbeitungseinrichtung hierzu Download PDF

Info

Publication number
DE102007049740A1
DE102007049740A1 DE102007049740A DE102007049740A DE102007049740A1 DE 102007049740 A1 DE102007049740 A1 DE 102007049740A1 DE 102007049740 A DE102007049740 A DE 102007049740A DE 102007049740 A DE102007049740 A DE 102007049740A DE 102007049740 A1 DE102007049740 A1 DE 102007049740A1
Authority
DE
Germany
Prior art keywords
scene
image
exposure
exposure time
processing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
DE102007049740A
Other languages
English (en)
Inventor
Marcus Prof. Dr. Magnor
Anita Sellent
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Technische Universitaet Braunschweig
Original Assignee
Technische Universitaet Braunschweig
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Technische Universitaet Braunschweig filed Critical Technische Universitaet Braunschweig
Priority to DE102007049740A priority Critical patent/DE102007049740A1/de
Priority to PCT/EP2008/008262 priority patent/WO2009049766A1/de
Publication of DE102007049740A1 publication Critical patent/DE102007049740A1/de
Ceased legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10144Varying exposure
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

Verfahren zur Ermittlung von zweidimensionalen Bewegungsvektorfeldern in einer Bildsequenz hat die Schritte: - Aufnehmen mindestens eines Bildes einer Szene mit einer ersten Belichtungsdauer; - Aufnehmen derselben Szene mit einer zweiten Belichtungsdauer, die länger als die erste Belichtungsdauer ist, so dass das mit der zweiten Belichtungsdauer aufgenommene Bild der Szene eine größere Bewegungsunschärfe hat als das mit der ersten Belichtungsdauer aufgenommene, mindestens eine Bild derselben Szene, und - Ermitteln des zweidimensionalen Bewegungsvektorfeldes aus dem mit der zweiten Belichtungsdauer aufgenommenen länger belichteten Bild der Szene mit höherer Bewegungsunschärfe in Bezug zu dem zeitlich mit diesem Bild der Szene zusammenhängenden mindestens einen mit der ersten Belichtungsdauer aufgenommenen Bildes dieser Szene mit erster Belichtungsdauer.

Description

  • Die Erfindung betrifft ein Verfahren zur Ermittlung zweidimensionaler Bewegungsvektorfelder in einer Bildsequenz mit den Schritten:
    • – Aufnehmen mindestens eines Bildes einer Szene mit einer ersten Belichtungsdauer;
    • – Aufnehmen derselben Szene mit einer zweiten Belichtungsdauer, die länger als die erste Belichtungsdauer ist, so dass das mit der zweiten Belichtungsdauer aufgenommene Bild der Szene eine größere Bewegungsunschärfe hat als das mit der ersten Belichtungsdauer aufgenommene, mindestens eine Bild derselben Szene.
  • Die Erfindung betrifft weiterhin eine Bildverarbeitungseinrichtung mit mindestens einer Kamera zur Aufnahme einer Folge von Bildern einer Szene, mit einer Steuerungseinheit zur Steuerung der mindestens einen Kamera und mit einer Bildauswerteeinheit.
  • Konventionelle Video-Aufnahmeverfahren liefern zeitlich getrennte Momentbilder einer aufgenommenen dynamischen Szene. Um eine Ansicht einer beliebigen dynamischen Szene aus einem festen Blickpunkt zu jedem beliebigen Zeitpunkt zwischen einem fest definierten Anfangs- und Endzeitpunkt photorealistisch erzeugen zu können, ist eine Rekonstruktion des zeitlich kontinuierlichen Verlaufs der aufgenommenen Szene erforderlich. Dies erfolgt herkömmlicherweise durch Rekonstruktion des sogenannten „optischen Flusses" mittels Bildverarbeitungsverfahren. Dabei wird anhand einzelner Momentbilder auf das zweidimensionale Bewegungsvektorfeld der Szene geschlossen
  • Chr. Theobalt, J. Carranza, M. A. Magnor, H.-P. Seidel: „Enhancing Silhouette-based Human Motion Capture with 3D Motion Fields", in: Proc. IEEE Pacific Graphics 2003, Canmore, Canada, pp. 185–193, October 2003, offenbart ein Verfahren zur Erfassung von Bewegung in Bildern mit dreidimensionalen Bewegungsfeldern. Aus den Berechnungen des optischen Flusses im zweidimensionalen Raum für eine Vielzahl von Blickwinkeln und einem Objektmodell wird ein dreidimensionales Bewegungsfeld abgeleitet.
  • Die Bestimmung des optischen Flusses in Bildsequenzen ist bspw. in SukHan Lim und Abbas EI Gamal: „Optical Flow Estimation Using High Frame Rate Sequences", in: Proc. Int. Conf. Image Processing, Vol. 2, 2001, pp. 925–928 beschrieben. Hierzu wird eine spezielle Kamera mit hoher Bildrate verwendet und der optische Fluss zwischen den einzelnen Bildern mittels eines bekannten Verfahrens nach Lukas-Kanade berechnet.
  • Die Bewegungsschätzung in digitalen Bildsequenzen ist unter anderem aus der Bildkompressionstechnik bekannt. Dabei werden für Bildblöcke aufeinander folgende Bilder einer Sequenz Verschiebungsvektoren bestimmt, die eine Verschiebung von Bildblöcken beschreiben, die die geringste Änderung des Bildinhalts aufweisen. Derartige Bewegungsschätzverfahnen sind bspw. in der WO 98/14010 , EP 0 614 318 B1 bekannt.
  • US 2006/0290821 A1 offenbart ein aus der Auswertung von globaler Bildbewegungsinformation und lokaler Bewegung in Bildblöcken beruhendes Verfahren zur Videoaufbereitung. Zur Beschreibung der lokalen Bildbewegung werden optische Flussvektoren berechet.
  • M.-Ben-Ezra und S. K. Nayar: „Motion-Based Motion-Deblurring" in: IEEE Transactions an Pattern Analysis and Machine Intelligence, Vol. 26, No. 6, June 2004 beschreibt ein Verfahren zur Aufbereitung von durch eine Kamerabewegung signifikant verschlechterten Videos. Um die erforderliche Bewegungsinformation der Kamera zu erhalten ist ein zweiter Bilddetektor mit geringerer Auflösung als die Videoaufnahmekamera mit der Videokamera gekoppelt. Während mit der hochauflösenden Videokamera das aufzunehmende und nachzuverarbeitende Video mit langer Belichtungsdauer und geringer zeitlicher Auflösung aufgenommen wird, arbeitet der zweite Bilddetektor mit höherer zeitlicher Auflösung, kürzeren Belichtungsdauern und geringerer örtlicher Auflösung. Die Bewegung der Videokameras wird anhand der mit dem zweiten Bilddetektor aufgenommenen Bildsequenz bestimmt. Das Verfahren dient dazu, das lang belichtete Bild durch Kompensation der Bewegung der Kamera zu schärfen, während die Szene als statisch angenommen wird. Dazu wird der optische Fluss zwischen den Aufnahmen mit der geringen räumlichen Auflösung, die nur kurz belichtet werden, berechnet. Anschließend wird eine Annäherung an das Bewegungsfeld berechnet, das der Bewegung der Kamera während der langen Belichtungsdauer entspricht. Das lang belichtete, bewegungsunscharfe Bild wird dann mit Hilfe dieser Annäherung geschärft.
  • Die Koppelung von Videokamera und zweitem Bilddetektor kann in dem Verfahren von Ben-Ezra und Nayar entweder dadurch erfolgen, dass der zweite Bilddetektor an einem Gehäuse der Videokamera angebracht und auf das gleiche Objekt fokussiert ist. Es kann aber auch ein Strahlteiler verwendet werden, so dass Videokamera und zweiter Bilddetektor dieselbe Optik nutzen. Beschrieben ist auch der Einsatz eines speziellen Bildaufnahmechips mit zwei Bilddetektoren auf demselben Chip.
  • Die Rekonstruktion des optischen Flusses mittels Bildverarbeitungsverfahren auf die bekannte Weise hat den Nachteil, dass die Rekonstruktion des „optischen Flusses" eine unterbestimmtes Problem ist, zu dessen Lösung weitere Randannahmen gemacht werden müssen, die nicht allgemein zutreffen. Der optische Fluss versagt zudem in Szenenregionen, die nicht in beiden Bildern sichtbar sind, wie beispielsweise bei Verdeckungen und Aufdeckungen. Der optische Fluss ist auch nicht notwendig identisch mit der wahren Bewegung der Szene, beispielsweise einer sich drehenden Spirale. Zeitlich nicht-lineare Bewegungen (Beschleunigung, Abbremsen) können mittels des optischen Flusses nicht korrekt ermittelt werden.
  • Ausgehend hiervon ist es Aufgabe der vorliegenden Erfindung ein verbessertes Verfahren zur Ermittlung des optischen Flusses in einer Bildsequenz zu schaffen, das einfach ist und verbesserte und robustere Ergebnisse liefert.
  • Die Aufgabe wird mit dem Verfahren der eingangs genannten Art gelöst durch Ermitteln eines zweidimensionalen Bewegungsvektorfeldes aus dem mit der zweiten Belichtungsdauer aufgenommenen länger belichteten Bild der Szene mit der höheren Bewegungsunschärfe in Bezug zu dem zeitlich mit diesem Bild der Szene zusammenhängenden mindestens einen mit der ersten kürzeren Belichtungsdauer aufgenommenen Bildes der Szene.
  • Es wird somit vorgeschlagen, die Bewegungsinformationen sowohl aus den Bildern einer Szene mit kurzer Belichtungsdauer, als auch aus den Bildern derselben Szene mit langer Belichtungsdauer gleichermaßen auszunutzen und miteinander zu korrelieren, um aus der Kombination beider Bildaufnahmen derselben Szene mit langer und kurzer Belichtungsdauer den optischen Fluss abzuleiten. Das zweidimensionale Bewegungsvektorfeld ist die Projektion der tatsächlichen dreidimensionalen Bewegung in der aufgenommenen Szene auf die Bildebene.
  • Mit den lang belichteten Aufnahmen der Szene stehen zusätzliche Informationen über den wahren Verlauf der Szene in Bewegung zur Verfügung, so dass der Lösungsraum zur Rekonstruktion des optischen Flusses erheblich eingeschränkt werden kann. Im Ergebnis führt die Berücksichtigung der Zusatzinformationen aus den lang belichteten Aufnahmen zu wesentlich verbesserten und robusteren Ergebnissen im Vergleich zu den bisherigen Verfahren, bei denen keine Korrelation von länger und kürzer belichteten Aufnahmen erfolgt.
  • Bei dem Verfahren wird ausgenutzt, dass die kürzer belichteten Bilder eine dynamische Szene in scharfen Momentaufnahmen abbilden, während die lang belichteten Bilder Bewegungsunschärfe zeigen. Das mindestens eine lang belichtete Bild wird zusammen mit kurz belichteten Bildern benutzt, um das komplexe 2D-Bewegungsfeld einer dynamischen Szene robust zu ermitteln.
  • Beispielsweise kann anhand einer lang belichteten Aufnahme sowie der zwei zeitlich nächstgelegenen kurz belichteten Aufnahmen das Bewegungsfeld einer Szene rekonstruiert werden, in dem ausgenutzt wird, dass die lang belichtete Aufnahme einer Faltung der beiden kurz belichteten Aufnahmen mit einem Kern, der von dem optischen Fluss abhängt, entspricht.
  • In einer bevorzugten Ausführungsform erfolgt somit eine Faltung von mindestens zwei mit der ersten Belichtungsdauer aufgenommenen Bildern der Szene und Ausnutzung von einem mit der zweiten Belichtungsdauer aufgenommenen Bildes derselben Szene.
  • Die Ermittlung des Bewegungsverlaufes kann verbessert werden, wenn das Aufnehmen des mindestens einen Bildes an der Szene mit der ersten zeitlichen Auflösung mit Hilfe einer ersten Bildaufnahmeeinheit erfolgt, die einen Verstärkungsfaktor zur Bildaufnahmesteuerung hat, der höher als der Verstärkungsfaktor einer zweiten Bildaufnahmeeinheit zum Aufnehmen derselben Szene mit einer zweiten Belichtungsdauer ist. Die Szene wird also sowohl mit kurzer Belichtungszeit und hohem Verstärkungsfaktor als auch mit möglichst langer Belichtungszeit und kleinem Verstärkungsfaktor aufgenommen. Die Verstärkungsfaktoren müssen dabei so gewählt sein, dass die kurz belichteten Bilder nicht unterbelichtet sind, während die lang belichteten Bilder nicht überbelichtet werden. Die maximale Belichtungszeit ist von der Bildwiederholrate der Kameras abhängig.
  • Alternativ zur Bildaufnahme mit zwei unabhängigen Kameras ist auch denkbar, dass das Aufnehmen der Szene mit einer Kamera derart erfolgt, dass zeitlich hintereinander Bilder der Szene mit voneinander unterschiedlichen Belichtungsdauern aufgenommen werden, um von einer Szene Bilder mit unterschiedlicher Bewegungsunschärfe zu erhalten. Der Bewegungsverlauf wird dann aus den mit unterschiedlichen Belichtungsdauern aufgenommenen Bildern derselben Szene ermittelt. Auch hier ist es vorteilhaft, wenn die einzige Videokamera alternierend Bilder mit kurzer und langer Belichtungszeit bei simultan entsprechend wechselnden Verstärkungsfaktoren aufnimmt, so dass bei der Bildaufnahme mit langer Belichtungszeit ein kleiner Verstärkungsfaktor und bei Bildaufnahme mit kurzer Belichtungszeit ein großer Verstärkungsfaktor gewählt wird.
  • Aufgabe der vorliegenden Erfindung ist weiterhin, eine verbesserte Bildverarbeitungseinrichtung mit mindestens einer Kamera zur Aufnahme einer Folge von Bildern und einer Szene, mit einer Steuerungseinheit zur Steuerung der mindestens einen Kamera und mit einer Bildauswerteeinheit zu schaffen.
  • Die Aufgabe wird mit der Bildverarbeitungseinrichtung der eingangs genannten Art dadurch gelöst, dass die Steuerungseinheit eingerichtet ist, um mindestens ein Bild einer Szene mit einer ersten Belichtungsdauer und dieselbe Szene mit einer zweiten Belichtungsdauer aufzunehmen, die geringer als die erste Belichtungsdauer ist, so dass das mit der zweiten Belichtungsdauer aufgenommene Bild der Szene eine größere Bewegungsunschärfe hat, als das mit der ersten Belichtungsdauer aufgenommene, mindestens eine Bild derselben Szene, und dass die Bildauswerteeinheit zur Ermittlung des zweidimensionalen Bewegungsvektorfeldes aus dem mit der zweiten zeitlichen Auflösung aufgenommene Bild der Szene mit größerer Bewegungsunschärfe im Bezug zu dem zeitlich mit diesem Bild der Szene zusammenhängenden, mindestens einen Bildes dieser Szene mit erster Belichtungsdauer eingerichtet ist.
  • Vorteilhafte Ausführungsformen sind in den Unteransprüchen beschrieben.
  • Die Erfindung wird anhand von Ausführungsbeispielen nachfolgend mit den beigefügten Zeichnungen beispielhaft näher erläutert. Es zeigen:
  • 1 – Blockdiagramm einer Bildverarbeitungseinrichtung mit zwei Kameras und einer Bildauswerteeinheit zur Ermittlung des 2D-Bewegungsvektorfeldes in einer Bildsequenz;
  • 2 – Blockdiagramm einer Bildverarbeitungseinrichtung mit einer Kamera mit Strahlenteiler und an zwei Bildsensoren der Kamera angeschlossenen Bildauswerteeinheit;
  • 3 – Belichtungszeitdiagramm zur Darstellung der Bildaufnahmemöglichkeiten für die Ermittlung des 2D-Bewegungsverlaufs in einer Bildsequenz;
  • 4 – Skizze von einer mit kurzen und langen Belichtungszeiten aufgenommenen Bildsequenz über die Zeit und aus einer ersten Näherung des optischen Flusses abgeleitetem Bild B0.
  • 1 lässt ein Blockdiagramm einer Bildverarbeitungseinrichtung 1 erkennen, die eine erste Kamera 2a zur Aufnahme einer Szene 3 mit einer ersten Belichtungsdauer hat. Diese erste Kamera 2a ist an eine zweite Kamera 2b gekoppelt, die auf dieselbe Szene 3 ausgerichtet ist, um diese Szene 3 mit einer zweiten Belichtungsdauer aufzunehmen. Hierzu sind die erste und zweite Kamera 2a, 2b durch zugeordnete Steuerungseinheiten 4a, 4b angesteuert, die separat oder als eine Einheit ausgebildet sein können. Die Kameras 2a, 2b werden derart angesteuert, dass die erste Kamera 2a die Szene 3 mit kurzer Belichtungszeit und hohem Verstärkungsfaktor (Gain) aufnimmt, während die zweite Kamera 2b dieselbe Szene 3 mit möglichst langer Belichtungszeit und kleinem Verstärkungsfaktor aufnimmt. Die Steuerungseinheiten 4a, 4b sowie die Kameras 2a, 2b sind selbst so eingestellt, dass die kurzbelichteten Bilder nicht unterbelichtet sind, während die langbelichteten Bilder nicht der Szene 3 überbelichtet werden. Dies erfolgt durch geeignete Auswahl der Verstärkungsfaktoren.
  • Die maximale Belichtungszeit selbst ist von der Bildwiederholrate der Kameras 2a, 2b abhängig.
  • Die mit kurzer Belichtungszeit durch die erste Kamera 2a aufgenommenen Bilder sowie das mindestens eine mit langer Belichtungszeit aufgenommene Bild derselben Szene 3 werden einer Bildauswerteeinheit 5 zugeführt, in der aus diesen kurz- und lang belichteten Bilder derselben Szene 3 das zweidimensionale Bewegungsvektorfeld BV berechnet wird, der die kurz belichteten Aufnahmen konsistent ineinander überführt und zugleich die lang belichtete Aufnahme rekonstruiert.
  • 2 lässt eine andere Ausführungsform einer der zwei Kameras 2a, 2b synchron betrieben werden. Die beiden Kameras 2a, 2b besitzen durch einen optischen Strahlteiler 6 dieselbe optische Achse und benutzen dieselbe Optik 7. Wiederum wird mit der ersten Kamera die Szene 3 mit kurzer Belichtungszeit und hohem Verstärkungsfaktor mit der zweiten Kamera 2b dieselbe Szene 3 mit langer Belichtungszeit und kleinem Verstärkungsfaktor aufgenommen.
  • Eine alternative technische Realisierung besteht darin, eine einzige Videokamera 2 zu verwenden, die alternierend Bilder mit kurzer und langer Belichtungszeit bei simultan entsprechend wechselnden Verstärkungsfaktoren aufnimmt.
  • 3 lässt ein Belichtungszeitdiagramm zur Darstellung der Bildaufnahmemöglichkeiten für die Ermittlung des Bildbewegungsverlaufs, d. h. des 2D-Bewegungsvektorfeldes BV in einer Bildsequenz erkennen.
  • Die herkömmlichen Verfahren a) haben vorgesehen, den optischen Fluss durch Betrachten zweier aufeinander folgender Kurzzeitbelichtungen zu bestimmen.
  • In einer Ausführungsform b) des Verfahrens zur Ermittlung des Bewegungsverlaufs, d. h. von 2D-Bewegungsvektorfeldern in einer Bildsequenz erfolgt ein regelmäßiges Umschalten der Belichtungszeit, um alternierend kurz belichtete Aufnahmen A, C, E, G und lang belichtete Aufnahmen B, D, F, H zu machen.
  • In einem anderen Verfahren c) können mit einem Zwei-Kamera-System kurz belichtete Bilder A, C, E, G und lang belichtete Bilder B, D, F, H simultan aufgenommen werden.
  • Eine andere Alternative d) sieht vor, mit einer entsprechend modifizierten Kamera 2 alternierend kurz belichtete Aufnahmen A, C, E, H und lang belichtete Aufnahmen B, D, F, H bei minimalen, jeweils gleich langen Totzeiten aufzuzeichnen.
  • Durch die Aufnahme einer Szene 3 mit lang und kurz belichteten Bildern A bis H stehen viel mehr Informationen zur Verfügung als bei den bekannten Methoden zur Bestimmung des 2D-Bewegungsvektorfeldes. Diese Informationen werden durch das folgende Modell zur Bildentstehung in Zusammenhang gebracht:
    Ist v: R2 × [t1, t2] → R2, (x →, t) ↦ vt(x →) die 2D-Bewegung eines Punktes der Bildebene zur Zeit t, so lässt sich das langzeitbelichtete Bild B0 aus dem kurz belichteten Bild A wie folgt berechnen:
    Figure 00090001
  • Eine ähnliche Formulierung lässt sich für das kurz belichtete Bild C finden. Eine weitere Beschreibung des Bildentstehungsprozesses ist auch mittels der Integralgleichung
    Figure 00090002
    mit einem geeigneten Kern k: Ω2 → R möglich.
  • Es wird ausgenutzt, dass die kurz belichteten Bilder A, C, E, G die dynamische Szene 3 in scharfen Momentaufnahmen abbilden, während die lang belichteten Bilder B, D, F, H Bewegungsunschärfe zeigen. Anhand einer lang belichteten Aufnahme B sowie der zwei zeitlich nächst gelegenen kurz belichteten Aufnahmen A, C kann das Bewegungsfeld der Szene 3 rekonstruiert werden. Dazu wird ausgenutzt, dass die lang belichtete Aufnahme einer Faltung entspricht mit den beiden kurz belichteten Aufnahmen A, C als Kern und dem zu ermittelnden 2D-Bewegungsvektorfeld als Definitionsbereich der Faltung.
  • Zur Bestimmung des 2D-Bewegungsvektorfeldes BV aus diesen Informationen sind verschiedene Ansätze möglich, wie beispielsweise Entfaltungsansätze, Variationsansätze, Analysis-by-Synthesis-Ansätze etc.
  • 4 lässt eine Skizze von kurz belichteten Aufnahmen A, C und einer lang belichteten Aufnahme B erkennen. Mit Hilfe beispielsweise des Analysis-by-Synthesis-Ansatzes wird der Bildentstehungsprozess der lang belichteten Aufnahme B entsprechend der oben genannten Formel
    Figure 00100001
    schnell simuliert. Dies hat die Wirkung, dass die kurz belichteten Bilder A und C entlang eines initialen Bewegungsfeldes v0 verschmiert und gewichtet gemittelt werden. Das auf diese Weise erzeugte Ergebnisbild B0 wird anschließend mit lang belichteten Aufnahme B verglichen. Zum Vergleich genügt ein einfaches Fehlermaß, z. B. das aufsummierte Fehlerquadrat SSD. Mit Hilfe eines geeigneten Optimierungsverfahrens, z. B. nach Powell wird das Bewegungsfeld vn iterativ solange variiert, bis der Fehlerwert e minimal ist.
  • Als initiales Bewegungsfeld v0 stehen sowohl der Optische Fluss zwischen den beiden kurz belichteten Aufnahmen A und C zur Verfügung, als auch der Optische Fluss aus der Langzeitbelichtung B.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • - WO 98/14010 [0006]
    • - EP 0614318 B1 [0006]
    • - US 2006/0290821 A1 [0007]
  • Zitierte Nicht-Patentliteratur
    • - Chr. Theobalt, J. Carranza, M. A. Magnor, H.-P. Seidel: „Enhancing Silhouette-based Human Motion Capture with 3D Motion Fields", in: Proc. IEEE Pacific Graphics 2003, Canmore, Canada, pp. 185–193, October 2003 [0004]
    • - SukHan Lim und Abbas EI Gamal: „Optical Flow Estimation Using High Frame Rate Sequences", in: Proc. Int. Conf. Image Processing, Vol. 2, 2001, pp. 925–928 [0005]
    • - M.-Ben-Ezra und S. K. Nayar: „Motion-Based Motion-Deblurring" in: IEEE Transactions an Pattern Analysis and Machine Intelligence, Vol. 26, No. 6, June 2004 [0008]

Claims (14)

  1. Verfahren zur Ermittlung von zweidimensionalen Bewegungsvektorfeldern in einer Bildsequenz mit den Schritten: – Aufnehmen mindestens eines Bildes einer Szene mit einer ersten Belichtungsdauer; – Aufnehmen derselben Szene mit einer zweiten Belichtungsdauer, die länger als die erste Belichtungsdauer ist, so dass das mit der zweiten Belichtungsdauer aufgenommene Bild der Szene eine größere Bewegungsunschärfe hat, als das mit der ersten Belichtungsdauer aufgenommene, mindestens eine Bild derselben Szene, gekennzeichnet durch – Ermitteln des zweidimensionalen Bewegungsvektorfeldes aus dem mit der zweiten Belichtungsdauer aufgenommenen länger belichteten Bild der Szene mit höheren Bewegungsunschärfe in Bezug zu dem zeitlich mit diesem Bild der Szene zusammenhängenden mindestens einen mit der ersten Be lichtungsdauer aufgenommenen Bildes dieser Szene mit erster Belichtungsdauer.
  2. Verfahren nach Anspruch 1, gekennzeichnet durch Faltung mindestens eines mit der ersten Belichtungsdauer aufgenommenen Bildes und Ausnutzung des mit der zweiten Belichtungsdauer aufgenommenen Bildes derselben Szene.
  3. Verfahren nach Anspruch 1 oder 2, gekennzeichnet durch Aufnehmen des mindestens einen Bildes einer Szene mit einer ersten kurzen Belichtungsdauer mit Hilfe einer ersten Bildaufnahmeeinheit, die einen Verstärkungsfaktor zur Belichtungssteuerung hat, der höher als der Verstärkungsfaktor einer zweiten Bildaufnahmeeinheit zum Aufnehmen derselben Szene mit einer zweiten Belichtungsdauer ist.
  4. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die erste und zweite Bildaufnahmeeinheit voneinander unabhängige Kameras sind, die die Szene aus näherungsweise gleicher Perspektive aufnehmen.
  5. Verfahren nach Anspruch 3, dadurch gekennzeichnet, dass die erste und zweite Bildaufnahmeeinheit über einen gemeinsamen Strahlteiler auf dieselbe Szene ausgerichtet sind, um die Szene mit identischer Perspektive aufzunehmen.
  6. Verfahren nach einem der Ansprüche 1 bis 3, gekennzeichnet durch Aufnehmen von Bildern der Szene zeitlich hintereinander mit einer Kamera mit voneinander unterschiedlichen Belichtungsdauern, um von der Szene Bilder mit unterschiedlicher Bewegungsunschärfe zu erhalten.
  7. Verfahren nach Anspruch 6, gekennzeichnet durch Aufnehmen des mit einer ersten kurzen Belichtungsdauer aufzunehmenden mindestens einen Bildes einer Szene mit einem Verstärkungsfaktor zur Belichtungssteuerung, der höher als der zum Aufnehmen derselben Szene mit einer zweiten Belichtungsdauer vorgesehene Verstärkungsfaktor ist.
  8. Bildverarbeitungseinrichtung mit mindestens einer Kamera zur Aufnahme einer Folge von Bildern einer Szene, mit einer Steuerungseinheit zur Steuerung der mindestens einen Kamera und mit einer Bildauswerteeinheit, dadurch gekennzeichnet, dass die Steuerungseinheit eingerichtet ist, um mindestens ein Bild einer Szene mit einer ersten Belichtungsdauer und dieselbe Szene mit einer zweiten Belichtungsdauer aufzunehmen, die geringer als die erste Belichtungsdauer ist, so dass das mit der zweiten Belichtungsdauer aufgenommene Bild der Szene eine höhere Bewegungsunschärfe hat als das mit der ersten Belichtungsdauer aufgenommene, mindestens eine Bild derselben Szene, und dass die Bildauswerteeinheit zur Ermittlung des zweidimensionalen Bewegungsvektorfeldes aus dem mit der zweiten Belichtungsdauer aufgenommenen Bild der Szene mit höherer Bewegungsunschärfe in Bezug zu dem zeitlich mit diesem Bild der Szene zusammenhängenden, mindestens einen Bildes dieser Szene mit erster Belichtungsdauer eingerichtet ist.
  9. Bildverarbeitungseinrichtung nach Anspruch 8, dadurch gekennzeichnet, dass die Bildauswerteeinheit zur Faltung von mindestens zwei Bildern einer mit der ersten Belichtungsdauer aufgenommenen Folge von Bildern derselben Szene eingerichtet ist.
  10. Bildverarbeitungseinrichtung nach Anspruch 8 oder 9, gekennzeichnet durch eine erste zur Aufnahme eines Bildes einer Szene mit einer ersten Belichtungsdauer eingerichteten Bildaufnahmeeinheit, die einen Verstärkungsfaktor zur Belichtungssteuerung hat, der höher als der Verstärkungsfaktor einer zweiten Bildaufnahmeeinheit zum Aufnehmen derselben Szene mit einer zweiten Belichtungsdauer ist.
  11. Bildverarbeitungseinrichtung nach Anspruch 10, dadurch gekennzeichnet, dass die erste und zweite Bildaufnahmeeinheit voneinander unabhängige Kameras sind, die zur Aufnahme der Szene aus näherungsweise gleicher Perspektive ausgerichtet sind.
  12. Bildverarbeitungseinrichtung nach Anspruch 10, dadurch gekennzeichnet, dass die erste und zweite Bildaufnahmeeinheit über einen gemeinsamen Strahlteiler auf dieselbe Szene ausgerichtet sind, um die Szene mit identischer Perspektive aufzunehmen.
  13. Bildverarbeitungseinrichtung nach einem der Ansprüche 8 oder 9, dadurch gekennzeichnet, dass die Bildverarbeitungseinrichtung genau eine Kamera zum Aufnehmen der Szene hat und die Steuerungseinheit eingerichtet ist, um zeitlich hintereinander Bilder der Szene mit voneinander unterschiedlichen Belichtungsdauern mit der Kamera aufzunehmen, um von einer Szene Bilder mit unterschiedlicher Bewegungsunschärfe zu erhalten.
  14. Bildverarbeitungseinrichtung nach Anspruch 13, dadurch gekennzeichnet, dass die Steuerungseinheit eingerichtet ist, um die mit einer ersten Belichtungsdauer aufzunehmende Szene mit einen Verstärkungsfaktor zur Belichtungssteuerung aufzunehmen, der höher als der zum Aufnehmen derselben Szene mit einer zweiten Belichtungsdauer vorgesehene Verstärkungsfaktor ist.
DE102007049740A 2007-10-16 2007-10-16 Verfahren zur Ermittlung von zweidimensionalen Bewegungsvektorfeldern in einer Bildsequenz und Bildverarbeitungseinrichtung hierzu Ceased DE102007049740A1 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102007049740A DE102007049740A1 (de) 2007-10-16 2007-10-16 Verfahren zur Ermittlung von zweidimensionalen Bewegungsvektorfeldern in einer Bildsequenz und Bildverarbeitungseinrichtung hierzu
PCT/EP2008/008262 WO2009049766A1 (de) 2007-10-16 2008-09-29 Verfahren zur ermittlung von zweidimensionalen bewegungsvektorfeldern in einer bildsequenz und bildverarbeitungseinrichtung hierzu

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102007049740A DE102007049740A1 (de) 2007-10-16 2007-10-16 Verfahren zur Ermittlung von zweidimensionalen Bewegungsvektorfeldern in einer Bildsequenz und Bildverarbeitungseinrichtung hierzu

Publications (1)

Publication Number Publication Date
DE102007049740A1 true DE102007049740A1 (de) 2009-04-23

Family

ID=40220175

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007049740A Ceased DE102007049740A1 (de) 2007-10-16 2007-10-16 Verfahren zur Ermittlung von zweidimensionalen Bewegungsvektorfeldern in einer Bildsequenz und Bildverarbeitungseinrichtung hierzu

Country Status (2)

Country Link
DE (1) DE102007049740A1 (de)
WO (1) WO2009049766A1 (de)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1998014010A1 (en) 1996-09-27 1998-04-02 Nds Limited Method and apparatus for motion estimation
EP0614318B1 (de) 1993-03-04 1999-12-01 Kabushiki Kaisha Toshiba Videokoder und -dekoder
US20060290821A1 (en) 2002-06-28 2006-12-28 Microsoft Corporation Video processing system and method for automatic enhancement of digital video

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002305683A (ja) * 2001-04-04 2002-10-18 Olympus Optical Co Ltd 撮像装置および撮像プログラムを記録した記録媒体
WO2006137253A1 (ja) * 2005-06-22 2006-12-28 Matsushita Electric Industrial Co., Ltd. 画像生成装置および画像生成方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0614318B1 (de) 1993-03-04 1999-12-01 Kabushiki Kaisha Toshiba Videokoder und -dekoder
WO1998014010A1 (en) 1996-09-27 1998-04-02 Nds Limited Method and apparatus for motion estimation
US20060290821A1 (en) 2002-06-28 2006-12-28 Microsoft Corporation Video processing system and method for automatic enhancement of digital video

Non-Patent Citations (6)

* Cited by examiner, † Cited by third party
Title
Chr. Theobalt, J. Carranza, M. A. Magnor, H.-P. Seidel: "Enhancing Silhouette-based Human Motion Capture with 3D Motion Fields", in: Proc. IEEE Pacific Graphics 2003, Canmore, Canada, pp. 185-193, October 2003
M.-Ben-Ezra und S. K. Nayar: "Motion-Based Motion-Deblurring" in: IEEE Transactions an Pattern Analysis and Machine Intelligence, Vol. 26, No. 6, June 2004
Nayar, S.K.; Ben-Ezra, M.: "Motion-based motion de blurring", Pattern Analysis and Machine Intelligen ce, IEEE Transactions on, Volume 26, Issue 6, June 2004, pp. 689-698; Wei-Ge Chen, N. Nandhakumar, W .N. Martin: "Estimating image motion from smear: a sensor system and extensions", IEEE 1995, Interna tional Conference on Image Processing (ICIP'95) - Volume 1 , pp. 199-202
Nayar, S.K.; Ben-Ezra, M.: "Motion-based motion deblurring", Pattern Analysis and Machine Intelligence, IEEE Transactionson, Volume 26, Issue 6, June 2004, pp. 689-698 *
SukHan Lim und Abbas EI Gamal: "Optical Flow Estimation Using High Frame Rate Sequences", in: Proc. Int. Conf. Image Processing, Vol. 2, 2001, pp. 925-928
Wei-Ge Chen, N. Nandhakumar, W .N. Martin: "Estimating image motion from smear: a sensor system and extensions", IEEE 1995, International Conference on Image Processing (ICIP'95)-Volume 1, pp. 199-202 *

Also Published As

Publication number Publication date
WO2009049766A1 (de) 2009-04-23

Similar Documents

Publication Publication Date Title
DE4102196C2 (de) Abbildungsvorrichtung zum Nachführen eines Objektes
DE102008034979B4 (de) Verfahren und Einrichtung zur Erzeugung von fehlerreduzierten hochauflösenden und kontrastverbesserten Bildern
EP2710794B1 (de) Verfahren zur erzeugung und auswertung eines bilds
DE102012006493A1 (de) Kameraimplementierung des Wählens und Stitchens von Einzelbildern für Panoramaaufnahmen
DE102010062496A1 (de) Verfahren und Vorrichtung zum Verarbeiten von Bildinformationen zweier zur Bilderfassung geeigneter Sensoren eines Stereo-Sensor-Systems
DE102009057885A1 (de) Abbildungsvorrichtung
DE102006034374A1 (de) Verfahren und Anordnung zur Röntgenbildaufnahme
DE102008008733A1 (de) Verfahren zur Erstellung einer Schichtaufnahme
DE102006039946A1 (de) Verfahren und System zum Bestimmen der Bewegung eines Bilderfassungsgeräts
DE112015005847T5 (de) Endoskopvorrichtung und Scharfeinstellungssteuerungsverfahren für Endoskopvorrichtung
DE102018104913A1 (de) Schwingungsüberwachung eines Objekts mittels Videokamera
DE102014107160A1 (de) Bildaufnahmevorrichtung und Verfahren zum Erhalten von Tiefenschärfeinformation von einem Bereich davon
DE102010008456A1 (de) Verfahren zur Extraktion eines IR-Bildes und Wärmebildkamera
DE102018123402A1 (de) Bildunschärfekorrekturvorrichtung und steuerverfahren
DE10305221B4 (de) Verfahren zur Reduktion von Rauschstrukturen in Arrays von Pixelwerten
DE102007053390A1 (de) Verfahren und Computertomographiegerät zur Erzeugung einer zeitlichen Abfolge von tomographischen Bildern zu einer vorbestimmten Phasenlage eines sich zyklisch bewegenden Objektes
DE112013001869T5 (de) Bilderzeugungsvorrichtung, Kameravorrichtung, Bilddarstellungsvorrichtung und Bilderzeugungsverfahren
DE102007049740A1 (de) Verfahren zur Ermittlung von zweidimensionalen Bewegungsvektorfeldern in einer Bildsequenz und Bildverarbeitungseinrichtung hierzu
DE102013226101A1 (de) Überwachungskameravorrichtung mit Tiefeninformationsbestimmung
DE102008026657A1 (de) Verfahren und Vorrichtung zur bildgebenden Darstellung von akustischen Objekten
DE102017113194A1 (de) Verfahren zum Verfolgen einer Vielzahl von punktförmigen Objekten im Raum
DE102009017135A1 (de) Verfahren, Vorrichtung und Computerprogramm zur Videodatenanalyse
DE102012102962B3 (de) Verfahren zur Bildaufzeichnung
EP1379073A1 (de) Bildaufnahmeverfahren für ein Panoramabild
DE102018208604A1 (de) Ermitteln eines Aufnahmeverhaltens einer Aufnahmeeinheit

Legal Events

Date Code Title Description
OP8 Request for examination as to paragraph 44 patent law
8131 Rejection
R003 Refusal decision now final

Effective date: 20110228