DE69428838T2 - Videokamera mit elektronischer Bildstabilisierung und Erzeugung von Additionsdaten - Google Patents

Videokamera mit elektronischer Bildstabilisierung und Erzeugung von Additionsdaten

Info

Publication number
DE69428838T2
DE69428838T2 DE69428838T DE69428838T DE69428838T2 DE 69428838 T2 DE69428838 T2 DE 69428838T2 DE 69428838 T DE69428838 T DE 69428838T DE 69428838 T DE69428838 T DE 69428838T DE 69428838 T2 DE69428838 T2 DE 69428838T2
Authority
DE
Germany
Prior art keywords
integration vector
correction
detection
video camera
integration
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
DE69428838T
Other languages
English (en)
Other versions
DE69428838D1 (de
Inventor
Akio Kobayashi
Akira Toba
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sanyo Electric Co Ltd
Original Assignee
Sanyo Electric Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP15946393A external-priority patent/JP2957851B2/ja
Priority claimed from JP5178653A external-priority patent/JP2925890B2/ja
Application filed by Sanyo Electric Co Ltd filed Critical Sanyo Electric Co Ltd
Publication of DE69428838D1 publication Critical patent/DE69428838D1/de
Application granted granted Critical
Publication of DE69428838T2 publication Critical patent/DE69428838T2/de
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/18Error detection or correction; Testing, e.g. of drop-outs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6815Motion detection by distinguishing pan or tilt from motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/681Motion detection
    • H04N23/6811Motion detection based on the image signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/14Picture signal circuitry for video frequency region
    • H04N5/144Movement detection
    • H04N5/145Movement estimation

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • Multimedia (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Studio Devices (AREA)

Description

    HINTERGRUND DER ERFINDUNG Gebiet der Erfindung
  • Die vorliegende Erfindung bezieht sich auf eine Videokamera. Insbesondere bezieht sich die vorliegende Erfindung auf eine kompakte Videokamera mit einem elektronischen Bildstabilisator, die z. B. als Camcorder verwendet wird.
  • Beschreibung des Stands der Technik
  • Ein Beispiel eines Verfahrens zum Erfassen einer unbeabsichtigten Bewegungskomponente einer Bilderfassungsvorrichung wurde z. B. bei der 20. Konferenz über bildgebende Verfahren 1989 durch die Matsushita Electric Industrial Corporation offenbart. Bei diesem Verfahren des Stands der Technik wird durch Verwenden eines Bewegungsvektors, der durch ein Repräsentativpunkt-Abgleichverfahren gewonnen wird, das z. B. in der japanischen Patentanmeldung-Offenlegungsschrift Nr. 61 (1986)-201581 [H04 N 7/137] offenbart wird, die Bewegungskomponente der Bilderfassungsvorrichung gemäß der Bildinformation erfaßt. Bei diesem Stand der Technik wird ein Abschwächungskoeffizient verwendet, um die Korrektur eines Verschwimmens bzw. Verwischens eines Bildes aufgrund der unbeabsichtigten Bewegung, das heißt die elektronische Bildstabilisierung durchzuführen. Außerdem sind vier Erfassungsbereiche in einem Bildfeld oder Schirm angeordnet, weshalb vier Abschnitt-Bewegungsvektoren aus dem Bildfeld gewonnen werden.
  • Es wird nun ein Verfahren zum Durchführen der Korrektur des Verschwimmens des Bildes aufgrund der unbeabsichtigten Bewegung, das heißt die elektronische Bildstabilisierung auf der Grundlage der Abschnitt-Bewegungsvektoren beschrieben. Als Gesamt-Bewegungsvektor wird ein Mittelwert der vier Abschnitt-Bewegungsvektoren oder ein Mittelwert von zwei Abschnitt-Bewegungsvektoren mit Zwischenwerten in den vier Abschnitt-Bewegungsvektoren verwendet. Wenn der Gesamt-Bewegungsvektor Vn ist, wird ein Integrationsvektor Sn durch die folgende Gleichung dargestellt.
  • Sn = k·Sn-1 + Vn
  • wobei k als Abschwächungskoeffizient bezeichnet wird, der eine Dezimalzahl kleiner als 1 ist.
  • Wie in Fig. 9 gezeigt, wird z. B. eine Bildextraktionsposition bewegt, indem man den so gewonnenen Integrationsvektor Sn verwendet, wodurch ein Verschwimmen bzw. Verwischen eines Bildes aufgrund der unbeabsichtigten Bewegung der Videokamera korrigiert wird.
  • Jedoch wird bei diesem Verfahren des Stands der Technik selbst dann, wenn der Gesamt- Bewegungsvektor Vn Null ist, die Bildextraktionsposition derart zentriert, daß der Integrationsvektor Sn mit der Zeit gegen Null strebt. Das heißt, es gab bei dem Verfahren des Stands der Technik das Problem, daß das Bild auf dem Schirm sich selbst dann bewegt, wenn keine Bewegung in der Videokamera auftritt.
  • "Electronic Image Stabilization System for Video Camera" von K. Nomori et al., SMPT Journal, Band 101 Nr. 2, Februar 1992, New York, USA, Seiten 66 bis 75 offenbart eine Videokamera gemäß dem Oberbegriff von Anspruch 1.
  • Darüber hinaus offenbart die US-A-5 I70 255 eine Videokamera mit einem ersten Integrationsvektor-Berechnungsmittel zum Berechnen eines ersten Integrationsvektors auf der Grundlage eines Gesamt-Bewegungsvektors, einem zweiten Integrationsvektor-Berechnungsmittel zum Berechnen eines zweiten Integrationsvektors des Bildes auf der Grundlage des Gesamt- Bewegungsvektors sowie ein Korrekturmittel zum Korrigieren eines Verschwimmens bzw. Verwischens des Bildes gemäß dem Integrationsvektor, der durch das erste Integrationsvektor-Berechnungsmittel oder das zweite Integrationsvektor-Berechnungsmittel berechnet wird. Diese Videokamera umfaßt außerdem ein erstes Erfassungsmittel zum Erfassen mindestens einer Panoramierung oder eines Kippens, wobei das Korrekturmittel eine Korrektur durchführt unter Verwendung des Integrationsvektors, der durch das zweite Integrationsvektor- Berechnungsmittel als Reaktion auf die Erfassung des ersten Erfassungsmittels berechnet wird, wenn eine Korrektur unter Verwendung des durch das erste Integrationsvektor-Berechungsmittel berechneten Integrationsvektors durchgeführt wird.
  • Diese Videokamera verwendet in dem ersten und dem Integratiorisvektor-Berechnungsmittel Bandpaß-Filtertechniken.
  • ZUSAMMENFASSUNG DER ERFINDUNG
  • Es ist daher eine Hauptaufgabe der vorliegenden Erfindung, eine Videokamera mit einem neuartigen elektronischen Bildstabilisator bereitzustellen.
  • Eine weitere Aufgabe der vorliegenden Erfindung besteht darin, eine Videokamera mit einem elektronischen Bildstabilisator bereitzustellen, der in der Lage ist, eine Korrektur des Verschwimmens bzw. Verwischens des Bildes aufgrund der unbeabsichtigten Bewegung der Videokamera, das heißt die elektronische Bildstabilisierung mit großer Genauigkeit durchzuführen.
  • Diese Aufgaben werden durch die Videokamera nach Anspruch 1 gelöst. Die abhängigen Ansprüche beziehen sich auf weitere vorteilhafte Gesichtspunkte der vorliegenden Erfindung.
  • Der Integrationsvektor Sn wird gemäß der Gleichung Sn = k&sub1;·Sn-1 + V" bezüglich des Gesamt-Bewegungsvektors Vn in dem ersten Integrationsvektor-Berechungsmittel berechnet, und in dem zweiten Integrationsvektor-Berechungsmittel wird die Länge Sn' eines Integrationsvektors Sn berechnet gemäß der Gleichung Sn' = Sn-1' - K&sub2;· Vn . Das heißt, der Integrationsvektor zum Korrigieren der Verschmierung bzw. der Verwischung des Bildes aufgrund der unbeabsichtigten Bewegung der Videokamera wird in dem ersten Integrationsvektor-Berechnungsmittel berechnet, und in dem zweiten Integrationsvektor-Berechnungsmittel wird der Integrationsvektor für die erzwungene Zentrierung der Bildextraktionsposition berechnet.
  • Ein erstes Erfassungsmittel erfaßt eine Schwenkung oder ein Kippen der Videokamera:
  • Wenn daher das erste Erfassungsmittel die Panoramierung und das Kippen erfaßt, wenn das Korrekturmittel die Korrektur durchführt (elektronische Bildstabilisierung), indem der durch das erste Integrationsvektor-Berechnungsmittel berechnete Integrationsvektor verwendet wird, führt das Korrekturmittel die Korrektur unter Verwendung des Integrationsvektors durch, der durch das zweite Integrationsvektor-Berechnungsmittel berechnet wurde.
  • Ein zweites Erfassungsmittel erfaßt die Vollendung der Schwenkung oder des Kippens der Videokamera, und ein drittes Erfassungsmittel erfaßt, daß der Integrationsvektor kleiner als ein erster vorbestimmter Wert ist.
  • Wenn das zweite Erfassungsmittel die Vollendung der Schwenkung oder des Kippens erfaßt und das dritte Erfassungsmittel erfaßt, daß der Integrationsvektor kleiner als der erste vorbestimmte Wert ist, wenn das Korrekturmittel die Korrektur durch Verwenden des Integrationsvektors durchführt, der durch das zweite Integrationsvektor-Berechnungsmittel berechnet wurde, führt daher das Korrekturmittel die Korrektur unter Verwendung des Integrationsvektors durch, der durch das erste Integrationsvektor-Berechnungsmittel berechnet wurde.
  • Nach einem Gesichtspunkt der vorliegenden Erfindung weist die Videokamera außerdem ein drittes Integrationsvektor-Berechnungsmittel auf, durch das ein Integrationsvektor Sn gemäß der Gleichung Sn = K&sub3;·Sn-1 + Vn bezüglich des Gesamt-Bewegungsvektors Vn berechnet wird. Allerdings wird der Integrationsvektor gemäß der Gleichung Sn = Sn-1 berechnet, wenn der Gesamt-Bewegungsvektor kleiner als ein Bildelement ist. Das heißt, das Berechnungsverfahren des Integrationsvektors in dem dritten Integrationsvektor-Berechnungsmittel ist ähnlich wie das des ersten Integrationsvektor-Berechnungsmittels. Wenn allerdings der Gesamt-Bewegungsvektor kleiner als ein Bildelement in dem dritten Integrationsvektor-Berechnungsmittel als Integrationsvektor eines aktuellen Halbbildes oder Vollbildes ist, wird der Integrationsvektor des letzten Halbbildes oder Vollbildes verwendet. Wenn die Bewegung der Videokamera klein ist, wie z. B. in einem Fall, bei dem die Videokamera durch einen Dreifuß fixiert ist, wird der Zentriervorgang gestoppt.
  • Ein viertes Erfassungsmittel erfaßt, daß der Gesamt-Bewegungsvektor kleiner als ein zweiter vorbestimmter Wert ist, und ein fünftes Erfassungsmittel erfaßt, daß der Integrationsvektor größer als ein dritter vorbestimmter Wert ist.
  • Wenn das vierte Erfassungsmittel erfaßt, daß der Gesamt-Bewegungsvektor kleiner als der zweite vorbestimmte Wert ist, und das fünfte Erfassungsmittel erfaßt, daß der Integrationsvektor größer als der dritte vorbestimmte Wert ist, wenn das Korrekturmittel die Korrektur unter Verwendung des Integrationsvektors durchführt, der durch das erste Integrationsvektor-Berechnungsmittel berechnet wird, führt daher das Korrekturmittel die Korrektur unter Verwendung des Integrationsvektors durch, der durch das dritte Integrationsvektor-Berechnungsmittel berechnet wurde.
  • Wenn das dritte Erfassungsmittel erfaßt, daß der Integrationsvektor kleiner als der erste vorbestimmte Wert ist, wenn das Korrekturmittel die Korrektur unter Verwendung des Integrationsvektors durchführt, der durch das dritte Integrationsvektor-Berechnungsmittel berechnet wurde, führt das Korrekturmittel außerdem die Korrektur unter Verwendung des Integrationsvektors durch, der durch das erste Integrationsvektor-Berechnungsmittel berechnet wurde. Wenn die Schwenkung oder das Kippen der Videokamera durch das erste Erfassungsmittel erfaßt wird, führt dann das Korrekturmittel die Korrektur unter Verwendung des Integrationsvektors durch, der durch das zweite Integrationsvektor-Berechnungsmittel berechnet wurde.
  • Wenn das zweite Erfassungsmittel die Vollendung der Schwenkung oder Panoramierung oder des Kippens der Videokamera erfaßt und das dritte Erfassungsmittel erfaßt, daß der Integrationsvektor größer als der erste vorbestimmte Wert ist, wenn das Korrekturmittel die Korrektur unter Verwendung des Integrationsvektors durchführt, der durch das zweite Integrationsvektor-Berechnungsmittel berechnet wurde, führt das Korrekturmittel außerdem die Korrektur unter Verwendung des Integrationsvektors durch, der durch das dritte Integrationsvektor-Berechnungsmittel berechnet wurde.
  • Bei einem weiteren Gesichtspunkt der vorliegenden Erfindung weist die Videokamera außerdem ein viertes Integrationsvektor-Berechnungsmittel auf, in dem ein Integrationsvektor Sn gemäß der Gleichung Sn = K&sub4;·Sn-1 + Vn bezüglich des Gesamt-Bewegungsvektors Vn berechnet wird. Wenn allerdings der Gesamt-Bewegungsvektor kleiner als ein Bildelement ist, wird der Integrationsvektor gemäß der Gleichung Sn = Sn-1 berechnet. Obwohl das vierte Integrationsvektor-Berechnungsmittel den Integrationsvektor auf ähnliche Weise wie das dritte Integrationsvektor-Berechnungsmittel berechnet, ist ein Abschwächungskoeffizient K&sub4; kleiner als der Abschwächungskoeffizient K&sub3;, weshalb der Zentrierungsvorgang unter Verwendung des Integrationsvektors, der durch das vierte Integrationsvektor-Berechnungsmittel berechnet wurde, schneller wird, als der Zentrierungsvorgang unter Verwendung des Integrationsvektors, der durch das dritte Integrationsvektor-Berechnungsmittel berechnet wurde.
  • Ein sechstes Erfassungsmittel erfaßt, daß der Integrationsvektor innerhalb eines vorbestimmten Bereichs vorhanden ist.
  • Wenn daher das vierte Erfassungsmittel erfaßt, daß der Gesamt-Bewegungsvektor kleiner als der zweite vorbestimmte Wert ist, und das sechste Erfassungsmittel erfaßt, daß der Integrationsvektor innerhalb des vorbestimmten Bereichs vorhanden ist, wenn das Korrekturmittel die Korrektur unter Verwendung des Integrationsvektors durchführt, der durch das erste Integrationsvektor-Berechnungsmittel berechnet wurde, führt daher das Korrekturmittel die Korrektur unter Verwendung des Integrationsvektors durch, der durch das vierte Integrationsvektor-Berechnungsmittel berechnet wurde.
  • Wenn das dritte Erfassungsmittel erfaßt, daß der Integrationsvektor kleiner als der erste vorbestimmte Wert ist, wenn das Korrekturmittel die Korrektur unter Verwendung des Integrationsvektors durchführt, der durch das vierte Integrationsvektor-Berechnungsmittel berechnet wurde, führt das Korrekturmittel die Korrektur unter Verwendung des Integrationsvektors durch, der durch das erste Integrationsvektor-Berechnungsmittel berechnet wurde. Wenn das erste Erfassungsmittel die Schwenkung oder das Kippen der Videokamera erfaßt, führt das Korrekturmittel außerdem die Korrektur unter Verwendung des Integrationsvektors durch, der durch das zweite Integrationsvektor-Berechnungsmittel berechnet wurde. Wenn das fünfte Erfassungsmittel erfaßt, daß der Integrationsvektor größer als der dritte vorbestimmte Wert ist, führt das Korrekturmittel außerdem die Korrektur unter Verwendung des Integrationsvektors durch, der durch das dritte Integrationsvektor-Berechnungsmittel berechnet wurde.
  • Wenn das sechste Erfassungsmittel erfaßt, daß der Integrationsvektor innerhalb des vorbestimmten Bereichs vorhanden ist, wenn das Korrekturmittel die Korrektur unter Verwendung des Integrationsvektors durchführt, der durch das dritte Integrationsvektor-Berechnungsmittel berechnet wurde, führt das Korrekturmittel die Korrektur unter Verwendung des Integrationsvektors durch, der durch das vierte Integrationsvektor-Berechnungsmittel berechnet wurde.
  • Außerdem erfaßt das erste Erfassungsmittel die Schwenkung oder das Kippen der Videokamera auf der Grundlage des Integrationsvektors oder des Gesamt-Bewegungsvektors, und das zweite Erfassungsmittel erfaßt die Vollendung der Schwenkung oder des Kippens der Videokamera auf der Grundlage des Gesamt-Bewegungsvektors.
  • Gemäß der vorliegenden Erfindung wird durch Ändern eines Verfahrens zum Bestimmen des Integrationsvektors Sn gemäß dem Zustand der Videokamera erreicht, daß die Bewegung des Bildes aufgrund des Zentrierungsvorgangs nach der Panoramierung oder dem Kippen der Videokamera nicht auftritt. Wenn z. B. der Zentrierungsvorgang näherungsweise während einer Zeit abgeschlossen wird, in der die Panoramierung oder das Kippen der Kamera durchgeführt wird, kann eine Zeitdauer für den Zentrierungsvorgang nach der Panoramierung oder dem Kippen verkürzt werden. Da die Videokamera während einer Zeit bewegt wird, in der die Panoramierung durchgeführt wird, ist es möglich, das Zentrierungsvorgangs-Bild während einer Zeitdauer durchzuführen, bei der die Panoramierung durchgeführt wird, während ein Benutzer der Videokamera nicht bemerkt, daß der Zentrierungsvorgang durchgeführt wird. Somit ist es gemäß der vorliegenden Erfindung möglich, die Korrektur des Verschwimmens bzw. Verschmierens des Bildes aufgrund der unbeabsichtigten Bewegung der Videokamera, das heißt die elektronische Bildstabilisierung mit hoher Genauigkeit durchzuführen.
  • Die oben beschriebenen Aufgaben sowie weitere Aufgaben, Merkmale, Gesichtspunkte und Vorteile der vorliegenden Erfindung ergeben sich aus der folgenden ausführlichen Beschreibung der vorliegenden Erfindung anhand der begleitenden Zeichnung.
  • KURZBESCHREIBUNG DER ZEICHNUNG
  • Fig. 1 ist ein Blockdiagramm, das ein Ausführungsbeispiel gemäß der vorliegenden Erfindung zeigt;
  • Fig. 2 ist ein Blockdiagramm, das eine Bewegung-Erfassungsschaltung des Ausführungsbeispiels von Fig. 1 zeigt;
  • Fig. 3 ist eine veranschaulichende Ansicht, die ein Prinzip eines elektronischen Zoom- und Erfassungsbereichs innerhalb eines Bildfeldes bzw. Halbbildes zeigt;
  • Fig. 4 ist eine veranschaulichende Ansicht, die ein Prinzip des elektronischen Zoomens sowie Repräsentativpunkte und Abtastpunkte in dem Erfassungsbereich zeigt;
  • Fig. 5 ist eine veranschaulichende Ansicht, die ein Verfahren zeigt zum Erfassen eines Gegenstands mit einem sich wiederholenden Muster unter Verwendung eines Bildelements mit einem minimalen Korrelativwert und vier Bildelementen um dieses herum;
  • Fig. 6 ist ein Blockdiagramm, das eine Additionsdaten-Erzeugungsschaltung des Ausführungsbeispiels von Fig. 1 zeigt;
  • Fig. 7 ist eine veranschaulichende Ansicht, die einen Zustand zeigt, bei dem das Bildfeld bzw. das Halbbild in 64 Additionsbereiche unterteilt ist, um den Gegenstand mit dem sich wiederholenden Muster zu erfassen;
  • Fig. 8 ist eine veranschaulichende Ansicht, die ein Prinzip einer elektronischen Bildstabilisierung zeigt;
  • Fig. 9 ist eine veranschaulichende Ansicht, die die Erfassungsbereiche innerhalb des Bildfeldes bzw. Halbbildes zeigt, bei dem das Repräsentativpunkt-Abgleichverfahren verwendet wird;
  • Fig. 10 ist ein Flußdiagramm, das eine Funktionsweise des Ausführungsbeispiels zeigt;
  • Fig. 11 ist ein Flußdiagramm, das eine Funktionsweise zeigt, die auf Fig. 10 folgt;
  • Fig. 12 ist ein Flußdiagramm, das eine Funktionsweise zeigt, die auf Fig. 11 folgt;
  • Fig. 13 ist ein Flußdiagramm, das eine Funktionsweise zeigt, die auf Fig. 12 folgt;
  • Fig. 14 ist ein Flußdiagramm, das eine Funktionsweise zeigt, die auf Fig. 13 folgt; und
  • Fig. 15 ist ein Diagramm, das Zustände der elektronischen Bildstabilisierung im Vergleich mit dem Stand der Technik zeigt.
  • AUSFÜHRLICHE BESCHREIBUNG DER BEVORZUGTEN AUSFÜHRUNGSBEISPIELE
  • Eine Videokamera 10 eines in Fig. 1 gezeigten bevorzugten Ausführungsbeispiels enthält eine Festkörper-Bilderfassungsvorrichtung 12, wie z. B. eine ladungsgekoppelte Vorrichtung (CCD), die ein von einem Gegenstand (nicht gezeigt) durch eine Linse 14 eingegebenes optisches Signal in ein elektrisches Signal umwandelt. Das elektrische Signal der Festkörper-Bilderfassungsvorrichtung 12 wird in eine Kameraschaltung 16 eingegeben. Bekanntlicherweise enthält die Kameraschaltung 16 eine Abtast/Halte-Schaltung, durch die das elektrische Signal von der Festkörper-Bilderfassungsvorrichtung 12 abgetastet und gehalten wird. Ein Pegel des so abgetasteten und gehaltenen elektrischen Signals wird durch eine automatische Verstärkungssteuerung (AGC) eingestellt, und es werden Synchronisationssignale zu dem elektrischen Signal mittels einer Synchronisationssignal- Addierschaltung (nicht gezeigt) addiert. Somit wandelt die Kameraschaltung 16 das elektrische Signal von der Festkörper-Bilderfassungsvorrichtung 12 in ein analoges Videosignal um. Das analoge Videosignal wird durch einen Analog/Digital-Wandler 18 weiter in ein digitales Videosignal umgewandelt. Das digitale Videosignal wird einer Bewegung- Erfassungsschaltung 20 zugeführt. Als Bewegung-Erfassungsschaltung 20 kann z. B. eine LSI "L7A0948" verwendet werden, die durch Sanyo Electric Co., Ltd. hergestellt wird, der Anmelderin der vorliegenden Erfindung. Unter der Steuerung einer Speicher-Steuerungsschaltung 22, die in derselben, die Bewegung-Erfassungsschaltung 20 bildenden LSI enthalten ist, wird das digitale Videosignal Halbbild für Halbbild in einen Halbbild-Speicher 24 geschrieben.
  • Die Bewegung-Erfassungsschaltung 20 bestimmt für jeden der in Fig. 3 gezeigten vier Erfassungsbereiche A, B, C und D eine Position eines Punktes mit einem höchsten Korrelationsgrad (einem minimalen Korrelationswert) und Positionen von vier Punkten um den einen Punkt herum, sowie Korrelativwerte unter Verwendung eines bekannten Repräsentativpunkt-Abgleichverfahrens. Die Positionsdaten und die Korrelativwertdaten werden einem Mikrocomputer 26 zugeführt.
  • Wie man anhand von Fig. 2 sieht, enthält die in Fig. 1 gezeigte Bewegung-Erfassungsschaltung 20 insbesondere ein Eingangsende 28, welches das digitale Videosignal von dem Analog/Digital-Wandler 18 empfängt. Das in das Eingangsende 28 eingegebene digitale Videosignal wird dem Repräsentativpunkt-Speicher 32 bzw. einer Subtraktionsschaltung 34 durch ein Filter 30 zugeführt. Das Filter 30 ist eine Art Tiefpaßfilter, das zum Verbessern eines Signal/Rausch-Verhältnisses verwendet wird, um eine signifikante Erfassungsgenauigkeit mit einer geringeren Anzahl von Repräsentativpunkten zu gewährleisten. Der Repräsentativpunkt-Speicher 32 speichert Positionsdaten und Luminanzdaten einer Vielzahl von Repräsentativpunkten innerhalb jedes der in Fig. 3 gezeigten jeweiligen Erfassungsbereiche A-D. In diesem gezeigten Ausführungsbeispiel ist jeder der Erfassungsbereiche in 30 Gebiete unterteilt, weshalb 30 Repräsentativpunkte bestimmt werden, so daß der Repräsentativpunkt-Speicher 32 die Positionsdaten und die Luminanzdaten der 30 Repräsentativpunkte speichert. Jedes der durch die Unterteilung zustandegekommenen Gebiete 42 (Fig. 4) besteht aus 32 Bildelementen in einer horizontalen Richtung (X-Richtung) mal 16 Bildelementen in einer vertikalen Richtung (Y-Richtung).
  • Die Subtraktionsschaltung 34 führt Subtraktionsoperationen der Luminanzdaten des Repräsentativpunktes des letzten ausgelesenen Halbbildes des Repräsentativpunkt-Speichers 32 und der Luminanzdaten aller Bildelemente des gegenwärtigen Halbbildes durch, die von dem Eingangsende 28 über das Filter 30 zugeführt werden, und erhält absolute Werte der Subtraktionsergebnisse. Das heißt, die Subtraktionsschaltung 34 bewertet eine Luminanzdifferenz zwischen den Luminanzdaten des gegenwärtigen Halbbildes und den Luminanzdaten des letzten Halbbildes und führt die Luminanzdifferenzen einer Akkumulations- und Addierschaltung 36 zu. Die Akkumulations- und Addierschaltung 36 führt eine Akkumulation und Addition der 30 Luminanzdifferenzen in diesem Ausführungsbeispiel durch, die durch die Subtraktionsschaltung 34 von derselben Position oder dem Bildelement in demselben Bereich 42 gewonnen werden, und Korrelativwert-Daten werden einer Arithmetikbetrieb-Schaltung 38 zugeführt, die einen minimalen Korrelativwert bestimmt und einen mittleren Korrelativwert für jeden der Erfassungsbereiche A-D berechnet und Positionsdaten der Bildelemente mit dem minimalen Korrelativwert bestimmt. Die Daten des minimalen Korrelativwerts, des mittleren Korrelativwerts sowie Positionen, die durch die Arithmetikbetrieb-Schaltung 38 so gewonnen werden, werden dem oben beschriebenen Mikrocomputer 26 von einem Ausgangsende 40 zugeführt. Außerdem können derartige Arithmetikoperationen für die Korrelativwerte durch die oben beschriebene LSI "L7A0948" durchgeführt werden.
  • In dem Mikrocomputer 26 wird dann ein Bewegungsvektor eines gesamten Schirms, das heißt des Bildfeldes bzw. des Halbbildes 44 (Fig. 3)(einfach als "Gesamt-Bewegungsvektor Vn" bezeichnet) auf der Grundlage der Positionsdaten und der Korrelativwert-Daten berechnet.
  • Zunächst wird eine Abweichung eines Bildelements, das den minimalen Korrelativwert kennzeichnet, von dem Repräsentativpunkt auf der Grundlage der Positionsdaten dieses Bildelements bestimmt, und die Abweichung wird zu einem Abschnitt-Bewegungsvektor gemacht. Um die Erfassungsgenauigkeit des Abschnitt-Bewegungsvektors zu verbessern, wird eine interne Interpolation durchgeführt, indem man die Korrelativwerte der vier Bildelemente um das Bildelement herum, das den minimalen Korrelativwert hat, verwendet, um so die Positionsdaten des Bildelements zu berechnen, das den minimalen Korrelativwert hat.
  • In dem Mikrocomputer 26 wird dann bestimmt, ob ein durch Dividieren des mittleren Korrelativwertes durch den minimalen Korrelativwert gewonnener Wert größer als ein Schwellenwert ist, und es wird bestimmt, ob der mittlere Korrelativwert gleich groß oder größer als ein vorbestimmter Wert ist, und es wird bestimmt, ob ein minimaler Wert X (später beschrieben) gleich groß oder größer als ein vorbestimmter Wert P ist, das heißt, es wird ein sogenannter Gradient erfaßt. Solche Bestimmungen werden für jeden der Erfassungsbereiche A-D durchgeführt, wodurch bestimmt wird, ob der Abschnitt-Bewegungsvektor von jedem der Erfassungsbereiche A-D nicht fehlerhaft aufgrund eines sich bewegenden Gegenstands erfaßt wird und somit zuverlässig ist, das heißt, es wird bestimmt, ob jeder der Erfassungsbereiche A-D ein gültiger Bereich ist. Außerdem erfaßt der Mikrocomputer einen Gegenstand mit einem sich wiederholenden Muster gemäß einem Verfahren, bei dem bestimmt wird, ob der minimale Wert X gleich groß oder größer als ein vorbestimmter Wert P für jeden der Erfassungsbereiche A-D ist. Wenn der durch Dividieren des mittleren Korrelativwerts durch den minimalen Korrelativwert gewonnene Wert größer als der vorbestimmte Schwellenwert ist und der mittlere Korrelativwert gleich groß oder größer als der vorbestimmte Wert ist, und der minimale Wert X gleich oder größer als der vorbestimmte Wert P ist, wird der Erfassungsbereich als ein gültiger Erfassungsbereich bestimmt.
  • Konkret wird die Bestimmung, ob der Erfassungsbereich der gültige Erfassungsbereich ist oder nicht, folgendermaßen durchgeführt:
  • Wenn der Kontrast des Bildschirms niedrig ist, ist die Luminanzdifferenz zunächst klein, wodurch der Korrelativwert klein wird. Wenn der gesamte Bildschirm z. B. weiß ist, ist der Korrelativwert klein. In einem solchen Fall ist die Zuverlässigkeit des Erfassungsergebnisses klein, und deshalb wird nur dann, wenn der mittlere Korrelativwert gleich groß oder größer als der vorbestimmte Wert ist, der Erfassungsbereich als der gültige Erfassungsbereich bestimmt. Außerdem kann der vorbestimmte Wert durch Feldversuche oder Prüfungen bestimmt werden. Somit wird auf der Grundlage des mittleren Korrelativwerts bestimmt, ob der Bildschirm einen niedrigen Kontrast hat.
  • Wenn der sich bewegende Gegenstand in dem Erfassungsbereich vorhanden ist, sind daher der Korrelativwert bei einem durch den sich bewegenden Gegenstand besetzten Abschnitt und der Korrelativwert, bei dem kein sich bewegender Gegenstand vorhanden ist, voneinander verschieden. Es werden verschiedene Arten von Korrelativwerten durch den Abschnitt gewonnen, der durch den sich bewegenden Gegenstand besetzt ist, und der Korrelativwert von diesem Abschnitt wird ein allgemein großer Wert (der Korrelationsgrad wird niedrig). Wenn der sich bewegende Gegenstand innerhalb des Erfassungsbereiches vorhanden ist, besteht daher eine Möglichkeit, daß der minimale Korrelativwert groß wird, und der Abschnitt-Bewegungsvektor dieses Erfassungsbereichs kann fehlerhaft erfaßt werden. Wenn der Abschnitt-Bewegungsvektor fehlerhaft erfaßt wird, wird der Gesamt-Bewegungsvektor ebenfalls fehlerhaft erfaßt. Wenn jedoch der mittlere Korrelativwert groß ist, ist der Abschnitt-Bewegungsvektor selbst dann zuverlässig, wenn der minimale Korrelativwert einigermaßen groß ist. Wenn andererseits der mittlere Korrelativwert klein ist, ist der Abschnitt-Bewegungsvektor nur dann zuverlässig, wenn der minimale Korrelativwert kleiner ist. Konkret wird daher der Erfassungsbereich dann als der gültige Erfassungsbereich bestimmt, wenn (mittlerer Korrelativwert / minimaler Korrelativwert) > 7, und wenn diese Bedingung nicht erfüllt ist, wird der Abschnitt-Bewegungsvektor des Erfassungsbereichs nicht verwendet, um den Einfluß aufgrund der oben beschriebenen fehlerhaften Erfassung zu verhindern. Somit bestimmt der Mikrocomputer 26 das Vorhandensein oder Nicht-Vorhandensein des sich bewegenden Gegenstands, indem er den Wert mittlerer Korrelativwert / minimaler Korrelativwert bestimmt.
  • Außerdem werden in dem Mikrocomputer 26 ein Punkt, der minimalen Korrelativwert hat, und die Korrelativwerte von vier Punkten um den einen Punkt herum verwendet, um den Gegenstand mit sich wiederholendem Muster (z. B. Streifen) zu erfassen.
  • Genauer gesagt, geht man von der Annahme aus, daß der minimale Korrelativwert M ist und die Korrelativwerte der vier Punkte links, rechts, oben und unten L, R, U und D sind, wie in Fig. 5 gezeigt. Die Differenzen zwischen den jeweiligen Korrelativwerten, das heißt, L-M, R-M, U-M und D-M werden berechnet, und ein minimaler Wert der Differenzen wird als Minimalwert X definiert. Der Minimalwert X wird mit dem vorbestimmten Wert P verglichen, der durch Felderprobungen bestimmt wird (P = 4 in diesem Ausführungsbeispiel). Wenn der Minimalwert X gleich groß oder größer als der vorbestimmte Wert ist, wird dann bestimmt, daß der Erfassungsbereich der gültige Erfassungsbereich ist, und wenn der Minimalwert X kleiner als der vorbestimmte Wert ist, wird der Erfassungsbereich als ein ungültiger Erfassungsbereich bestimmt.
  • Somit wird durch Bestimmen, ob die oben beschriebenen drei Bedingungen erfüllt werden können oder nicht, bestimmt, ob der Erfassungsbereich der gültige Erfassungsbereich oder ungültige Erfassungsbereich ist.
  • Es wird dann ein Mittelwert der Abschnitt-Bewegungsvektoren der gültigen Erfassungsbereiche bestimmt, und dieser wird zu einem Bewegungsbetrag zwischen den Feldern, das heißt zu dem Gesamt-Bewegungsvektor Vn gemacht. Der Gesamt-Bewegungsvektor Vn ist repräsentativ für den Bewegungsbetrag zwischen den Feldern und seine Richtung.
  • Darüber hinaus werden dem Mikrocomputer 26 jeweils Farbsignal-Additionsdaten und Luminanzsignal-Additionsdaten von einer Additionsdaten-Erzeugungsschaltung 46 zugeführt, wodurch der Gegenstand mit dem sich wiederholenden Muster erfaßt werden kann.
  • In Fig. 6 enthält die Additionsdaten-Erzeugungsschaltung 46 ein Eingangsende 48, das das elektrische Signal von der Festkörper-Bilderfassungsvorrichtung 12 empfängt, wobei Dreifarbensignale R, G und B von dem elektrischen Signal durch eine Farb-Trennschaltung 50 abgeleitet werden. Die Dreifarbensignale werden in eine Farbprozess- und Matrixschaltung 52 eingegeben, so daß ein Luminanzsignal Y, Farbdifferenz-Signale R-Y und B-Y erzeugt werden. Das Luminanzsignal Y und das Farbsignal R-Y und B-Y werden durch eine Auswahlschaltung 54 Halbbild für Halbbild umgeschaltet, um in einen Analog/Digital-Wandler 56 eingegeben zu werden. Das Luminanzsignal Y und die Farbdifferenz-Signale R-B und B-Y werden durch den Analog/Digital-Wandler 56 in Digitalsignale umgewandelt und anschließend in einen Addierer 58 eingegeben. In dem Addierer 58 werden das digitale Luminanzsignal Y und die digitalen Farbdifferenz-Signale R-Y und B-Y folgendermaßen verarbeitet:
  • Wie in Fig. 7 gezeigt, wird zunächst ein gesamter Bildschirm, das heißt das Bildfeld 44 in 64 (= 8 · 8) Additionsgebiete unterteilt. Aus praktischen Gründen werden (1), (2), (3), ..., (64) den jeweiligen Additionsgebieten in einer Reihenfolge zugeordnet, daß das Gebiet links oben zu "(1)" wird und das Gebiet rechts unten "(64)" wird.
  • Das Luminanzsignal Y und die Farbdifferenz-Signale R-Y und B-Y werden z. B. jeweils mit 3,58 MHz abgetastet, und die digitalen Daten des Luminanzsignals Y und der Farbdifferenz-Signale R-Y und B-Y werden für ein (i:1 ≤ i ≤ 64)-tes Additionsgebiet akkumuliert, so daß die Farbsignal-Additionsdaten und die Luminanzsignal-Additionsdaten gewonnen werden. Nun werden die Luminanzsignal-Additionsdaten und Farbsignal-Additionsdaten gewonnen durch Akkumulieren einer vorbestimmten Anzahl (27 in diesem Ausführungsbeispiel) digitaler Daten des Luminanzsignals Y und der Farbdifferenz-Signale R-Y bzw. B-Y. Derartige Verarbeitungen werden für jedes der 64 Additionsgebiete durchgeführt. Die Luminanzsignal-Additionsdaten und die Farbsignal-Additionsdaten werden von einem Ausgangsende 60 ausgegeben, um in einem Speicher (nicht gezeigt) des Mikrocomputers 26 gesichert oder gespeichert zu werden.
  • Der Mikrocomputer 26 bestimmt, ob der Gegenstand mit dem sich wiederholenden Muster in dem Bildfeld bzw. in dem Halbbild 44 enthalten ist; indem man die Luminanzsignal- Additionsdaten und Farbsignal-Additionsdaten verwendet, um ein Verfahren zum Korrigieren des Verschwimmens bzw. Verschmierens des Bildes aufgrund der unbeabsichtigten Bewegung der Videokamera, das heißt ein Verfahren zum Durchführen der elektronischen Bildstabilisierung, zu bestimmen.
  • Zunächst werden Differenzen zwischen den Farbsignal-Additionsdaten und den Luminanzsignal-Additionsdaten des (i)-ten Additionsgebiets und den Farbsignal-Additionsdaten und den Luminanzsignal-Additionsdaten eines (i-1)-ten Additionsgebiets, das neben dem (i)- ten Additionsgebiet liegt, jeweils bestimmt, und die Differenzen werden mit Schwellenwerten a, b und c verglichen, die durch Felderprobungen oder Untersuchungen bestimmt werden. Das heißt, in dem Mikrocomputer 26 wird zunächst bestimmt, ob die durch die folgende Gleichung (1) bestimmten Bedingungen erfüllt werden können oder nicht.
  • (R - Y)i - (R - Y)i-1 < a
  • (B - Y)i - (B - Y)i-1 < b
  • Yi - Yi-1 < c
  • Wobei (R - Y); und (B - Y); Farbsignal-Additionsdaten des (i)-ten Additionsgebiets sind und (R - Y)i-1 und (B - Y)i-1 Farbsignal-Additionsdaten des (i-1)-ten Additionsgebiets sind und Yi und Yi-1 Luminanzsignal-Additionsdaten des (i)-ten Additionsgebiets bzw. (i-1)-ten Additionsgebiets sind.
  • In diesem gezeigten Ausführungsbeispiel werden die Schwellenwerte z. B. auf a = 16, b = 16 und c = 4 - 8 eingestellt.
  • Wenn alle der durch die Formel (1) bestimmten oben beschriebenen Bedingungen erfüllt sind, wird ein Zählwert inkrementiert, da das (i)-te Additionsgebiet die Bedingungen in einer horizontalen Richtung erfüllt. Eine solche Bestimmung wird für jedes der Additionsgebiete durchgeführt.
  • Darüber hinaus werden ähnliche Verarbeitungen wie die oben beschriebenen Verarbeitungen auch in einer vertikalen Richtung durchgeführt. In der vertikalen Richtung werden die Differenzen zwischen den Daten des (i)-ten Additionsgebiets und des (i-8)-ten Additionsgebiets oberhalb des (i)-ten Additionsgebiets berechnet, und wenn alle durch die folgende Formel (2) definierten Bedingungen erfüllt sind und die Bedingungen in der vertikalen Richtung erfüllt sind, wird somit ein Zählwert inkrementiert.
  • (R - Y)i - (R - Y)i-8 < a
  • (B - Y)i - (B - Y)i-8 < b
  • Yi - Yi-8 < c
  • Wobei (R - Y)i und (B - Y)i Farbsignal-Additionsdaten des (i)-ten Additionsgebiets sind und (R - Y)i-8 und (B - Y)i-8 Farbsignal-Additionsdaten des (i-8)-ten Additionsgebiets sind, und wobei Yi und Yi-8 Luminanzsignal-Daten des (i)-ten Additionsgebiets bzw. des (i-8)-ten Additionsgebiets sind.
  • Außerdem werden in diesem gezeigten Ausführungsbeispiel die oben beschriebenen Schwellenwerte z. B. jeweils auf a = 16, b = 16 und c = 4 - 8 eingestellt.
  • Es wird dann der größere Wert eines Gesamt-Zählwertes der horizontalen Richtung und eines Gesamt-Zählwertes der vertikalen Richtung dividiert durch den kleineren Wert des Gesamt-Zählwertes der horizontalen Richtung und des Gesamt-Zählwertes der vertikalen Richtung, und wenn ein Divisionsergebnis gleich groß oder größer als ein vorbestimmter Wert ist (2 in diesem gezeigten Ausführungsbeispiel), wird entschieden, daß der Gegenstand mit dem sich wiederholenden Muster in dem Bildfeld bzw. dem Halbbild 44 vorhanden ist. Wenn andererseits das Divisionsergebnis kleiner als der vorbestimmte Wert ist, wird entschieden, daß kein Gegenstand mit einem sich wiederholenden Muster in dem Bildfeld bzw. Halbbild 44 vorhanden ist. In jedem der Fälle wird die elektronische Bildstabilisierung, das heißt die Korrektur des Verschwimmens bzw. Verschmierens des Bildes aufgrund der unbeabsichtigten Bewegung der Videokamera entsprechend der genannten Fälle durchgeführt.
  • Ein Auswahlsignal für die Auswahlschaltung 54 und Adressen des Speichers des Mikrocomputers 26, in dem durch Akkumulieren durch den Addierer 58 gewonnene Daten gespeichert sind, werden zusätzlich durch eine Synchronisation-Trennschaltung 62 und eine Zeitabstimmungsschaltung 64 erzeugt (Fig. 6).
  • Anschließend wird ein Integrationsvektor Sn duch den Mikrocomputer 26 bestimmt. Der Integrationsvektor Sn ist repräsentativ für einen Abweichungsbetrag eines Bildextraktionsbereichs von einer Mitte des Bildfeldes bzw. des Halbbildes 44 und für die Richtung dieser Abweichung. Ein Verfahren zum Berechnen des Integrationsvektors Sn wird in Übereinstimmung mit dem in der folgenden Tabelle gekennzeichneten Status verändert, wobei der Status Nr. 1 -Status Nr. 4 durch einen Zustand der Videokamera 10 bestimmt werden, wie z. B. die Panoramierung oder das Kippen. Die Daten der Tabelle 1 werden vorab in dem Speicher (nicht gezeigt) des Mikrocomputers 26 gespeichert.
  • Tabelle 1
  • Status Nr. 1 Sn = 0,996·Sn-1 + Vn
  • Status Nr. 2 Sn = Sn-1' - (1/4)· Vn
  • Falls Sn' < 0,S' = 0
  • Status Nr. 3 S = 0,996·Sn-1 + Vn
  • Falls Sn < ein Bildelement, Sn = Sn-1
  • Status Nr. 4 Sn = 0,992·Sn-1 + Vn
  • Falls Sn < ein Bildelement, Sn = Sn-1
  • Sn: der Integrationsvektor des n-ten Halbbildes
  • Sn-1: der Integrationsvektor des (n-1)-ten Halbbildes
  • Vn: der Gesamt-Bewegungsvektor zwischen dem (n-1)-ten Halbbild und dem n-ten Halbbild.
  • Der Status Nr. 1 ist ähnlich wie beim Stand der Technik in dem Verfahren zum Bestimmen des Integrationsvektors Sn. Der Status Nr. 2 ist eine Betriebsart, mit der man die Länge Sn' eines Integrationsvektors Sn unabhängig von der Richtung des Gesamt-Bewegungsvektors Vn gegen Null streben läßt, das heißt zum gezwungenen Zentrieren des Bildes. Der Status Nr. 3 und der Status Nr. 4 sind jeweils ähnlich wie der Status Nr. 1. Wenn jedoch in dem Status Nr. 3 und dem Status Nr. 4 der Gesamt-Bewegungsvektor Vn kleiner als ein Bildelement ist, wird der Integrationsvektor Sn des aktuellen Halbbildes mit dem Integrationsvektor Sn-1 des letzten Halbbildes gleichgemacht. Das heißt, wenn die Bewegung der Videokamera in einem solchen Fall klein ist, bei dem diese durch den Dreifuß gestützt wird, wird der Zentrierungsvorgang gestoppt. Außerdem ist der Abschwächungskoeffizient "0,992" des Status Nr. 4 kleiner als der Abschwächungskoeffizient "0,996" des Status Nr. 3, weshalb der Zentrierungsvorgang in dem Status Nr. 4 im Vergleich mit dem Status Nr. 3 schnell durchgeführt wird.
  • Außerdem werden in der oben beschriebenen Tabelle 1 zwar die Abschwächungskoeffizienten "0,996" und "0,992" verwendet, doch kann der Abschwächungskoeffizient auch eine willkürliche Dezimalzahl kleiner als 1 sein. Ein solcher Abschwächungskoeffizient hat eine Frequenzkennlinie. Darüber hinaus kann durch Ändern des Abschwächungskoeffizienten eine Geschwindigkeit des Zentriervorgangs verändert werden.
  • Der so bestimmte Integrationsvektor Sn wird der Speicher-Steuerungsschaltung 22 zugeführt. In der Speicher-Steuerungsschaltung 22 wird eine Startadresse zum Auslesen des Halbbild-Speichers 24 auf der Grundlage des Integrationsvektors Sn bestimmt, wodurch das in dem Halbbild-Speicher 24 gespeicherte digitale Videosignal an der Startadresse ausgelesen wird. Das heißt, die Speicher-Steuerungsschaltung 22 bewegt einen Bilderfassungsbereich 66 (Fig. 8), der durch das digitale Videosignal von dem Halbbild-Speicher 24 gebildet wird in Übereinstimmung mit dem durch den Mikrocomputer 26 berechneteten Integrationsvektor Sn.
  • Da der Bildextraktionsbereich 66 durch das von dem Halbbild-Speicher 24 unverändert ausgelesene digitale Videosignal nicht bewegt werden kann, wird außerdem eine elektronische Zoom-Schaltung 70 (Fig. 1) verwendet.
  • In Fig. 8 bestimmt die elektronische Zoom-Schaltung 70 (Fig. 1) den Bildextraktionsbereich 66, wobei ein Bild gemäß einer Zoom-Vergrößerung bezüglich des Bildfeldes 44 vergrößert wird. Eine Position des Bildextraktionsbereichs 66 kann innerhalb eines Bereichs des Bildfeldes 44 frei bewegt werden, indem man die Startadressen zum Auslesen des digitalen Videosignals von dem Halbbild-Speicher 24 ändert. Um ein Videosignal für einen gesamten Bereich des Bildfeldes 44 auf der Grundlage des digitalen Videosignals zu erhalten, das von dem Bildextraktionsbereich 66 extrahiert wird, wird anschließend ein Bild vergrößert, indem man eine interne Interpolation auf der Grundlage des von dem Halbbild- Speicher 24 ausgelesenen digitalen Videosignals verwendet. Durch Hochzoomen eines Bildes eines willkürlichen Bildextraktionsbereich 66 innerhalb des Bildfeldes 44 mittels der elektronischen Zoom-Schaltung 70 (Fig. 1) auf elektronische Weise kann somit ein korrigierbarer Bereich 68 gebildet werden, der gleich groß wie eine Differenz zwischen dem Bildfeld 44 und dem Bildextraktionsbereich 66 ist.
  • Wenn in der in Fig. 9 gezeigten Videokamera 10 eine unbeabsichtigte Bewegung auftritt durch eine Vibration bzw. ein Zittern der Hand einer Person, die die Videokamera 10 betätigt, wird ein Bild von der Videokamera 10 verschwommen bzw. verschmiert, was zu einem Fall führt, bei dem eine Person als "Gegenstand" in einem linken oberen Abschnitt innerhalb des Bildfeldes 44 vorhanden ist (in dem oberen Abschnitt in Fig. 9 gezeigt), oder zu einem Fall, bei dem eine "Gegenstandsperson" in einem rechten oberen Abschnitt innerhalb des Bildfeldes vorhanden ist (in einem unteren Abschnitt in Fig. 9 gezeigt). Durch Bewegen des Bildextraktionsbereichs 66 bei jedem Halbbild gemäß dem Gesamt-Bewegungsvektor, der durch den Mikrocomputer 26 berechnet wird, wie in dem rechten Abschnitt in Fig. 9 gezeigt, kann die "Gegenstandsperson" in dem Bildextraktionsbereich 66 richtig positioniert werden.
  • Das von der elektronischen Zoom-Schaltung 70 so ausgegebene digitale Videosignal wird durch einen Digital/Analog-Wandler 72 in ein analoges Signal umgewandelt, um von einem Ausgabeterminal 74 ausgegeben zu werden.
  • Außerdem können die im folgenden dargebotenen Verarbeitungen durch den Mikrocomputer 26 bei jedem Halbbild durchgeführt werden.
  • Zunächst wird in einem in Fig. 10 gezeigten Schritt S1 als Anfangszustand der Status Nr. 1 eingestellt. Zum Einstellen des Status kann z. B. eine Statusmarkierung verwendet werden. In einem Schritt S3 wird durch den Mikrocomputer 26 auf der Grundlage des mittleren Korrelativwertes und des minimalen Korrelativwertes bestimmt, ob jeder der Erfassungsbereiche A-D ein gültiger Erfassungsbereich oder ein ungültiger Erfassungsbereich ist. Das heißt, der Mikrocomputer 26 bestimmt, ob jeder der Abschnitt-Bewegungsvektoren, die durch die jeweiligen Erfassungsbereiche A-D erfaßt werden, auf einer unbeabsichtigten Bewegung der Videokamera beruht, das heißt, ob der Abschnitt-Bewegungsvektor, der für die Bestimmung der unbeabsichtigten Bewegung der Videokamera wirksam ist, erfaßt wird oder nicht. Wie oben beschrieben, wird der Kontrast des Bildschirms auf der Grundlage des mittleren Korrelativwertes bestimmt und das Vorhandensein oder Nicht-Vorhandensein des sich bewegenden Gegenstands wird bestimmt auf der Grundlage von mittlerer Korrelativwert / minimaler Korrelativwert, wodurch bestimmt wird, ob jeder der Erfassungsbereiche A-D gültig oder ungültig ist.
  • Wie oben beschrieben, wird dann in einem Schritt S5 durch den Mikrocomputer 26 der sogenannte Gradient für jeden der Erfassungsbereich A-D erfaßt, indem der minimale Korrelativwert und Korrelativwerte von vier Punkten, welche den Punkt mit dem minimalen Korrelativwert umgeben, verwendet werden. Es wird auf der Grundlage des Gradienten (das heißt, ob der minimale Wert X gleich groß oder größer als der vorbestimmte Wert P ist) das Vorhandensein oder Nicht-Vorhandensein des Gegenstands mit dem sich wiederholenden Muster bestimmt, wodurch bestimmt wird, ob jeder der Erfassungsbereiche A-D gültig oder ungültig ist.
  • Wenn ein gültiger Erfassungsbereich vorliegt, vergleicht der Mikrocomputer 26 in einem Schritt S9, wie oben beschrieben, die Luminanzsignal-Additionsdaten des Luminanzsignals Y und die Farbsignal-Additionsdaten der Farbdifferenz-Signale R - Y und B - Y jedes der Additionsgebiete mit denjenigen des linken benachbarten Additionsgebiets in der horizontalen Richtung bzw. des oberen benachbarten Additionsgebiets in der vertikalen Richtung und zählt, wie oft die Differenzen zwischen den beiden Daten die vorbestimmten Werte nicht überschreiten. Derartige Verarbeitungen werden für jedes der jeweiligen Additionsgebiete durchgeführt. Da jedoch bei den Additionsgebieten von (1), (9), (17), (25), (33), (41), (49) und (57) am linken Ende des Bildfeldes keine linken benachbarten Additionsgebiete vorhanden sind, wird der Vergleich in der horizontalen Richtung nicht durchgeführt. Daher wird der Vergleich in der horizontalen Richtung für jedes der insgesamt 56 Additionsgebiete durchgeführt. Bei den Additionsgebieten (1)-(8) an der obersten Linie gibt es auf ähnliche Weise keine oberen benachbarten Additionsgebiete, weshalb der Vergleich in der vertikalen Richtung nicht durchgeführt wird. Daher wird der Vergleich in der vertikalen Richtung ebenfalls für jedes der insgesamt 56 Additionsgebiete durchgeführt.
  • In einem Schritt S11 dividiert dann der Mikrocomputer 26 einen größeren Wert aus dem gesamten Zählwert der horizontalen Richtung und dem gesamten Zählwert der vertikalen Richtung durch einen kleineren Wert davon, und wenn das Divisionsergebnis gleich groß oder größer als der vorbestimmte Wert in einem Schritt S13 ist, schreitet das Verfahren zu einem Schritt S15 fort, in welchem der Gesamt-Bewegungsvektor des letzten Halbbildes zu dem Gesamt-Bewegungsvektor Vn des aktuellen Halbbildes gemacht wird. Wenn in Schritt S7 außerdem bestimmt wird, daß kein gültiger Erfassungsbereich vorliegt, schreitet das Verfahren zu Schritt S15 fort.
  • Wenn im Schritt S13 andererseits bestimmt wird, daß das Divisionsergebnis kleiner als der vorbestimmte Wert ist, schreitet das Verfahren zu einem Schritt S17 fort, indem ein Mittelwert der Abschnitt-Bewegungsvektoren der gültigen Erfassungsbereiche bestimmt wird, der dann zu dem Gesamt-Bewegungsvektor Vn bei dem aktuellen Halbbild gemacht wird. Nach dem Schritt S15 oder dem Schritt S17 schreitet das Verfahren zu einem Schritt S19 fort, in welchem bestimmt wird, ob der aktuelle Status der Status Nr. 1 ist oder nicht. Wenn der Status Nr. 1 vorliegt, wird in einem Schritt S21 der Integrationsvektor Sn auf der Grundlage der Gleichung Sn = 0,996·Sn-1 + Vn berechnet.
  • In einem in Fig. 12 gezeigten Schritt S23 wird dann bestimmt, ob in jedem der Halbbilder der Gesamt-Bewegungsvektor Vn mit derselben Richtung kontinuierlich über 30 Halbbilder hinweg erfaßt wird oder nicht. Wenn in Schritt S23 "ja" bestimmt wird, wird in einem Schritt S25 der Status von dem Status Nr. 1 zu dem Status Nr. 2 verändert, das heißt, eine Marke für den Status Nr. 2 wird eingestellt. Wenn in dem Schritt S23 "nein" bestimmt wird, wird in einem Schritt S27 bestimmt, ob der Integrationsvektor Sn größer als der korrigierbare Bereich 68 wird (Fig. 8), und es wird bestimmt, ob die Halbbilder, in denen jeweils die Bildextraktionsposition des Bildextraktionsbereichs 66 an dem Ende des Bildfeldes 44 vorhanden ist, über 48 Halbbilder hinweg kontinuierlich erfaßt werden oder nicht. Wenn in Schritt S27 "ja" bestimmt wird, wird der Status in Schritt S25 zu dem Status Nr. 2 verändert.
  • Das Verfahren schreitet dann zu einem in Fig. 14 gezeigten Schritt S29 fort, und die Bildextraktionsposition des Bildextraktionsbereichs 66 wird auf der Grundlage des Integrationsvektor Sn berechnet, wodurch der Bildextraktionsbereich 66 so bewegt wird, daß das Verschwimmen bzw. Verschmieren des Bildes aufgrund der unbeabsichtigten Bewegung der Videokamera korrigiert wird.
  • Wenn in dem in Fig. 12 gezeigten Schritt S27 "nein" bestimmt wird, schreitet das Verfahren zu einem Schritt S31 fort, in dem bestimmt wird, ob der Integrationsvektor Sn größer als 30 Bildelemente ist oder nicht. Wenn in Schritt S31 "ja" bestimmt wird, wird in einem nächsten Schritt S33 bestimmt, ob die Halbbilder, in denen jeweils der Gesamt-Bewegungsvektor Vn kleiner als ein Bildelement ist, über zehn Halbbilder hinweg kontinuierlich erfaßt werden. Wenn in Schritt S33 "ja" bestimmt wird, wird der Status von dem Status Nr. 1 zu dem Status Nr. 3 verändert, woraufhin das Verfahren zu Schritt S29 fortschreitet.
  • Wenn in Schritt S31 "nein" bestimmt wird, wird in einem Schritt S37 bestimmt, ob der Integrationsvektor Sn gleich groß oder größer als drei Bildelemente ist. Wenn in Schritt S37 "ja" bestimmt wird, wird in einem Schritt S39 ähnlich wie in Schritt S33 bestimmt, ob die Halbbilder, in denen jeweils der Abschnitt-Bewegungsvektor Vn kleiner als ein Bildelement ist, über zehn Halbbilder hinweg kontinuierlich erfaßt werden. Wenn in Schritt S37 "ja" bestimmt wird, wird in einem Schritt S41 der Status von dem Status Nr. 1 zu dem Status Nr. 3 verändert, woraufhin das Verfahren zu Schritt S29 fortschreitet. Wenn in einem der Schritte S33, S37 und S39 "nein" bestimmt wird, bleibt der Status in einem Schritt S43 bei dem Status Nr. 1, woraufhin das Verfahren zu Schritt S29 fortschreitet.
  • Wenn der Status in dem in Fig. 11 gezeigten Schritt S19 nicht der Status Nr. 1 ist, schreitet das Verfahren zu einem in Fig. 13 gezeigten Schritt S45 fort. Wenn der Status in Schritt S45 der Status Nr. 2 ist, wird in einem Schritt S47 die Länge Sn' eines Integrationsvektors Sn gemäß der Gleichung Sn' = Sn-q' - (1/4)· Vn berechnet. Wenn dann in einem Schritt S49 bestimmt wird, ob die Länge Sn' eines Integrationsvektors Sn kleiner als Null Bildelemente ist, das heißt, ob die Länge Sn eines Integrationsvektors Sn negativ wird, und wenn in Schritt S49 "ja" bestimmt wird, wird in einem Schritt S51 die Länge Sn' eines Integrationsvektors Sn auf Null gesetzt (Sn' = 0), woraufhin das Verfahren zu einem Schritt S53 fortschreitet. Wenn in Schritt S49 "nein" bestimmt wird, schreitet das Verfahren unmittelbar zu Schritt S53 fort. In Schritt S53 wird bestimmt, ob die Halbbilder, in denen jeweils der Gesamt-Bewegungsvektor Vn entgegengesetzt zu dem Gesamt-Bewegungsvektor Vn wird, kurz bevor der Status in den Status Nr. 2 eintritt, über zehn Halbbilder hinweg kontinuierlich erfaßt werden. Wenn in Schritt S53 "ja" bestimmt wird, wird in einem Schritt S55 bestimmt, ob der Integrationsvektor Sn kleiner als drei Bildelemente ist. Wenn in Schritt S55 "ja" bestimmt wird, wird in einem Schritt S57 der Status Nr. 2 zu dem Status Nr. 1 eingestellt. Wenn in Schritt S53 "nein" bestimmt wird, verbleibt der Status in dem Status Nr. 2. Wenn andererseits "nein" in Schritt S55 bestimmt wird, wird in einem Schritt S61 der Status von dem Status Nr. 2 in den Status Nr. 3 geändert. Nach dem Schritt S57, S59 oder S61 schreitet das Verfahren zu dem Schritt S24 fort (Fig. 14).
  • Wenn in Schritt S45 andererseits der Status nicht der Status Nr. 2 ist, wird in einem Schritt S63 bestimmt, ob der Status der Status Nr. 3 ist oder nicht. Wenn in Schritt S63 "ja" bestimmt wird, wird in einem Schritt S65 bestimmt, ob der Gesamt-Bewegungsvektor Vn kleiner als ein Bildelement ist. Wenn der Gesamt-Bewegungsvektor Vn kleiner als ein Bildelement ist, wird in einem Schritt S67 der Integrationsvektor Sn als Sn = Sn - 1 eingestellt, woraufhin das Verfahren zu einem Schritt S69 fortschreitet. Wenn in Schritt S6S "nein" bestimmt wird, wird in einem Schritt S71 der Integrationsvektor Sn gemäß der Gleichung Sn = 0,996·Sn - 1 + Vn berechnet, woraufhin das Verfahren zu Schritt S69 fortschreitet. In Schritt S69 wird ähnlich wie bei dem oben beschriebenen Schritt S23 (Fig. 12) bestimmt, ob die Halbbilder, in denen jeweils der Gesamt-Bewegungsvektor Vn dieselbe Richtung hat, über 30 Halbbilder kontinuierlich erfaßt werden. Wenn in Schritt S69 dann "ja" bestimmt wird, wird in einem Schritt S73 der Status von dem Status Nr. 3 zu dem Status Nr. 2 verändert.
  • Wenn in Schritt S69 "nein" erfaßt wird, wird in einem Schritt S75 ähnlich wie bei dem oben beschriebenen Schritt S27 (Fig. 12) bestimmt, ob die Bildfelder bzw. Halbbilder, in denen jeweils die Bildextraktionsposition des Bildextraktionsbereichs am Ende des Halbbild-Speichers 44 ist, über 48 Halbbilder hinweg kontinuierlich erfaßt werden. Wenn in Schritt S75 "ja" erfaßt wird, wird in dem vorhergehenden Schritt S73 der Status zu dem Status Nr. 2 hin verändert.
  • Wenn in Schritt S75 "nein" erfaßt wird, wird in einem Schritt S77 bestimmt, ob der Integrationsvektor Sn gleich groß oder kleiner als 30 Bildelemente ist. Wenn in Schritt S77 "ja" bestimmt wird, wird in einem Schritt S79 ähnlich wie bei dem oben beschriebenen Schritt S37 bestimmt, ob der Integrationsvektor Sn gleich groß oder größer als drei Bildelemente ist. Wenn in Schritt S79 "ja" bestimmt wird, das heißt, wenn der Integrationsvektor Sn innerhalb eines Bereichs von drei Bildelementen bis 30 Bildelementen vorliegt, wird in einem Schritt S81 der Status von dem Status Nr. 3 zu dem Status Nr. 4 verändert. Wenn hingegen in Schritt S79 "nein" erfaßt wird, das heißt, wenn der Integrationsvektor Sn kleiner als drei Bildelemente ist, wird in einem Schritt S83 der Status von dem Status Nr. 3 zu dem Status Nr. 1 verändert. Wenn in Schritt S77 "nein" bestimmt wird, das heißt, wenn der Integrationsvektor 5 > 7, größer als 30 Bildelemente ist, verbleibt in einem Schritt S85 der Status in dem Status Nr. 3. Nach dem Schritt S73, S81, S83 oder S85 schreitet das Verfahren zu dem Schritt S29 fort (Fig. 14).
  • Wenn in Schritt S63 bestimmt wird, daß der Status nicht der Status Nr. 3 ist, schreitet das Verfahren weiterhin zu einem in Fig. 14 gezeigten Schritt S87 fort, da der Status als Status Nr. 4 bestimmt wird. In einem Schritt S87 wird ähnlich wie bei dem oben beschriebenen Schritt S65 bestimmt, ob der Gesamt-Bewegungsvektor Vn kleiner als ein Bildelement ist oder nicht. Wenn daher der Gesamt-Bewegungsvektor Vn kleiner als ein Bildelement ist, wird in einem Schritt S89 der Integrationsvektor Sn gemäß der Gleichung Sn = Sn - 1 eingestellt, und das Verfahren schreitet zu einem Schritt S91 fort. Wenn in dem Schritt S87 "nein" bestimmt wird, wird in einem Schritt S93 der Integrationsvektor Sn gemäß der Gleichung Sn = 0,992·Sn-1 + Vn bestimmt, woraufhin das Verfahren zu dem Schritt S91 fortschreitet, bei dem ähnlich wie bei den oben beschriebenen Schritten S23 und S69 bestimmt wird, ob die Halbbilder, in denen jeweils der Gesamt-Bewegungsvektor Vn dieselbe Richtung hat, über 30 Halbbilder hinweg kontinuierlich erfaßt werden. Wenn in dem Schritt S91 "ja" bestimmt wird, wird daher in einem Schritt S95 der Status vor dem Status Nr. 4 zu dem Status Nr. 2 geändert, woraufhin das Verfahren zu dem Schritt S29 fortschreitet.
  • Wenn andererseits in dem Schritt S91 "nein" bestimmt wird, wird in einem Schritt S97 ähnlich wie bei den oben beschriebenen Schritten S27 und S75 bestimmt, ob das Halbbild, in dem jeweils die Bildextraktionsposition des Bildextraktionsbereichs 66 an dem Ende des Bildfeldes 44 vorliegt, über 48 Halbbilder hinweg kontinuierlich erfaßt wird. Wenn in Schritt S97 "ja" erfaßt wird, wird in Schritt S95 der Status von dem Status Nr. 4 zu dem Status Nr. 2 geändert, woraufhin das Verfahren zu Schritt S29 fortschreitet. Wenn in Schritt S97 "nein" bestimmt wird, wird in einem Schritt S99 ähnlich wie bei dem oben beschriebenen Schritt S55 bestimmt, ob der Integrationsvektor Sn kleiner als drei Bildelemente ist. Wenn in Schritt S99 "ja" bestimmt wird, wird dann in einem Schritt S101 der Status von dem Status Nr. 4 zu dem Status Nr. 1 verändert, woraufhin das Verfahren zu Schritt S29 fortschreitet.
  • Wenn in Schritt S99 "nein" bestimmt wird, wird in einem Schritt S103 ähnlich wie bei dem Schritt S31 bestimmt, ob der Integrationsvektor Sn größer als 30 Bildelemente ist oder nicht. Wenn in dem Schritt S103 "ja" bestimmt wird, wird in einem Schritt S105 der Status von dem Status Nr. 4 zu dem Status Nr. 3 geändert. Wenn jedoch in dem Schritt S103 "nein" erfaßt wird, bleibt in einem Schritt S107 der Status bei dem Status Nr. 4. Nach dem Schritt S105 oder S107 schreitet das Verfahren zu dem Schritt S29 fort.
  • Wenn in der Videokamera 10, die in der oben beschriebenen Art und Weise arbeitet, der Zustand der Videokamera 10 lediglich die unbeabsichtigte Bewegung ist, wird der Status als der Status Nr. 1 eingestellt. Wenn die Panoramierung oder das Kippen der Videokamera durchgeführt wird, wird der Status als der Status Nr. 2 eingestellt. Wenn es wenig unbeabsichtige Bewegung in einem Fall gibt, bei dem die Videokamera z. B. durch einen Dreifuß festgestellt ist, wird außerdem der Status als der Status Nr. 3 oder der Status Nr. 4 eingestellt.
  • Daher wird während der Panoramierung oder des Kippens das Bild zwangszentriert, wobei jedoch nach der Panoramierung oder dem Kippen kein Zentrierungsvorgang durchgeführt wird. Wenn der Zentrierungsvorgang während des Panoramierens oder des Kippens nicht vollendet wird, wenn der Gesamt-Bewegungsvektor Vn klein ist, wird außerdem der Status Nr. 3 oder der Status Nr. 4 eingestellt, wodurch der Zentrierungsvorgang gestoppt wird, da der Integrationsvektor auf Sn = Sn-1 eingestellt wird.
  • Wenn die Videokamera 10 von einem Zustand panoramiert wird, bei dem die unbeabsichtigte Bewegung der Videokamera auftritt, und anschließend die Videokamera 10 fixiert wird, wird die Beziehung zwischen der Anzahl der Halbbilder und der Bewegungsbetrag der Videokamera 10 zu einer Beziehung, wie sie in Fig. 15 gezeigt ist. In Fig. 15 zeigt eine durchgezogene Linie A den Bewegungsbetrag der Videokamera 10 selbst, und eine gestrichelte Linie B zeigt den Bewegungsbetrag des Bildextraktionsbereichs 66, nachdem die elektronische Bildstabilisierung in der Videokamera 10 durchgeführt worden ist, und eine doppelt punktierte Linie C zeigt den Bewegungsbetrag des Bildextraktionsbereichs 66, nachdem die elektronische Bildstabilisierung durch das Verfahren des Stands der Technik durchgeführt worden ist.
  • Wenn zunächst die unbeabsichtigte Bewegung der Videokamera 10 auftritt, wie in der Periode (a) in Fig. 15 gezeigt, wird das Verschwimmen bzw. das Verschmieren des Bildes aufgrund der unbeabsichtigten Bewegung der Videokamera durch den Status Nr. 1 korrigiert. Wenn der Zustand der Videokamera von der unbeabsichtigten Bewegung der Videokamera in die Panoramierung eintritt, wie durch die Periode (b) gezeigt, wird in dem anfänglichen Zustand die unbeabsichtigte Bewegung der Videokamera korrigiert, doch ergibt sich danach, daß die Bildextraktionsposition des Bildextraktionsbereichs 66 an dem Ende des Bildfeldes 44 vorhanden ist, da der Integrationsvektor Sn den korrigierbaren Bereich 68 (Fig. 8) überschreitet. Wenn ein solcher Zustand über 48 Halbbilder hinweg kontinuierlich erfaßt wird, wird der Status zu dem Status Nr. 2 verändert. Dann wird das Verschwimmen bzw. Verschmieren des Bildes durch die Gleichung Sn = Sn-1 - (1/4)· Vn korrigiert, und die Bewegung des Bildes nach der Korrektur nähert sich rasch der Bewegung der Videokamera 10 an, das heißt, die gestrichelte Linie B nähert sich rasch der durchgezogenen Linie A. Das heißt, die Zwangszentrierung, durch welche die Bildextraktionsposition des Bildextraktionsbereichs 66 sich zu einer Mitte des Bildfeldes 44 hin bewegt, wird rasch durchgeführt. Wenn dann die Videokamera 10 nach der Vollendung der Panoramierung der Videokamera in einem festgehaltenen Zustand ist, weil der Integrationsvektor Sn aufgrund der Zentrierung klein wird, wie in der Periode (c) gezeigt, wird der Status erneut zum Status Nr. 1. Wenn die Videokamera 10 fixiert ist, ist der Gesamt-Bewegungsvektor Vn klein, weshalb der Status zu dem Status Nr. 4 verändert wird, so daß der Zentrierungsvorgang nach zehn Halbbildern gestoppt wird.
  • Nach der Vollendung der Panoramierung der Videokamera tritt daher bei dem Verfahren des Stands der Technik der Zentrierungsvorgang auf (durch die doppelt punktierte Linie C gezeigt). Allerdings wird bei der Videokamera dieses gezeigten Ausführungsbeispiels der Zentrierungsvorgang während des Panoramierungsbetriebs der Videokamera näherungsweise vollendet, oder selbst wenn der Zentrierungsvorgang nicht vollendet wird, wird bestimmt, daß die unbeabsichtigte Bewegung der Videokamera klein ist, da diese durch den Dreifuß fixiert ist, weshalb gemäß dem gezeigten Ausführungsbeispiel kein Zentrierungsvorgang nach dem Panoramieren der Videokamera auftritt.
  • Gemäß dem oben beschriebenen Ausführungsbeispiel wird das Vorhandensein oder Nicht- Vorhandensein des Gegenstands mit einem sich wiederholenden Muster, bei dem die Korrelativwerte nicht korrekt erfaßt werden, mit hoher Genauigkeit erfaßt, indem man den Farbsignal-Pegel und den Luminanzsignal-Pegel verwendet, und eine Fehlfunktion zu einem Zeitpunkt, bei dem der Zustand ein sich wiederholendes Muster hat, kann verhindert werden, wodurch das Verschwimmen bzw. Verschmieren des Bildes aufgrund der unbeabsichtigten Bewegung der Videokamera 10 mit hoher Genauigkeit korrigiert werden kann. Es ist daher in dem gezeigten Ausführungsbeispiel möglich, die folgenden Nachteile zu beseitigen.
  • Insbesondere ist es bei dem Verfahren des Stands der Technik notwendig, zur Durchführung der elektronischen Bildstabilisierung mit hoher Genauigkeit den Zustand des Bildes mit hoher Genauigkeit zu erfassen, weshalb ein Gegenstand mit dem sich wiederholenden Muster folgendermaßen erfaßt wird. Genauer gesagt wird durch Erfassen von Absolutwerten der Differenzen der jeweiligen Korrelativwerte zwischen dem Bildelement, das den minimalen Korrelativwert hat, und den Korrelativwerten von vier Bildelementen, die den Punkt des minimalen Korrelativwerts umgeben, das Vorhandensein oder Nicht-Vorhandensein des sich wiederholenden Musters erfaßt, woraufhin ein Verfahren zum Berechnen des Gesamt-Bewegungsvektors Vn bestimmt wird.
  • Bei dem Verfahren des Stands der Technik gibt es jedoch einen Fall, bei dem das sich wiederholende Muster nicht erfaßt werden kann. Es tritt daher ein Fall auf, bei dem der Gesamt-Bewegungsvektor Vn in Übereinstimmung mit einem Verfahren gemäß dem Gegenstand mit dem sich wiederholenden Muster nicht berechnet werden kann, wodurch eine Möglichkeit besteht, daß das Verschwimmen bzw. Verschmieren des Bildes aufgrund der unbeabsichtigten Bewegung der Videokamera nicht mit hoher Genauigkeit korrigiert wird, weil die Vibration des Bildes aufgrund der Fehlfunktion nicht gestoppt wird. Da bei diesem gezeigten Ausführungsbeispiel hingegen das Vorhandensein oder Nicht-Vorhandensein des Gegenstands mit einem sich wiederholenden Muster mit hoher Genauigkeit erfaßt werden kann, ist es daher möglich, die unbeabsichtigte Bewegung der Videokamera mit hoher Genauigkeit zu korrigieren.
  • Außerdem ist ein Verfahren zum Verwenden des Gesamt-Zählwertes der horizontalen Richtung und des Gesamt-Zählwertes der vertikalen Richtung nicht auf eines der oben beschriebenen begrenzt, weshalb die Korrektur für die unbeabsichtigte Bewegung der Videokamera in einem Falle gestoppt werden kann, bei dem die Differenzen zwischen einem Gesamt-Zählwert und dem anderen Gesamt-Zählwert größer als der vorbestimmte Wert sind, oder einer oder beide der beiden Gesamt-Zählwerte über dem vorbestimmten Wert liegen, wobei die Korrektur aufgrund der unbeabsichtigten Bewegung der Videokamera gestoppt werden kann.
  • Darüber hinaus kann der Vergleich der Additionsdaten zwischen dem rechten benachbarten Additionsgebiet in der horizontalen Richtung und mit dem unteren benachbarten Additonsgebiet in der vertikalen Richtung durchgeführt werden.
  • Darüber hinaus kann der Bewegungsvektor bestimmt werden durch Verwenden eines Winkelgeschwindigkeit-Sensors anderer Bauart als bei einem Verfahren, in welchem das "Repräsentativ-Marschierverfahren" bzw. das Repräsentativpunkt-Abgleichverfahren verwendet wird.
  • Darüber hinaus führt bei den oben beschriebenen Ausführungsbeispielen der Mikrocomputer 26 die Operation gemäß den in Fig. 10 bis 14 gezeigten Flußdiagrammen bei jedem Halbbild durch. Dasselbe kann auch bei jedem Vollbild durchgeführt werden. In einem solchen Fall wird der Gesamt-Bewegungsvektor zu einem Gesamt-Bewegungsvektor zwischen dem letzten Vollbild und dem aktuellen Vollbild.
  • Die vorliegende Erfindung wurde zwar ausführlich beschrieben und veranschaulicht, doch dient dies selbstverständlich nur zur Veranschaulichung und als nicht einschränkend aufzufassendes Beispiel, da der Schutzbereich der vorliegenden Erfindung nur durch den Wortlaut der beigefügten Ansprüche begrenzt ist.

Claims (21)

1. Videokamera, welche aufweist:
ein erstes Integrationsvektor-Berechnungsmittel (26) zum Berechnen eines Integrationsvektors Sn gemäß der folgenden Gleichung (1) auf der Grundlage eines Gesamt-Bewegungsvektors Vn:
Sn = K1·Sn-1 + Vn ...(1)
Sn: ein Integrationsvektor des n-ten Halbbilds oder Vollbilds
Sn-1: ein Integrationsvektor des (n-1)-ten Halbbilds oder Vollbilds;
Vn: ein Gesamt-Bewegungsvektor zwischen dem (n-1)-ten Halbbild oder Vollbild zu dem n-ten Halbbild oder Vollbild;
K1: ein Abschwächungskoeffizient kleiner als 1;
und ein Verschwimmen eines Bildes kann korrigiert werden durch Verwendung des Integrationsvektors Sn, dadurch gekennzeichnet, daß die Kamera weiterhin aufweist: ein zweites Integrationsvektor-Berechnungsmittel (26) zum Berechnen einer Länge Sn' eines Integrationsvektors Sn des Bildes gemäß der folgenden Gleichung (2) auf der Grundlage des Gesamt-Bewegungsvektors Vn:
Sn' = Sn-1' - K2· Vn ...(2)
falls die Länge von Sn' < 0, dann Sn' = 0
K&sub2;: ein Abschwächungskoeffizient kleiner als 1;
ein Korrekturmittel (26) zum Korrigieren eines Verschwimmens eines Bildes gemäß dem Integrationsvektor, der durch das erste Integrationsvektor-Berechnungsmittel (26) oder das zweite Integrationsvektor-Berechnungsmittel (26) berechnet wird; und wobei die Videokamera außerdem ein erstes Erfassungsmittel (20, 26) aufweist zum Erfassen mindestens einer Panoramierung oder eines Kippens, wobei das Korrekturmittel (26) eine Korrektur durchführt durch Verwendung des Integrationsvektors, der durch das zweite Integrationsvektor-Berechnungsmittel (26) als Reaktion auf die Erfassung des ersten Erfassungsmittels (20, 26) berechnet wird, wenn eine Korrektur unter Verwendung des durch das erste Integrationsvektor-Berechnungsmittel (26) berechneten Integrationsvektors durchgeführt wird.
2. Videokamera nach Anspruch 1, welche weiterhin aufweist:
ein zweites Erfassungsmittel (20, 26) zum Erfassen der Vollendung mindestens der Panoramierung oder des Kippens; und
ein drittes Erfassungsmittel (20, 26) zum Erfassen, daß der Integrationsvektor kleiner als ein vorbestimmter Wert ist;
wobei das Korrekturmittel (26) die Korrektur durchführt unter Verwendung des durch das erste Integrationsvektor-Berechnungsmittel (26) berechneten Integrationsvektors als Reaktion auf die Erfassung des zweiten Erfassungsmittels (20, 26) und die Erfassung des dritten Erfassunsgmittels (20, 26), wenn die Korrektur unter Verwendung des durch das zweite Integrationsvektor-Berechnungsmittel (26) berechneten Integrationsvektors durchgeführt wird.
3. Videokamera nach Anspruch 2, welche weiterhin aufweist:
ein drittes Integrationsvektor-Berechnungsmittel (26) zum Berechnen eines Integrationsvektors Sn gemäß der folgenden Gleichung (3) auf der Grundlage des Gesamt-Bewegungsvektors Vn:
Sn = K&sub3;·Sn-1 + Vn ...(3)
K&sub3;: ein Abschwächungskoeffizient kleiner als 1;
wobei das dritte Integrationsvektor-Berechnungsmittel (26) den Integrationsvektor gemäß einer Gleichung Sn = Sn-1 berechnet, wenn der Gesamt-Bewegungsvektor kleiner als ein Pixel ist.
4. Videokamera nach Anspruch 3, welche weiterhin aufweist:
ein viertes Erfassungsmittel (26) zum Erfassen, daß der Gesamt-Bewegungsvektor kleiner als ein zweiter vorbestimmter Wert ist; und
ein fünftes Erfassungsmittel (26) zum Erfassen, daß der Integrationsvektor größer als ein dritter vorbestimmter Wert ist;
wobei das Korrekturmittel (26) die Korrektur durchführt unter Verwendung des durch das dritte Integrationsvektor-Berechnungsmittel (26) berechneten Integrationsvektors als Reaktion auf die Erfassung des vierten Erfassungsmittels (26) und die Erfassung des fünften Erfassunsgmittels (26), wenn die Korrektur unter Verwendung des durch das erste Integrationsvektor-Berechnungsmittel (26) berechneten Integrationsvektors durchgeführt wird.
5. Videokamera nach Anspruch 4, bei welcher das Korrekturmittel die Korrektur durchführt unter Verwendung des durch das erste Integrationsvektor-Berechnungsmittel berechneten Integrationsvektors als Reaktion auf die Erfassung des dritten Erfassungsmittels (26), wenn die Korrektur unter Verwendung des durch das dritte Integrationsvektor- Berechnungsmittel (26) berechneten Integrationsvektors durchgeführt wird.
6. Videokamera nach Anspruch 5, bei welcher das Korrekturmittel die Korrektur durchführt unter Verwendung des durch das zweite Integrationsvektor-Berechnungsmittel berechneten Integrationsvektors als Reaktion auf die Erfassung des ersten Erfassungsmittels (26), wenn die Korrektur unter Verwendung des durch das dritte Integrationsvektor- Berechnungsmittel (26) berechneten Integrationsvektors durchgeführt wird.
7. Videokamera nach Anspruch 6, bei welcher das Korrekturmittel (26) die Korrektur durchführt unter Verwendung des durch das dritte Integrationsvektor-Berechnungsmittel (26) berechneten Integrationsvektors als Reaktion auf die Erfassung des zweiten Erfassungsmittels (26) und die Erfassung des dritten Erfassungsmittels (26), wenn die Korrektur unter Verwendung des durch das zweite Integrationsvektor-Berechnungsmittel (26) berechneten Integrationsvektors durchgeführt wird.
8. Videokamera nach Anspruch 2, welche weiterhin aufweist:
ein viertes Integrationsvektor-Berechnungsmittel (26) zum Berechnen eines Integrationsvektors Sn des Bildes gemäß der folgenden Gleichung (4):
Sn = K&sub4;·Sn-1 + Vn ...(4)
K&sub4;: ein Abschwächungskoeffizient kleiner als 1;
wobei das vierte Integrationsvektor-Berechnungsmittel (26) den Integrationsvektor gemäß einer Gleichung Sn = Sn-1 berechnet, wenn der Gesamt-Bewegungsvektor kleiner als ein Pixel ist.
9. Videokamera nach Anspruch 8, welche weiterhin aufweist:
ein viertes Erfassungsmittel (26) zum Erfassen, daß der Gesamt-Bewegungsvektor kleiner als ein zweiter vorbestimmter Wert ist; und
ein sechstes Erfassungsmittel (26) zum Erfassen, daß der Integrationsvektor innerhalb eines vorbestimmten Bereichs liegt;
wobei das Korrekturmittel (26) die Korrektur durchführt unter Verwendung des durch das vierte Integrationsvektor-Berechnungsmittel (26) berechneten Integrationsvektors als Reaktion auf die Erfassung des vierten Erfassungsmittels (26) und die Erfassung des sechsten Erfassunsgmittels (26), wenn die Korrektur unter Verwendung des durch das erste Integrationsvektor-Berechnungsmittel (26) berechneten Integrationsvektors durchgeführt wird.
10. Videokamera nach Anspruch 9, bei welcher das Korrekturmittel (26) die Korrektur durchführt unter Verwendung des durch das erste Integrationsvektor-Berechnungsmittel (26) berechneten Integrationsvektors als Reaktion auf die Erfassung des dritten Erfassungsmittels (26), wenn die Korrektur unter Verwendung des durch das vierte Integrationsvektor-Berechnungsmittel (26) berechneten Integrationsvektors durchgeführt wird.
11. Videokamera nach Anspruch 10, bei welcher das Korrekturmittel (26) die Korrektur durchführt unter Verwendung des durch das zweite Integrationsvektor-Berechnungsmittel (26) berechneten Integrationsvektors als Reaktion auf die Erfassung des ersten Erfassungsmittels (26), wenn die Korrektur unter Verwendung des durch das vierte Integrationsvektor-Berechnungsmittel (26) berechneten Integrationsvektors durchgeführt wird.
12. Videokamera nach Anspruch 7, welche weiterhin aufweist:
ein viertes Integrationsvektor-Berechnungsmittel (26) zum Berechnen eines Integrationsvektors Sn des Bildes gemäß der folgenden Gleichung (4):
Sn = K&sub4;·Sn-1 + Vn ...(4)
K&sub4;: ein Abschwächungskoeffizient kleiner als 1;
wobei das vierte Integrationsvektor-Berechnungsmittel (26) den Integrationsvektor gemäß einer Gleichung Sn = Sn-1 berechnet, wenn der Gesamt-Bewegungsvektor kleiner als ein Pixel ist.
13. Videokamera nach Anspruch 12, bei welcher das Korrekturmittel (26) die Korrektur durchführt unter Verwendung des durch das dritte Integrationsvektor-Berechnungsmittel (26) berechneten Integrationsvektors als Reaktion auf die Erfassung des fünften Erfassungsmittels (26), wenn die Korrektur unter Verwendung des durch das vierte Integrationsvektor-Berechnungsmittel (26) berechneten Integrationsvektors durchgeführt wird.
14. Videokamera nach Anspruch 12, welche weiterhin aufweist:
ein sechstes Erfassungsmittel (26) zum Erfassen, daß der Gesamt-Bewegungsvektor innerhalb eines vorbestimmten Bereichs liegt;
wobei das Korrekturmittel (26) die Korrektur durchführt unter Verwendung des durch das vierte Integrationsvektor-Berechnungsmittel (26) berechneten Integrationsvektors als Reaktion auf die Erfassung des sechsten Erfassungsmittels (26), wenn die Korrektur unter Verwendung des durch das dritte Integrationsvektor-Berechnungsmittel (26) berechneten Integrationsvektors durchgeführt wird.
15. Videokamera nach Anspruch 1,6 oder 11, bei welcher das erste Erfassungsmittel (26) mindestens die Panoramierung oder das Kippen erfasst, und zwar zu einem Zeitpunkt, bei dem eine vierte vorbestimmte Anzahl von Halbbildern oder Vollbildern, in denen jeweils der Integrationsvektor Sn gleich oder grösser als ein korrigierbarer Bereich ist, kontinuierlich erfasst werden, oder zu einem Zeitpunkt, bei dem eine fünfte vorbestimmte Anzahl von Halbbildern oder Vollbildern, in denen jeweils der Gesamt-Bewegungsvektor Vn dieselbe Richtung hat, kontinuierlich erfasst werden.
16. Videokamera nach Anspruch 2 oder 7, bei welcher das zweite Erfassungsmittel (26) die Vervollständigung mindestens der Panoramierung oder des Kippens erfasst zu einem Zeitpunkt, bei dem eine vorbestimmte Anzahl von Halbbildern oder Vollbildern kontinuierlich erfasst werden, in denen jeweils der Gesamt-Bewegungsvektor entgegengesetzt zu dem Gesamt-Bewegungsvektor wird, kurz bevor das Korrekturmittel die Korrektur unter Verwendung des durch das zweite Integrationsvektor-Berechnungsmittel berechneten Integrationsvektors durchführt.
17. Videokamera nach Anspruch 1, welche weiterhin aufweist:
ein Additionsmittel (36) zum Erhalten von Bildsignal-Additionsdaten durch Akkumulieren eines Bildsignalpegels für jeden der Additionsbereiche, die durch Dividieren eines Halbbildes gebildet werden;
ein erstes arithmetisches Betriebsmittel (38) zum Auswerten von Differenzen der Bildsignal-Additionsdaten zwischen jedem der Additionsbereiche und einem benachbarten Additionsbereich in einer horizontalen Richtung;
ein zweites arithmetisches Betriebsmittel (38) zum Auswerten von Differenzen der Bildsignal-Additionsdaten zwischen jedem der Additionsbereiche und einem benachbarten Additionsbereich in einer vertikalen Richtung;
ein erstes Zählmittel (26) zum Zählen der Anzahl der Additionsbereiche, in denen jeweils die durch das erste arithmetische Betriebsmittel ausgewertete Differenz gleich oder kleiner als ein erster Schwellenwert ist;
ein zweites Zählmittel (26) zum Zählen der Anzahl der Additionsbereiche, in denen jeweils die durch das zweite arithmetische Betriebsmittel ausgewertete Differenz gleich oder kleiner als ein zweiter Schwellenwert ist; und
ein Bestimmungsmittel (26) zum Bestimmen eines Verfahrens zum Berechnen des Gesamt-Bewegungsvektors auf der Grundlage eines Zählwertes des ersten Zählmittels und eines Zählwertes des zweiten Zählmittels.
18. Videokamera nach Anspruch 17, bei welcher das Bestimmungsmittel (26) ein Divisionsmittel enthält zum Dividieren eines grösseren Wertes des Zählwertes des ersten Zählmittels und des Zählwertes des zweiten Zählwertes durch einen kleineren Wert des Zählwertes des ersten Zählmittels und den Zählwert des zweiten Zählmittels, sowie ein Vergleichsmittel zum Vergleichen eines Divisionsergebnisses mit einem dritten Schwellenwert.
19. Videokamera nach Anspruch 18, welche weiterhin aufweist: ein erstes Mittel zum Erzeugen eines Mittelwerts von Abschnitt-Bewegungsvektoren gültiger Erfassungsbereiche der Erfassungsbereiche als Gesamt-Bewegungsvektor zwischen den Halbbildern oder Vollbildern, wenn das Divisionsergebnis kleiner als der dritte Schwellenwert ist; und ein zweites Mittel zum Erzeugen des Gesamt-Bewegungsvektors ein Halbbild oder Vollbild zuvor als Gesamt-Bewegungsvektor eines aktuellen Halbbildes oder Vollbildes, wenn das Divisionsergebnis gleich oder grösser als der dritte Schwellenwert ist.
20. Videokamera nach Anspruch 17, bei welcher der Bildsignalpegel einen Farbsignalpegel enthält.
21. Videokamera nach Anspruch 17, bei welcher der Bildsignalpegel einen Luminanzsignalpegel enthält.
DE69428838T 1993-06-29 1994-06-28 Videokamera mit elektronischer Bildstabilisierung und Erzeugung von Additionsdaten Expired - Lifetime DE69428838T2 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP15946393A JP2957851B2 (ja) 1993-06-29 1993-06-29 手振れ補正方法
JP5178653A JP2925890B2 (ja) 1993-07-20 1993-07-20 手振れ補正装置を有するビデオカメラ

Publications (2)

Publication Number Publication Date
DE69428838D1 DE69428838D1 (de) 2001-12-06
DE69428838T2 true DE69428838T2 (de) 2002-07-18

Family

ID=26486259

Family Applications (1)

Application Number Title Priority Date Filing Date
DE69428838T Expired - Lifetime DE69428838T2 (de) 1993-06-29 1994-06-28 Videokamera mit elektronischer Bildstabilisierung und Erzeugung von Additionsdaten

Country Status (4)

Country Link
US (1) US5909242A (de)
EP (1) EP0632649B1 (de)
KR (1) KR100319034B1 (de)
DE (1) DE69428838T2 (de)

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09307857A (ja) * 1996-05-17 1997-11-28 Sony Corp 画像信号処理装置及び画像信号処理方法
US6573930B2 (en) * 1996-11-15 2003-06-03 Canon Kabushiki Kaisha Image pickup apparatus for storing, reading-out and processing a signal during predetermined time periods
KR100255648B1 (ko) * 1997-10-10 2000-05-01 윤종용 그래디언트 패턴 정합에 의한 영상 움직임 검출장치 및 그 방법
US6549233B1 (en) * 1998-08-07 2003-04-15 Intel Corporation Color interpolation system
US6374048B1 (en) * 1999-04-09 2002-04-16 Asahi Kogaku Kogyo Kabushiki Kaisha Device for correcting a tremble of a focused image
EP1377040A1 (de) * 2002-06-19 2004-01-02 STMicroelectronics S.r.l. Bildsequenzstabilisationsverfahren
EP1376471A1 (de) * 2002-06-19 2004-01-02 STMicroelectronics S.r.l. Verfahren der Bewegungsschätzung zur Stabilisierung einer Bildsequenz
US20040100563A1 (en) 2002-11-27 2004-05-27 Sezai Sablak Video tracking system and method
GB0229096D0 (en) * 2002-12-13 2003-01-15 Qinetiq Ltd Image stabilisation system and method
JP4066803B2 (ja) * 2002-12-18 2008-03-26 株式会社ニコン 画像処理装置、画像処理プログラム、画像処理方法および電子カメラ
US9160897B2 (en) 2007-06-14 2015-10-13 Fotonation Limited Fast motion estimation method
US8698924B2 (en) 2007-03-05 2014-04-15 DigitalOptics Corporation Europe Limited Tone mapping for low-light video frame enhancement
US8989516B2 (en) * 2007-09-18 2015-03-24 Fotonation Limited Image processing method and apparatus
US7636486B2 (en) * 2004-11-10 2009-12-22 Fotonation Ireland Ltd. Method of determining PSF using multiple instances of a nominally similar scene
US7639889B2 (en) * 2004-11-10 2009-12-29 Fotonation Ireland Ltd. Method of notifying users regarding motion artifacts based on image analysis
US8180173B2 (en) 2007-09-21 2012-05-15 DigitalOptics Corporation Europe Limited Flash artifact eye defect correction in blurred images using anisotropic blurring
US8264576B2 (en) 2007-03-05 2012-09-11 DigitalOptics Corporation Europe Limited RGBW sensor array
US8417055B2 (en) * 2007-03-05 2013-04-09 DigitalOptics Corporation Europe Limited Image processing method and apparatus
US8199222B2 (en) * 2007-03-05 2012-06-12 DigitalOptics Corporation Europe Limited Low-light video frame enhancement
KR101063071B1 (ko) * 2003-12-23 2011-09-07 엔엑스피 비 브이 비디오 데이터 안정화 방법 및 시스템
US7880769B2 (en) * 2004-02-13 2011-02-01 Qualcomm Incorporated Adaptive image stabilization
CN100490505C (zh) * 2004-02-13 2009-05-20 索尼株式会社 图像处理装置和图像处理方法
US7742077B2 (en) * 2004-02-19 2010-06-22 Robert Bosch Gmbh Image stabilization system and method for a video camera
US7382400B2 (en) * 2004-02-19 2008-06-03 Robert Bosch Gmbh Image stabilization system and method for a video camera
US20050270372A1 (en) * 2004-06-02 2005-12-08 Henninger Paul E Iii On-screen display and privacy masking apparatus and method
US9210312B2 (en) 2004-06-02 2015-12-08 Bosch Security Systems, Inc. Virtual mask for use in autotracking video camera images
US8212872B2 (en) * 2004-06-02 2012-07-03 Robert Bosch Gmbh Transformable privacy mask for video camera images
JP4404822B2 (ja) * 2004-08-31 2010-01-27 三洋電機株式会社 手ぶれ補正装置および撮像機器
JP4187704B2 (ja) * 2004-08-31 2008-11-26 三洋電機株式会社 手ぶれ補正装置
US7639888B2 (en) * 2004-11-10 2009-12-29 Fotonation Ireland Ltd. Method and apparatus for initiating subsequent exposures based on determination of motion blurring artifacts
JP4404864B2 (ja) * 2005-03-10 2010-01-27 三洋電機株式会社 ビデオカメラおよびそれに用いる画像抽出装置
EP1915860A2 (de) * 2005-08-12 2008-04-30 Nxp B.V. Verfahren und vorrichtung zur digitalen bildstabilisierung
CN100421455C (zh) * 2005-10-09 2008-09-24 北京中星微电子有限公司 一种视频电子防抖的方法
CN100389601C (zh) * 2005-10-09 2008-05-21 北京中星微电子有限公司 一种视频电子防抖的装置
TWI296178B (en) * 2005-12-12 2008-04-21 Novatek Microelectronics Corp Image vibration-compensating apparatus and the method thereof
IES20070229A2 (en) * 2006-06-05 2007-10-03 Fotonation Vision Ltd Image acquisition method and apparatus
US8130845B2 (en) * 2006-11-02 2012-03-06 Seiko Epson Corporation Method and apparatus for estimating and compensating for jitter in digital video
US7773118B2 (en) * 2007-03-25 2010-08-10 Fotonation Vision Limited Handheld article with movement discrimination
JP4872797B2 (ja) 2007-05-18 2012-02-08 カシオ計算機株式会社 撮像装置、撮像方法および撮像プログラム
US20080309770A1 (en) * 2007-06-18 2008-12-18 Fotonation Vision Limited Method and apparatus for simulating a camera panning effect
KR101392732B1 (ko) * 2007-08-20 2014-05-08 삼성전자주식회사 손떨림에 의한 움직임 추정 장치 및 방법, 그를 이용한영상 촬상 장치
JP4958756B2 (ja) * 2007-12-13 2012-06-20 キヤノン株式会社 撮像装置及びその制御方法及びプログラム
EP2197199B1 (de) * 2008-12-12 2017-10-18 Testo SE & Co. KGaA Wärmebildkamera und Verfahren zur Konstruktion eines thermografischen Bildes
US9762846B2 (en) 2015-05-08 2017-09-12 Microsoft Technology Licensing, Llc Real-time hyper-lapse video creation via frame selection
KR20210025828A (ko) 2019-08-28 2021-03-10 주식회사 신성터보마스터 펌프 베어링 오일 누유 방지를 위한 오일 루프
US11869226B2 (en) * 2020-10-25 2024-01-09 Pixart Imaging Inc. Computer readable recording medium which can perform image pattern determining method

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3853555T2 (de) * 1987-06-09 1995-08-17 Sony Corp Verarbeitung des Bewegungsvektors in digitalen Fernsehbildern.
US5170255A (en) * 1988-10-20 1992-12-08 Canon Kabushiki Kaisha Optical system compensating apparatus
JP2563567B2 (ja) * 1989-03-20 1996-12-11 松下電器産業株式会社 揺れ補正装置
EP0449283B1 (de) * 1990-03-30 1997-11-12 Sanyo Electric Co., Ltd. Bildaufnahmevorrichtung mit einer Kamera-Erschütterungsdetektionsfunktion
US5237405A (en) * 1990-05-21 1993-08-17 Matsushita Electric Industrial Co., Ltd. Image motion vector detecting device and swing correcting device
JP3218613B2 (ja) * 1991-03-29 2001-10-15 ソニー株式会社 ビデオデータの手振れ検出装置およびその方法
JP3154776B2 (ja) * 1991-11-22 2001-04-09 キヤノン株式会社 像振れ防止装置

Also Published As

Publication number Publication date
KR100319034B1 (ko) 2002-03-21
EP0632649B1 (de) 2001-10-31
DE69428838D1 (de) 2001-12-06
US5909242A (en) 1999-06-01
KR950001726A (ko) 1995-01-03
EP0632649A1 (de) 1995-01-04

Similar Documents

Publication Publication Date Title
DE69428838T2 (de) Videokamera mit elektronischer Bildstabilisierung und Erzeugung von Additionsdaten
DE69425785T2 (de) Videokamera mit elektronischem Bildstabilisator
DE69519361T2 (de) Elektronischer Bildstabilisator und damit versehene Kamera
DE69426428T2 (de) Objektverfolgungsgerät
DE69435031T2 (de) Bewegungskompensation für ein reproduziertes Bildsignal
DE4411179B4 (de) Bildeinfangvorrichtung
DE69733978T2 (de) Bilddateninterpolationsgerät
DE69228620T2 (de) Bewegungsvektorerkennungsvorrichtung zur Erkennung der Bewegung eines Bildes, um dessen Störung zu verhindern
DE69222667T2 (de) Videosignalverarbeitungsgerät zur Kompensation des Kamerawackelns
DE69127850T2 (de) Vorrichtung zum Erfassen von Bewegungen und Fokusdetektor, der eine solche Vorrichtung benutzt
DE69131591T2 (de) Bewegungsabhängige Videosignalverarbeitung
DE69332552T2 (de) Bestimmung der Position und der Bewegung einer Studiokamera unter Benutzung des Kamerabildes
DE69120341T2 (de) Steuerungsvorrichtung für optisch photographisches System
DE69028973T2 (de) Weissabgleichseinstellungsvorrichtung zur automatischen Einstellung des Weissabgleichs in Abhängigkeit von Leuchtdichteinformationssignal und Farbinformationssignal aus einem Bildaufnahmegerät
DE4102196C2 (de) Abbildungsvorrichtung zum Nachführen eines Objektes
DE69919351T2 (de) Verbesserte dunkelbildsubtraktion
DE69525497T2 (de) Verfahren zur Bestimmung der gegenseitigen Tiefenbeziehung von Gegenständen zur Umwandlung zweidimensionaler in dreidimensionale Bilder
DE69322423T2 (de) Vorrichtung zur Detektion von Bewegungsvektoren
DE4108288C2 (de)
DE4106825A1 (de) Belichtungskontrollvorrichtung fuer einzelbild-videokameras
DE69128163T2 (de) Bildaufnahmevorrichtung mit einer Kamera-Erschütterungsdetektionsfunktion
DE102009005861A1 (de) Fahrzeugumgebungs-Erkennungssystem
DE3687434T2 (de) Geraet zum ausgleich von bewegung in einem von einem von einem fernsehsignal abgeleiteten bild.
DE69534836T2 (de) Bildverschiebungserkennungsvorrichtung, Bildaufnahme- und Videoaufzeichnungsapparat mit Panoramamodus
DE69616111T2 (de) Nachführgebiet-Bestimmungsgerät und Objektnachführgerät mit Verwendung desselben

Legal Events

Date Code Title Description
8364 No opposition during term of opposition