DE102019123220A1 - Zusammenfassen von Videos von mehreren sich bewegenden Videokameras - Google Patents

Zusammenfassen von Videos von mehreren sich bewegenden Videokameras Download PDF

Info

Publication number
DE102019123220A1
DE102019123220A1 DE102019123220.1A DE102019123220A DE102019123220A1 DE 102019123220 A1 DE102019123220 A1 DE 102019123220A1 DE 102019123220 A DE102019123220 A DE 102019123220A DE 102019123220 A1 DE102019123220 A1 DE 102019123220A1
Authority
DE
Germany
Prior art keywords
video
characteristic
moving
video camera
movement characteristic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102019123220.1A
Other languages
English (en)
Inventor
Carmen Jia Yi Siau
Steven John Kerr
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motorola Solutions Inc
Original Assignee
Motorola Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motorola Solutions Inc filed Critical Motorola Solutions Inc
Publication of DE102019123220A1 publication Critical patent/DE102019123220A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/38Registration of image sequences
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/20Servers specifically adapted for the distribution of content, e.g. VOD servers; Operations thereof
    • H04N21/23Processing of content or additional data; Elementary server operations; Server middleware
    • H04N21/234Processing of video elementary streams, e.g. splicing of video streams or manipulating encoded video stream scene graphs
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/41Structure of client; Structure of client peripherals
    • H04N21/414Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance
    • H04N21/41422Specialised client platforms, e.g. receiver in car or embedded in a mobile appliance located in transportation means, e.g. personal vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8549Creating video summaries, e.g. movie trailer
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/272Means for inserting a foreground image in a background image, i.e. inlay, outlay
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/01Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level
    • H04N7/0127Conversion of standards, e.g. involving analogue television standards or digital television standards processed at pixel level by changing the field or frame frequency of the incoming video signal, e.g. frame rate converter
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30236Traffic on road, railway or crossing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computer Security & Cryptography (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Verfahren und Systeme zum Zusammenfassen von Videos eines Ereignisses von mehreren sich bewegenden Videokameras. Ein System beinhaltet einen elektronischen Prozessor, eingerichtet zum Empfangen eines ersten Videos von einer ersten sich bewegenden Videokamera, zum Empfangen eines zweiten Videos von einer zweiten sich bewegenden Videokamera, dem Bestimmen einer ersten Bewegungscharakteristik des ersten Videos, und dem Bestimmen einer zweiten Bewegungscharakteristik des zweiten Videos. Der elektronische Prozessor ist ferner eingerichtet zum Erzeugen eines Vergleichs zwischen der ersten Bewegungscharakteristik und der zweiten Bewegungscharakteristik, dem Modifizieren des zweiten Videos basierend auf dem Vergleich, so dass die zweite Bewegungscharakteristik an die erste Bewegungscharakteristik angeglichen wird, und dem Erzeugen nach dem Modifizieren des zweiten Videos, eines kombinierten Videos mit wenigstens einem Teil von beiden Videos, dem ersten Video und dem zweiten Video.

Description

  • HINTERGRUND DER ERFINDUNG
  • Personen der öffentlichen Sicherheit (beispielsweise Ersthelfer, Ermittler und dergleichen), die auf ein Ereignis reagieren, können mit Videoaufnahmegeräten ausgestattet werden, um die Reaktion auf ein Ereignis zu dokumentieren. Videoaufnahmegeräte können auch in Fahrzeugen vorhanden sein, die von Personen der öffentlichen Sicherheit gefahren werden können oder in denen sie fahren können. Die Videos eines Ereignisses können nach dem Ereignis als Beweismittel in Strafverfahren oder anderen offiziellen Untersuchungen oder Verfahren oder zu Trainingszwecken verwendet werden.
  • Figurenliste
  • Die beigefügten Abbildungen, bei denen sich gleiche Bezugszahlen auf identische oder funktional ähnliche Elemente in den einzelnen Ansichten beziehen, sind zusammen mit der folgenden detaillierten Beschreibung einbezogen in die Beschreibung und bilden einen Teil derselben und dienen zum weiteren Veranschaulichen von Ausführungsformen und Konzepten, die die beanspruchte Erfindung beinhalten und erklären verschiedene Prinzipien und Vorteile dieser Ausführungsformen.
    • 1 ist eine Darstellung eines Systems zum Überwachen eines Ereignisses, gemäß einigen Ausführungsformen.
    • 2 ist eine Darstellung einer Videokamera, gemäß einigen Ausführungsformen.
    • 3 ist eine Darstellung eines Servers des Systems aus 1, gemäß einigen Ausführungsformen.
    • 4 ist ein Flussdiagramm eines Verfahrens zum Zusammenfassen von Videos eines Ereignisses von den sich bewegenden Videokameras des Systems aus 1, gemäß einigen Ausführungsformen.
    • 5 ist eine Zeitlinie von Videos, die von jeder der Videokameras des Systems aus 1 aufgenommen wurden, gemäß einigen Ausführungsformen.
    • 6 ist eine Karte, die das Ereignis und die Videokameras aus 1 darstellt, gemäß einigen Ausführungsformen.
    • 7 ist ein Display, das das kombinierte Video des Verfahrens aus 4 zeigt, gemäß einigen Ausführungsformen.
  • Fachleute werden erkennen, dass Elemente in den Figuren zum Zwecke der Einfachheit und Klarheit veranschaulicht sind und nicht notwendigerweise maßstabsgetreu gezeichnet sind. Zum Beispiel können die Abmessungen einiger der Elemente in den Figuren im Vergleich zu anderen Elementen übertrieben sein, um dabei zu helfen, das Verständnis von Ausführungsformen der vorliegenden Erfindung zu verbessern.
  • Die Vorrichtungs- und Verfahrenskomponenten wurden dort, wo es angemessen erscheint, durch konventionelle Symbole in den Zeichnungen dargestellt, wobei nur jene spezifischen Einzelheiten gezeigt werden, die für ein Verständnis der Ausführungsformen der vorliegenden Erfindung wesentlich sind, um so die Offenbarung nicht mit Einzelheiten zu verschleiern, die für jene Durchschnittsfachleute ohne weiteres erkennbar sind, die den Vorteil dieser Beschreibung genießen.
  • DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
  • Wie bereits erwähnt, können Personen der öffentlichen Sicherheit und Fahrzeuge, die von Personen der öffentlichen Sicherheit benutzt werden, mit Videoaufzeichnungsgeräten ausgestattet sein, um Videos von einem Ereignis aufzuzeichnen. So können beispielsweise Personen der öffentlichen Sicherheit (manchmal auch als „Responder“ bezeichnet) am Körper getragene Kameras, Helmkameras oder Smart-Brillen verwenden, um Videos von ihren Handlungen zu machen, die auf ein Ereignis reagieren. Darüber hinaus können andere Kameras (beispielsweise Verkehrskameras, Überwachungskameras, Armaturenbrettkameras in Fahrzeugen und dergleichen) Videos eines Ereignisses aufnehmen. Das erfasste Video kann interessierende Objekte (die im Folgenden näher beschrieben werden) enthalten, die sich am Ort des Ereignisses befinden.
  • In einigen Fällen kann die Wirksamkeit der Reaktion auf das Ereignis oder die Sicherheit der Personen der öffentlichen Sicherheit bei dem Ereignis davon abhängen, ob das Ereignis unter angemessener visueller Überwachung steht. In anderen Fällen kann es erforderlich sein, nach dem Ereignis festzustellen, wann und von wem ein interessierendes Objekt während des Ereignisses beobachtet wurde. So kann beispielsweise das Video des Vorfalls verwendet werden, um Personen oder Objekte zu identifizieren, die beim Ereignis anwesend sind.
  • Obwohl Videos von mehreren Videokameras aufgezeichnet werden können, hat ein bestimmtes Video das Ereignis möglicherweise nicht vollständig erfasst. So können beispielsweise interessierende Objekte in einem bestimmten aufgezeichneten Video für einen begrenzten Zeitraum vorhanden sein. Videos von anderen Quellen, die das Ereignis beinhalten, können zusätzliche Informationen und Details enthalten, beispielsweise wenn das Video zu einem anderen Zeitpunkt als das erste Video aufgenommen wird. Personen (beispielsweise Detektive und Ermittler), die solche Videos überprüfen, können es schwierig finden, die einzelnen Videos in sequentieller Reihenfolge zusammenzusetzen. Anstatt mehrere Videostreams des Ereignisses zu überprüfen, kann es sinnvoll sein, ein benutzerdefiniertes Video (hierin als „kombiniertes Video“ bezeichnet) des interessierenden Objekts über die Zeit des Ereignisses zu erstellen oder zusammenzufassen. In einigen Fällen ist es sinnvoll, ein kombiniertes Video zu erstellen, das aus Videos von mehreren Geräten besteht, die das interessierende Objekt zu verschiedenen Zeiten erfasst haben. Einige Videos können jedoch auch von einer sich bewegenden Videokamera aufgenommen worden sein (beispielsweise eine Videokamera, die an einem Fahrzeug montiert ist). Das Betrachten von bewegten Videos Seite an Seite kann für die überprüfenden Personen schwierig sein. Die überprüfenden Personen können möglicherweise Details des Ereignisses nicht verstehen, wenn die Videos aus verschiedenen Richtungen aufgenommen werden, mit unterschiedlichen Geschwindigkeiten aufgenommen werden oder wenn beide Umstände vorliegen (unterschiedliche Richtung und unterschiedliche Geschwindigkeit). Dementsprechend besteht Bedarf an einem System, das kombinierte Videos erstellen kann, die aus Videos eines Vorfalls von mehreren Videokameras, einschließlich beweglicher Videokameras, bestehen.
  • Eine beispielhafte Ausführungsform stellt ein Videozusammenfassungssystem bereit. Das Videozusammenfassungssystem umfasst einen elektronischen Prozessor eingerichtet zum Empfangen eines ersten Videos von einer ersten sich bewegenden Videokamera, zum Empfangen eines zweiten Videos von einer zweiten sich bewegenden Videokamera, zum Bestimmen einer ersten Bewegungscharakteristik des ersten Videos, und zum Bestimmen einer zweiten Bewegungscharakteristik des zweiten Videos. Der elektronische Prozessor ist ferner eingerichtet zum Erzeugen eines Vergleichs zwischen der ersten Bewegungscharakteristik und der zweiten Bewegungscharakteristik, zum Modifizieren des zweiten Videos basierend auf dem Vergleich, so dass die zweite Bewegungscharakteristik an die erste Bewegungscharakteristik angeglichen wird, und zum Erzeugen, nach dem Modifizieren des zweiten Videos, eines kombinierten Videos, das wenigstens einen Teil von beiden Videos, dem ersten Video und dem zweiten Video, beinhaltet.
  • Eine andere beispielhafte Ausführungsform stellt ein Verfahren zum Zusammenfassen von Videos von einer Vielzahl sich bewegender Kameras bereit. Das Verfahren beinhaltet das Empfangen eines ersten Videos von einer ersten sich bewegenden Videokamera, das Empfangen eines zweiten Videos von einer zweiten sich bewegenden Videokamera, das Bestimmen einer ersten Bewegungscharakteristik des ersten Videos und das Bestimmen einer zweiten Bewegungscharakteristik des zweiten Videos. Das Verfahren beinhaltet ferner das Erzeugen eines Vergleichs zwischen der ersten Bewegungscharakteristik und der zweiten Bewegungscharakteristik, das Modifizieren des zweiten Videos basierend auf dem Vergleich, so dass die zweite Bewegungscharakteristik an die erste Bewegungscharakteristik angeglichen wird, und das Erzeugen, nach dem Modifizieren des zweiten Videos, eines kombinierten Videos, das wenigstens einen Teil von beiden Videos, dem ersten Video und dem zweiten Video, beinhaltet.
  • Zur Vereinfachung der Beschreibung sind einige oder alle der hierin vorgestellten Beispielsysteme mit einem einzigen Exemplar jedes seiner Komponenten veranschaulicht. Einige Beispiele beschreiben oder veranschaulichen möglicherweise nicht alle Komponenten der Systeme. Andere beispielhafte Ausführungsformen können mehr oder weniger der veranschaulichten einzelnen Komponenten beinhalten, einige Komponenten kombinieren oder zusätzliche oder alternative Komponenten beinhalten.
  • 1 veranschaulicht ein Beispielsystem 100 zur Überwachung eines Ereignisses. In dem veranschaulichten Beispiel beinhaltet das System 100 einen Server 102 und eine Datenbank 104. Der Server 102, der im Folgenden insbesondere in Bezug auf 3 beschrieben wird, ist kommunikativ mit der Datenbank 104 gekoppelt und schreibt Daten in sie und liest sie aus. Wie in 1 dargestellt, kann die Datenbank 104 eine Datenbank sein, die auf einem geeigneten Datenbankserver untergebracht ist, der kommunikativ mit dem Server 102 gekoppelt und durch diesen zugänglich ist. In alternativen Ausführungsformen kann die Datenbank 104 Teil eines cloudbasierten Datenbanksystems außerhalb des Systems 100 sein, auf das der Server 102 über ein oder mehrere zusätzliche Netzwerke zugreifen kann. In einigen Ausführungsformen kann die gesamte oder ein Teil der Datenbank 104 lokal auf dem Server 102 gespeichert sein. In einigen Ausführungsformen speichert, wie im Folgenden beschrieben, die Datenbank 104 elektronisch Daten über interessierende Objekte (im Folgenden näher beschrieben) und Ereignisse. In einigen Ausführungsformen sind der Server 102 und die Datenbank 104 Teil eines computergestützten Disponierungssystems.
  • Eine erste Videokamera 108A, eine zweite Videokamera 108B und eine dritte Videokamera 108C sind über ein Kommunikationsnetzwerk 112 mit dem Server 102 verbunden. In einigen Fällen beinhaltet das Kommunikationsnetzwerk 112 drahtlose und drahtgebundene Verbindungen. So kann beispielsweise das Kommunikationsnetzwerk 112 über ein Weitbereichs-Netzwerk, wie beispielsweise das Internet, ein lokales Netzwerk, wie beispielsweise ein Wi-Fi-Netzwerk, und persönliche Bereichs- oder Nahfeldnetzwerke, wie beispielsweise ein Bluetooth™ Netzwerk, realisiert werden. Teile des Kommunikationsnetzwerkes 112 können ein LTE-Netzwerk („Long Term Evolution“), ein GSM-Netzwerk („Global System for Mobile Communications“ oder „Groupe Special Mobile“), ein CDMA-Netzwerk („Code Division Multiple Access“), ein EV-DO-Netz („Evolution-Data Optimized“), ein EDGE-Netzwerk („Enhanced Data Rates for GSM Evolution“), ein 3G-Netzwerk, ein 4G-Netzwerk und Kombinationen oder Derivate davon beinhalten.
  • Die erste Videokamera 108A, die zweite Videokamera 108B und die dritte Videokamera 108C beinhalten Bilderfassungsvorrichtungen zum Erfassen von Bildern und Videos. Jede Videokamera 108A - C überträgt ihr jeweils erfasstes Video über das Kommunikationsnetzwerk 112 an den Server 102. Eine oder mehrere der Videokameras 108A - C, die im Folgenden insbesondere in Bezug auf 2 beschrieben werden, können von einem Benutzer, beispielsweise einem Beauftragten der öffentlichen Sicherheit oder einem Hilfeleistenden, bedient werden. Eine oder mehrere der Videokameras 108A - C können an Fahrzeugen 110A - C montiert (oder in diese integriert) werden. In dem dargestellten Beispiel sind die Fahrzeuge 110A - C Automobile. Es können jedoch unbemannte Luftfahrzeuge (UAVs) (oft auch als „Drohnen“ bezeichnet) und andere Fahrzeuge (Motorräder, Wasserfahrzeuge usw.) eingesetzt werden. Mindestens eines der Fahrzeuge 110A - C kann von einem Bediener innerhalb oder außerhalb des Fahrzeugs 110A - C bedient werden. In einigen Fällen werden eine oder mehrere der Videokameras 108A - C von Personen der öffentlichen Sicherheit getragen. In einigen Ausführungsformen ist, wie im Folgenden näher erläutert, jede der Videokameras 108A - C dazu eingerichtet, ein interessierendes Objekt (im Folgenden näher beschrieben) innerhalb des erfassten Videos zu bestimmen. Zur Vereinfachung der Beschreibung wird bei der Beschreibung der Videokameras 108A - C auf die Videokamera 108A verwiesen. Es versteht sich, dass in bestimmten Ausführungsformen die Videokameras 108B und 108C ähnlich wie die Videokamera 108A eingerichtet sind.
  • Ein Ereignis kann der Ort eines Verbrechens, eines Brandes, eines Unfalls, eines medizinischen Notfalls, einer Naturkatastrophe oder eines anderen Ereignisses betreffend die öffentliche Sicherheit sein. Wie bereits erwähnt, kann die Reaktion der Personen der öffentlichen Sicherheit auf das Ereignis von den Videokameras 108A - C auf Video aufgezeichnet werden. Unter bestimmten Umständen nimmt das Video erfasstes Video eines interessierenden Objekts während des Ereignisses auf.
  • Ein interessierendes Objekt ist ein Objekt, das sich auf das Ereignis bezieht und an der Reaktion auf das Ereignis oder der Untersuchung des Vorfalls beteiligt ist oder diese betrifft, Interessierende Objekte können Personen, Fahrzeuge, Gebäude oder Gebäudeteile und andere physische Objekte sein, die an dem Ereignis beteiligt sind oder möglicherweise beteiligt sind. Interessierende Objekte können beispielsweise Automobile (zum Beispiel bei einem Verkehrsunfall), Waffen (zum Beispiel bei einem Tatort), Personen (zum Beispiel Opfer oder Verdächtige), Gebäude oder Gebäudeteile (zum Beispiel Türen und Fenster) sein. Interessierende Objekte können auch greifbare Dinge sein, die nicht gemeinhin als Objekte betrachtet werden, die aber dennoch für die Reaktion auf oder die nachfolgende Untersuchung einer Reaktion auf das Ereignis relevant sind (beispielsweise aus Autos austretende Flüssigkeiten, Trümmer von beschädigtem Eigentum und Blut). Der Vorfall kann mehr als ein interessierendes Objekt beinhalten. Während die Videokameras 108A - C während ihrer Aufzeichnung des Ereignisses als sich bewegend beschrieben werden, kann das Ereignis (oder das (die) interessierende(n) Objekt(e)) entweder in Bewegung oder ruhig sein.
  • Der Server 102 beinhaltet Soft- und Hardware zum elektronischen Erkennen und Klassifizieren von Objekten in Bildern und Videostreams, die von den Videokameras 108A - C, die in Verbindung mit dem Server 102 sind, erfasst wurden (beispielsweise Videoprozessoren und Objektklassifikationsalgorithmen). Die Objektklassifizierung ist in der Technik bekannt und wird hier nicht im Detail beschrieben. Die erkannten interessierenden Objekte werden mit Objektkennungen assoziiert und in der Datenbank 104 gespeichert. In einigen Ausführungsformen beinhaltet mindestens eine der Videokameras 108A - C Soft- und Hardware zum elektronischen Erkennen und Klassifizieren von Objekten in Bildern und Videoströmen.
  • 2 veranschaulicht eine beispielhafte Videokamera 108A. Wie bereits erwähnt, beinhaltet jede der Videokameras 108B und 108C in bestimmten Ausführungsformen ähnliche Komponenten und ist ähnlich wie die Videokamera 108A eingerichtet. In der veranschaulichten Ausführungsform beinhaltet die Videokamera 108A einen elektronischen Prozessor 205, einen Speicher 210, eine Ein-/Ausgabeschnittstelle 215, einen Transceiver 225, einen Bildsensor 240 und ein Display 245. Die dargestellten Komponenten sind, zusammen mit anderen verschiedenen Modulen und Komponenten, durch oder über verschiedene Verbindungen miteinander verbunden, einschließlich eines oder mehrerer Steuerungs- oder Datenbusse, die eine Kommunikation zwischen ihnen ermöglichen. Die Verwendung von Steuerungs- und Datenbussen für die Verbindung und den Informationsaustausch zwischen den verschiedenen Modulen und Komponenten würde für einen Fachmann angesichts der vorliegenden Beschreibung offensichtlich sein.
  • Der elektronische Prozessor 205 erhält und liefert Informationen (beispielsweise aus dem Speicher 210 und/oder von der Ein-/Ausgabeschnittstelle 215) und verarbeitet die Informationen durch Ausführen eines oder mehrerer Softwarebefehle oder -module, die beispielsweise in einem Random Access Memory („RAM“)-Bereich des Speichers 210 oder einem Read Only Memory („ROM“) des Speichers 210 oder einem anderen nichtflüchtigen computerlesbaren Medium (nicht dargestellt) gespeichert werden können. Die Software kann Firmware, eine oder mehrere Anwendungen, Programmdaten, Filter, Regeln, ein oder mehrere Programmmodule und andere ausführbare Anweisungen beinhalten. Der elektronische Prozessor 205 ist unter anderem eingerichtet, um Software, die die hierin beschriebenen Steuerungsprozesse und -verfahren betrifft, aus dem Speicher 210 abzurufen und auszuführen.
  • Der Speicher 210 kann ein oder mehrere nicht flüchtige computerlesbare Medien beinhalten und beinhaltet in einer Ausführungsform einen Programmspeicherbereich und einen Datenspeicherbereich. Der Programmspeicherbereich und der Datenspeicherbereich können, wie hierin beschrieben, Kombinationen verschiedener Speichertypen beinhalten. In der dargestellten Ausführungsform speichert der Speicher 210, unter anderen Dingen, ein oder mehrere Videos 235 und Metadaten 250 von einem oder mehreren Videos, die vom Bildsensor 240 aufgenommen wurden. Die Metadaten 250 beinhalten zusätzliche Daten betreffend ein bestimmtes Video des einen oder der mehreren Videos 235. Die Metadaten 250 beinhalten beispielsweise Zeitstempel (wenn das eine oder die mehreren Videos 235 in Ortszeit erstellt wurden), eine Kennung der Videokamera 108A, von der das jeweilige Video ursprünglich stammt, und dergleichen. In einigen Ausführungsformen kann, wie unten erläutert, die Videokamera 108A oder der Server 102 eingerichtet sein, um eine Objektmarkierung oder -kennung hinzuzufügen, die ein bestimmtes interessierendes Objekt angibt, das in dem jeweiligen Video enthalten ist.
  • Die Ein-/Ausgabeschnittstelle 215 ist eingerichtet, um Eingaben zu empfangen und Systemausgaben bereitzustellen. Die Ein-/Ausgabeschnittstelle 215 bezieht Informationen und Signale von und stellt Informationen und Signale für (beispielsweise über eine oder mehrere drahtgebundene und/oder drahtlose Verbindungen) Vorrichtungen zur Verfügung, die sowohl intern als auch extern zur Videokamera 108 sein können. So kann beispielsweise die Ein-/Ausgabeschnittstelle 215 mit einem Beschleunigungs- oder Navigationssensor, beispielsweise eines globalen Positionierungssystems, gekoppelt werden (nicht dargestellt), der eingerichtet ist, um Geschwindigkeit beziehungsweise Position zu messen und aufzuzeichnen. Diese Komponenten können in der Videokamera 108A integriert sein oder außerhalb der Videokamera 108A liegen (beispielsweise in das Fahrzeug 110A integriert oder mit diesem gekoppelt).
  • Der elektronische Prozessor 205 ist eingerichtet, um den Transceiver 225 zum Senden und Empfangen von Video und anderen Daten zu und von der Videokamera zu steuern. Der elektronische Prozessor 205 kodiert und dekodiert digitale Daten, die vom Transceiver 225 gesendet und empfangen werden. Der Transceiver 225 sendet und empfängt Signale zu und von beispielsweise dem Kommunikationsnetzwerk 112 unter Verwendung einer Antenne 230. Der elektronische Prozessor 205 und der Transceiver 225 können verschiedene digitale und analoge Komponenten beinhalten, die hierin aus Gründen der Kürze nicht beschrieben sind und die in Hardware, Software oder einer Kombination aus beidem implementiert werden können. In einigen Ausführungsformen beinhaltet der Transceiver 225 getrennte Sende- und Empfangskomponenten, beispielsweise einen Sender und einen Empfänger, die voneinander getrennt sind.
  • In einigen Ausführungsformen bestimmt der elektronische Prozessor 205 das im Video aufgenommene interessierende Objekt basierend auf einem Referenzbild oder Befehl des Servers 102 oder einer Eingabe eines Benutzers der Videokamera 108A oder einer anderen Videokamera 108A. Der elektronische Prozessor 205 kann, wie vorstehend erwähnt, Bilderkennungstechniken, Algorithmen und Hardware verwenden, um einen Teil des Videos (hierin als Videoclip bezeichnet) zu bestimmen, in dem das Objekt vorhanden ist. Der elektronische Prozessor 205 kann Objekte basierend auf einem oder mehreren in der Datenbank 104 gespeicherten Objektklassifizierern identifizieren. In einigen Ausführungsformen wird der Objektklassifizierer durch den elektronischen Prozessor 205 basierend auf einer Eingabe des Benutzers der Videokamera erzeugt. In einigen Ausführungsformen wird der Objektklassifizierer lokal im Speicher 210 gespeichert, beispielsweise als Teil der Metadaten 250 des jeweiligen Videos.
  • Der Bildsensor 240 ist eine Bilderfassungsvorrichtung zum Erfassen von Bildern und Videos, die einen Teil oder das gesamte Ereignis beinhalten, indem er beispielsweise Licht zumindest im sichtbaren Bereich erfasst. Der Bildsensor 240 kommuniziert die erfassten Bilder und Videostreams über die Ein-/Ausgabeschnittstelle 215 an den elektronischen Prozessor 205. Es ist zu beachten, dass sich die hierin verwendeten Begriffe „Bild“ und „Bilder“ auf ein oder mehrere digitale Bilder beziehen können, die vom Bildsensor 240 erfasst, vom elektronischen Prozessor 205 verarbeitet oder auf dem Display 245 angezeigt werden. Darüber hinaus können sich die Begriffe „Bild“ und „Bilder“, wie sie hier verwendet werden, auf Standbilder oder Sequenzen von Bildern oder Frames (das heißt ein Video) beziehen. Wie dargestellt, ist der Bildsensor 240 in die Videokamera 108A integriert. In alternativen Ausführungsformen ist der Bildsensor 240 von der ersten Videokamera 108A getrennt und kommuniziert erfasste Bilder über eine drahtgebundene oder drahtlose Verbindung an die Videokamera 108A. So kann beispielsweise der Bildsensor 240 in eine am Körper getragene Kamera oder eine Smart-Brille integriert werden, die mit der Videokamera 108A kommunizieren.
  • In einigen Ausführungsformen kann der Bildsensor 240 eine stereoskopische Kamera sein, oder die Videokamera 108A kann eine stereoskopische Kamera beinhalten. In solchen Ausführungsformen kann die Videokamera 108A dreidimensionale Informationen über das Ereignis und das interessierende Objekt erfassen. In einigen Ausführungsformen können dreidimensionale Informationen mit Radarsensoren oder Infrarot-Entfernungssensoren („infrared ranging sensors“) erfasst werden (nicht dargestellt).
  • Das Display 245 ist ein geeignetes Display, beispielsweise ein LCD-Touchscreen („liquid crystal display touch screen“) oder ein OLED-Touchscreen („organic light-emitting diode touch screen“). Der elektronische Prozessor 205 erzeugt eine grafische Benutzeroberfläche (GUI) (beispielsweise erzeugt durch den elektronischen Prozessor 205 aus Anweisungen und Daten, die im Speicher 210 gespeichert sind), die auf dem Display 245 dargestellt wird. Die GUI bietet, unter anderem, Mechanismen (beispielsweise wählbare Symbole), die es einem Benutzer ermöglichen, mit der Videokamera zu interagieren. In einigen Ausführungsformen ist das Display 245 Teil einer von der Videokamera 108A getrennten elektronischen Vorrichtung (beispielsweise ein Computer, eine mobile Kommunikationsvorrichtung, ein Tablett und dergleichen). In einigen Ausführungsformen ist das Display 245 Teil des Servers 102.
  • In einigen Ausführungsformen arbeitet die Videokamera 108A unter anderem mit Augmented-Reality-Technologie, bei der Live-Bilder vom Bildsensor 240 erfasst und mit Text, Grafiken oder grafischen Elementen der Benutzerschnittstelle angezeigt werden (beispielsweise auf dem Display 245), die den Live-Bildern überlagert oder anderweitig mit ihnen kombiniert werden.
  • Wie im Folgenden ausführlich beschrieben, ist die Videokamera 108A in der Lage, vom Bildsensor 240 erfasste Bilder zu empfangen und zu verarbeiten und verarbeitete Bilder in einer grafischen Benutzerschnittstelle auf dem Display 245 anzuzeigen. Computergestützte Bilderfassungs- und Verarbeitungstechniken sind bekannt und werden nicht im Detail beschrieben.
  • 3 veranschaulicht den Server 102 genauer. In dem vorliegenden Beispiel beinhaltet der Server 102 einen elektronischen Prozessor 302, eine Speichervorrichtung 304 und eine Kommunikationsschnittstelle 306. Der elektronische Prozessor 302, die Speichervorrichtung 304 und die Kommunikationsschnittstelle 306 kommunizieren über eine oder mehrere Kommunikationsleitungen oder -busse, drahtlos oder in einer Kombination davon.
  • Der elektronische Prozessor 302 kann einen Mikroprozessor, eine anwendungsspezifische integrierte Schaltung (ASIC) oder eine andere geeignete elektronische Vorrichtung beinhalten. Die Speichervorrichtung 304 beinhaltet ein nichtflüchtiges, computerlesbares Speichermedium. Die Kommunikationsschnittstelle 306 kann einen Transceiver (zum Beispiel einen Wi-Fi- oder Ethernettransceiver) zur Kommunikation über das Kommunikationsnetzwerk 112 und optional ein oder mehrere zusätzliche drahtgebundene oder drahtlose Kommunikationsnetzwerke oder -verbindungen beinhalten. Der elektronische Prozessor 302 ist unter anderem dazu eingerichtet, um Software von der Speichervorrichtung 304 abzurufen und auszuführen, die sich auf die hierin beschriebenen Prozesse und Verfahren bezieht.
  • Der Server 102 empfängt und verarbeitet Videos von den Videokameras 108A - C. In einigen Ausführungsformen führt der elektronische Prozessor 302 einen oder mehrere Prozesse, ähnlich wie die vorstehend beschriebenen in Bezug auf den elektronischen Prozessor 205, durch. So ist beispielsweise in einigen Ausführungsformen der elektronische Prozessor 302 (anstelle oder zusätzlich zum elektronischen Prozessor 205) dazu eingerichtet, ein oder mehrere interessierende Objekte innerhalb der empfangenen Videos zu identifizieren. Der elektronische Prozessor 302 kann nach dem Identifizieren eines oder mehrerer interessierender Objekte in einem Video Metadaten 250 erzeugen, die mit dem bestimmten Video assoziiert sind, das eine Kennung beinhaltet. Der elektronische Prozessor 302 kann in die Metadaten 250, die mit dem jeweiligen Video assoziiert sind, ein Objektflag oder eine Kennung einfügen, die angibt, dass das Video ein bestimmtes interessierendes Objekt enthält.
  • Wie vorstehend erwähnt, kann es, wenn Ereignisse von mehreren verschiedenen Videokameras überwacht werden können, herausfordernd sein, jedes Video zu überprüfen, um nicht nur den bestimmten Videoclip zu finden, der das Ereignis erfasst (beispielsweise wenn das interessierende Objekt im Video vorhanden ist), sondern auch das Timing des Videoclips zu verstehen, wenn das interessierende Objekt im Verhältnis zu einem anderen Video vorhanden ist oder wenn Videos zu verschiedenen Zeiten aufgenommen wurden. Es kann für den Prüfer auch visuell herausfordernd sein, wenn eines oder mehrere der Videos von Videokameraquellen stammen, die sich während der Aufnahme in verschiedene Richtungen oder mit verschiedenen Geschwindigkeiten bewegt haben.
  • 4 veranschaulicht ein Verfahren 400 zum Zusammenführen von Videos eines Ereignisses von einer Vielzahl von sich bewegenden Videokameras. Das Verfahren 400 wird als vom Server 102 und insbesondere vom elektronischen Prozessor 302 durchgeführt beschrieben. Es sollte jedoch verstanden werden, dass in einigen Ausführungsformen Teile des Verfahrens 400 von anderen Vorrichtungen ausgeführt werden können, einschließlich beispielsweise einer oder mehrerer der Videokameras 108A - C. Zur Vereinfachung der Beschreibung werden Teile des Verfahrens 400 in Begriffen eines einzelnen interessierenden Objekts (beispielsweise das interessierende Objekt 602 aus 6) beschrieben. Es sollte verstanden werden, dass in einigen Ausführungsformen mehrere interessierende Objekte vorhanden sein können. Außerdem wird zur Vereinfachung der Beschreibung das Verfahren 400 in Form eines ersten und eines zweiten Videos von einer ersten und einer zweiten Videokamera beschrieben. Es sollte jedoch verstanden werden, dass das Verfahren 400 in anderen Ausführungsformen mit mehr als zwei Videos von mehr als zwei Videokameras durchgeführt werden kann. In einigen Ausführungsformen kann das Verfahren 400 (sowie jede damit verbundene Videoverarbeitung, beispielsweise das Identifizieren eines interessierenden Objekts innerhalb eines Videos) während des Ereignisses durchgeführt werden, um einem Betrachter eine Rückmeldung nahezu in Echtzeit zu liefern. In anderen Ausführungsformen kann das Verfahren 400 nach dem Ereignis durchgeführt werden und kann zur Unterstützung der Ermittler bei der Überprüfung der Reaktion auf das Ereignis verwendet werden. Zur Vereinfachung der Beschreibung werden die folgenden Beispiele mit den Begriffen „Video“, „Videoclip“ und „Kamera“ beschrieben, die sich jeweils auf die Videos 501A - C (5), die Videoclips 502A - C und die Videokameras 108A - C beziehen können.
  • In dem in 4 dargestellten Beispiel empfängt der elektronische Prozessor 302 bei Block 402 ein erstes Video (beispielsweise ein erstes Video 501A aus 5) von einer ersten sich bewegenden Videokamera (beispielsweise die erste Videokamera 108A). Bei Block 404 empfängt der elektronische Prozessor 302 ein zweites Video (beispielsweise ein zweites Video 501B aus 5) von einer zweiten sich bewegenden Videokamera (beispielsweise der zweiten Videokamera 108B). In einigen Ausführungsformen empfängt der elektronische Prozessor 302 das Video über die Kommunikationsschnittstelle 306 direkt von der Videokamera oder indirekt über eine andere elektronische Kommunikationsvorrichtung (beispielsweise von einem Laptop oder einem Smartphone). In einigen Ausführungsformen ist mindestens eines der Videos ein zuvor empfangenes Video, das aus der Datenbank 104 des Systems 100 (1) oder der Speichervorrichtung 304 der Videokamera abgerufen wurde.
  • 5 veranschaulicht eine Zeitachse 500 der Videos 501A - C, die jeweils von den Videokameras 108A - C aufgenommen wurden. Im veranschaulichten Beispiel sind die Videos 501A - C zu unterschiedlichen Zeiten aufgenommen. Das von der Videokamera 108A aufgenommene Video 501A wird zuerst ab dem Zeitpunkt T1 aufgenommen und endet zu einem späteren Zeitpunkt T2. Das von der Videokamera 108C aufgenommene Video 501C wird zuerst ab dem auf T2 folgenden Zeitpunkt T3 aufgenommen und endet zu einem späteren Zeitpunkt T4. Das von der Videokamera 108B aufgenommene Video 501B wird von T4 - T5 aufgenommen. Obwohl sich die Videos 501A - C in der veranschaulichten Ausführungsform nicht zeitlich überschneiden, sollte verstanden werden, dass sich eines oder mehrere der Videos 501A - C in einigen Ausführungsformen zeitlich überschneiden können.
  • In einigen Ausführungsformen ist der elektronische Prozessor 302 dazu eingerichtet, einen Teil des Videos oder Videoclips zu bestimmen, der bei dem Verfahren 400 verwendet werden soll. In anderen Ausführungsformen ist der elektronische Prozessor 302 dazu eingerichtet, einen Videoclip des Videos zu bestimmen, der das interessierende Objekt 602 beinhaltet, und den Videoclip des interessierenden Objekts 602 als das Video in dem Verfahren 400 zu verwenden. In dem veranschaulichten Beispiel sind die Videoclips 502A - C jeweils die Teile der Videos 501A - C, die das interessierende Objekt 602 beinhalten. Unter bestimmten Umständen kann in dem Verfahren 400 mehr als ein Videoclip eines einzelnen Videos verwendet werden (zum Beispiel wenn das Video mehr als einen Videoclip eines interessierenden Objekts enthält). Die Videoclips 502A - C aus einem einzelnen Video können ähnlich verarbeitet werden, als ob die Videoclips 502A - C aus separaten Videos wären.
  • Zurück zu 4, bei Block 406, bestimmt der elektronische Prozessor 302 eine erste Bewegungscharakteristik des ersten Videos 501A und bei Block 408 eine zweite Bewegungscharakteristik des zweiten Videos 501B. Die Bewegungscharakteristik ist entweder die Geschwindigkeit der Videokamera oder die Richtung, in die sich die Videokamera während des Videos bewegt. In einigen Ausführungsformen werden sowohl Geschwindigkeit als auch Richtung als Merkmale berücksichtigt. In einigen Ausführungsformen werden die erste Bewegungscharakteristik und die zweite Bewegungscharakteristik basierend auf einem interessierenden Objekt, das das erste Video 501A und das zweite Video 501B gemein haben, bestimmt (siehe unten in Bezug auf 6). Der elektronische Prozessor 302 erzeugt (bei Block 410) einen Vergleich zwischen der ersten Bewegungscharakteristik und der zweiten Bewegungscharakteristik. Der elektronische Prozessor 302 modifiziert dann (bei Block 412) das zweite Video 501B basierend auf dem Vergleich, so dass die zweite Bewegungscharakteristik an die erste Bewegungscharakteristik angeglichen wird (oder nicht im Widerspruch steht). Mit anderen Worten, der elektronische Prozessor 302 modifiziert das zweite Video 501B, so dass beim sequentiellen Betrachten des ersten und zweiten Videos 501A und 501B wenig oder gar kein visueller Widerspruch zwischen beiden besteht (im Folgenden unter Bezug auf 6 näher erläutert). Es sollte verstanden werden, dass die Modifikation des zweiten Videos 501B in Bezug auf mindestens einen Teil eines Frames des Videos 501B erfolgt. Beispielsweise wird in einigen Ausführungsformen die Reihenfolge oder Geschwindigkeit (oder beides) mehrerer Frames des Videos geändert. In einigen Ausführungsformen wird ein Teil (oder Bereich) eines oder mehrerer Frames des Videos geändert.
  • Die Art und Weise, wie das Video modifiziert wird, kann unter Bezugnahme auf 6 besser verstanden werden. 6 ist eine Karte 600, die ein Ereignis veranschaulicht, bei dem sich das interessierende Objekt 602 (im dargestellten Beispiel ein Fahrzeug) entlang eines Wegs 604 bewegt. Das interessierende Objekt 602 wird von jeder der Videokameras 108A - C in einem Video aufgenommen. Die Videokameras 108A - C fahren jeweils den Weg 604 entlang. Die Routen 606A - C geben jeweils den Reiseweg der jeweiligen Videokamera 108A - C während ihres jeweiligen Videos des interessierenden Objekts 602 an. Die Routen 606A und 606C der Videokameras 108A beziehungsweise 108C sind jeweils in der gleichen Richtung 608A, während die Route 606B der Videokamera 108B in der entgegengesetzten Richtung 608B verläuft. Da die Route 606A und die Route 606C der Videokameras 108A und 108C in einer gemeinsamen Richtung 608A verlaufen, gleichen die Bewegungscharakteristiken (Richtung) der von den Videokameras 108A und 108C aufgenommenen Videos einander. Da die Route 606B der Videokamera 108B in einer Richtung entgegengesetzt zur Route 606A und 606C der Videokameras 108A und 108C verläuft, stimmt die Bewegungscharakteristik (Richtung) des von der Videokamera 108B aufgenommenen Videos weder mit der Bewegungscharakteristik des Videos 501A noch des Videos 501C der Videokameras 108A oder 108C überein. Dementsprechend kann der elektronische Prozessor 302 bei Block 412 (4) das Video 501B von der Videokamera 108B modifizieren, indem er das Video 501B ganz oder teilweise umkehrt. So kann beispielsweise in der veranschaulichten Ausführungsform die Videokamera 108B im Heck des Fahrzeugs 110B positioniert sein. Dadurch würde es den Anschein erwecken, dass sich die Videokamera 108B während des Videos 501B in die Richtung 608A bewegt, genau wie die Videokamera 108A während des Videos 501A.
  • In einigen Ausführungsformen werden die erste Bewegungscharakteristik und die zweite Bewegungscharakteristik basierend auf dem dem ersten Video und dem zweiten Video gemeinsamen interessierenden Objekt 602 bestimmt. Wenn beispielsweise das interessierende Objekt 602 von der Videokamera 108B aufgezeichnet wird, die die Route 606B fährt, in der Richtung 608B entgegengesetzt zur Richtung 608A des Pfades 604 des interessierenden Objekts 602 und den Routen 606A und 606C der Videokameras 108A und 108C, zeigen die Bilder des interessierenden Objekts 602, die im Video 501B der Videokamera 108B erfasst werden, das interessierende Objekt 602, das sich von der Videokamera 108B entfernt. Die Modifikation des Videos 501B von der Videokamera 108B kann rückgängig gemacht werden, um den Anschein zu erwecken, dass sich das interessierende Objekt 602 in dem modifizierten Video 501B so bewegt, dass es konsistent ist mit der Bewegung des interessierenden Objekts 602 in den Videos 501A und 501C von den Videokameras 108A und 108C. So wird beispielsweise die Richtung des Videos 501B von der Videokamera 108B so modifiziert, dass sich das interessierende Objekt 602 scheinbar stetig vor dem Fahrzeug 110B bewegt, als ob das Fahrzeug 110B neben dem Fahrzeug 110A in Richtung 608A folgt.
  • Wenn die Geschwindigkeit der Videokamera 108B von der der ersten Videokamera 108A während des Videos 501A verschieden ist (beispielsweise relativ zu der Bewegung des interessierenden Objekts 602, wie sie im ersten Video erscheint), kann die Geschwindigkeit des zweiten Videos erhöht oder verringert werden, um sie an die Geschwindigkeit des ersten Videos anzugleichen. So können beispielsweise die Fahrzeuge 110A und 110C, obwohl sie sich hinter dem interessierenden Objekt 602 in die gleiche Richtung 608A bewegen, mit unterschiedlichen Geschwindigkeiten fahren. Dementsprechend wird die Geschwindigkeit des Videos von der Videokamera 108C entweder erhöht oder verringert (abhängig von der Geschwindigkeit der Fahrzeuge 110A und 110C), so dass sich das interessierende Objekt 602 mit ungefähr der gleichen Geschwindigkeit zu bewegen scheint, mit der es sich im Video 501A der Videokamera 108A zu bewegen scheint.
  • Der elektronische Prozessor 302 kann die Bewegungscharakteristik eines Videos unter Verwendung eines oder mehrerer Geschwindigkeitsabschätzverfahren basierend auf Videobildern bestimmen. So kann beispielsweise der elektronische Prozessor 302 dazu eingerichtet sein, die Geschwindigkeit der Videokamera, ihre Richtung oder beides basierend auf der Geschwindigkeit und Bewegung eines bestimmten Pixels in jedem Frame mindestens eines Teils des Videos zu schätzen (bekannt als Pixel-Tracking). In einigen Ausführungsformen kann der elektronische Prozessor 302 die Bewegungscharakteristik basierend auf Informationen der Videokamera bestimmen (beispielsweise unter Verwendung von Informationen eines Beschleunigungssensors, eines Navigationssensors oder dergleichen, die sich innerhalb der Videokamera befinden oder mit dieser verbunden sind). In anderen Ausführungsformen kann der elektronische Prozessor 302 Geschwindigkeits- und Richtungsdaten von einem elektronischen Steuergerät (nicht dargestellt) oder einer elektronischen Erfassungsvorrichtung (nicht dargestellt) des Fahrzeugs verwenden, in dem sich die Videokamera befindet.
  • In einigen Ausführungsformen ist der elektronische Prozessor 302 dazu eingerichtet, ein oder mehrere Objekte des zweiten Videos 501B zu modifizieren (mit anderen Worten, andere Objekte im Video 501B als das interessierende Objekt 602). Die Modifikation kann ähnlich wie die vorstehend beschriebene Modifikation des Videos 501B sein, wo der elektronische Prozessor 302 eine Angleichung einer Bewegungscharakteristik des Objekts mit der ersten Bewegungscharakteristik bestimmt und die Bewegungscharakteristik des Objekts modifiziert, um sie an die Bewegungscharakteristik des ersten Videos 501A anzugleichen. In einigen Ausführungsformen wird das Video 501B so modifiziert, dass das Objekt nicht mehr im Video 501B erscheint. Die Modifizierung eines Objekts innerhalb eines Videos kann wünschenswert sein, wenn das Objekt visuell ablenkt oder einem Aspekt des Videos widerspricht. Wenn beispielsweise das zweite Video 501B vor der Modifikation ein Objekt beinhaltet, das sich vorwärts bewegt (beispielsweise eine Person, die vorwärts geht), würde das Umkehren eines Teils oder des gesamten Videos 501B dazu führen, dass das Objekt so aussieht, als ob es sich rückwärts bewegt. Dementsprechend kann das Objekt 1) so modifiziert werden, dass es so aussieht, als ob es sich immer noch vorwärts bewegt, oder 2) aus dem Video 501B entfernt werden.
  • Zurück zu 4, bei Block 414 erzeugt der elektronische Prozessor 302 nach dem Modifizieren des zweiten Videos 501B ein kombiniertes Video, das mindestens einen Teil des ersten Videos 501A und des zweiten Videos 501B enthält. Die Reihenfolge der im kombinierten Video enthaltenen Videos (modifiziert bei Block 412 oder auch nicht) kann die Reihenfolge sein, in der die Videos aufgenommen wurden. Beispielsweise könnte, zurückkehrend zu 5, das Video 501A (oder ein Teil davon, beispielsweise der Videoclip 602A) zuerst im kombinierten Video erscheinen, da das Video 501A die früheste Aufzeichnung ist. Das Video 501C könnte dem Video 501A folgen und das Video 501B könnte dem Video 501C folgen. Der elektronische Prozessor 302 kann dazu eingerichtet sein, basierend auf den dem Video zugeordneten Metadaten 250, die Zeit zu bestimmen, zu der das Video aufgezeichnet wurde. In einigen Ausführungsformen ist der elektronische Prozessor 302 ferner dazu eingerichtet, Videos von stationären Videokameras (beispielsweise Sicherheitskameras, Verkehrskameras und dergleichen) im kombinierten Video zu verwenden. Der elektronische Prozessor 302 kann dazu eingerichtet sein, Videos von solchen Vorrichtungen ähnlich den oben beschriebenen Videos 501A - C zu modifizieren.
  • Wie vorstehend erläutert, können ein oder mehrere der im kombinierten Video enthaltenen Videos so modifiziert werden, dass die Bewegungscharakteristik in einem Video mit der Bewegungscharakteristik der anderen Videos übereinstimmt. In einigen Ausführungsformen ist der elektronische Prozessor 302 dazu eingerichtet, eine Benutzereingabe zu empfangen, die die Bewegungscharakteristik (entweder Geschwindigkeit oder Richtung oder beides) des kombinierten Videos auswählt. Die Videos können basierend auf den Benutzereingaben modifiziert werden. So kann beispielsweise der elektronische Prozessor 302 eine grafische Karte auf einer Benutzerschnittstelle eines Displays (beispielsweise das Display 245 der Videokamera 108) bereitstellen, die die Routen der Videokameras und den Ort (und unter Umständen die Richtung) des Ereignisses angibt. Die Benutzerschnittstelle kann der Karte 600 aus 6 ähnlich sein. Der Benutzer kann beispielsweise einen Pfeil in die Richtung ziehen, in die die Bewegungscharakteristik des kombinierten Videos gewünscht wird (beispielsweise entweder Richtung 608A oder 608B). Der Benutzer kann auch die Geschwindigkeit des kombinierten Videos eingeben. Der elektronische Prozessor 302 führt dann das Verfahren 400 basierend auf den empfangenen Bewegungscharakteristiken aus.
  • In einigen Ausführungsformen ist der elektronische Prozessor 302 dazu eingerichtet, einem oder mehreren der Videos im kombinierten Video ein visuelles Element hinzuzufügen. Das visuelle Element kann ein Fenster, eine Farbe, ein Text oder eine Kombination davon sein, welches Informationen über die visuelle Hervorhebung eines bestimmten Elements des Videos angibt. Das visuelle Element kann beispielsweise ein Zeitstempel des Videos, die Geschwindigkeit, mit der sich die Videokamera zum Zeitpunkt der Aufnahme des Videos bewegt, und das interessierende Objekt 602 und dergleichen sein. Der elektronische Prozessor 302 überlagert das visuelle Element über ein oder mehrere Frames des jeweiligen Videos innerhalb des kombinierten Videos.
  • In 7 wird ein kombiniertes Video 700 dargestellt, das auf einem Display 701 dargestellt wird. Das kombinierte Video 700 beinhaltet ein visuelles Element 702, das die Geschwindigkeit der Videokamera angibt. In einigen Ausführungsformen kann der elektronische Prozessor 302 ferner dazu eingerichtet sein, ein visuelles Element bereitzustellen, das die Zeitachse des kombinierten Videos 700 angibt, beispielsweise die Zeitachse 704. In der veranschaulichten Ausführungsform kann die Zeitachse 704 die Dauer 706A eines ersten Videos 501A (sowie der anderen Videos, die in dem kombinierten Video 700 enthalten sind) hervorheben. Dies ermöglicht es dem Betrachter, das jeweilige Video zu identifizieren, das im kombinierten Video 700 gezeigt wird.
  • In einigen Ausführungsformen ist das Display 701 Teil einer Computervorrichtung, die beispielsweise von einem Supervisor verwendet wird, der die Reaktion auf das Ereignis in Echtzeit überwacht oder die Reaktion auf das Ereignis nachträglich überprüft. In einigen Ausführungsformen ist das Display 701 Teil des Servers 102. In weiteren Ausführungsformen ist das Display 701 Teil einer Videovorrichtung (beispielsweise das Display 245 der Videokamera 108A), die von einem Beobachter während des Ereignisses verwendet wird.
  • In der vorangehenden Spezifikation sind spezifische Ausführungsformen beschrieben worden. Fachleuten auf dem Gebiet ist jedoch klar, dass verschiedene Modifizierungen und Änderungen vorgenommen werden können, ohne von dem Geist der Erfindung abzuweichen, wie in den Ansprüchen unten dargelegt. Dementsprechend sind die Spezifikation und die Abbildungen in einem eher illustrativen als einem restriktiven Sinne zu verstehen und alle solche Modifikationen sollen in dem Schutzbereich der vorliegenden Lehren enthalten sein.
  • Die Nutzen, Vorteile, Problemlösungen und jedes denkbare Element, das dazu führt, dass irgendein Nutzen, Vorteil oder irgendeine Lösung eintritt oder ausgeprägter wird, sollen nicht als kritische, erforderliche oder essentielle Merkmale oder Elemente eines beliebigen Anspruchs oder aller Ansprüche ausgelegt werden. Die Erfindung wird ausschließlich durch die angehängten Ansprüche definiert, einschließlich jeder beliebigen Änderung, die während der Rechtshängigkeit der vorliegenden Anmeldung vorgenommen wird, und aller Äquivalente solcher Ansprüche, wie veröffentlicht.
  • Darüber hinaus sollen in diesem Dokument relationale Ausdrücke, wie zum Beispiel, erste und zweite, oben und unten, und dergleichen ausschließlich verwendet werden, um eine Entität oder Aktion von einer anderen Entität oder Aktion zu unterscheiden, ohne notwendigerweise irgend eine tatsächliche solche Beziehung oder Reihenfolge zwischen solchen Entitäten oder Aktionen zu erfordern oder zu implizieren. Die Ausdrücke „umfasst“, „umfassend“, „hat“, „habend“, „beinhalten“, „beinhaltend“, „enthalten“, „enthaltend“ oder eine beliebige Variation davon sollen eine nicht-exklusive Einbeziehung abdecken, so dass ein Prozess, Verfahren, Artikel oder eine Vorrichtung, die eine Liste von Elementen umfassen, haben, beinhalten, enthalten, nicht nur solche Elemente beinhalten, sondern andere Elemente beinhalten können, die nicht ausdrücklich aufgeführt werden, oder solchen Prozessen, Verfahren, Artikeln oder Vorrichtungen inhärent sind. Ein Element, das fortfährt mit „umfasst... ein“, „hat... ein“, „beinhaltet... ein“, „enthält... ein“, schließt nicht, ohne weitere Auflagen, die Existenz zusätzlicher identischer Elemente in dem Prozess, Verfahren, Artikel oder der Vorrichtung aus, die das Element umfassen, haben, beinhalten, enthalten. Die Ausdrücke „eine“ und „ein“ werden als eins oder mehr definiert, sofern hierin nichts anderes explizit festgelegt ist. Die Ausdrücke „im Wesentlichen“, „essentiell“, „ungefähr“, „etwa“ oder eine beliebige andere Version davon wurden als „nahe bei sein“ definiert, wie dem Fachmann auf dem Gebiet klar ist, und in einer nicht begrenzenden Ausführungsform wird der Ausdruck definiert, innerhalb von 10 %, in einer anderen Ausführungsform innerhalb von 5 % in einer anderen Ausführungsform innerhalb von 1 % und in einer anderen Ausführungsform innerhalb von 0,5 % zu sein. Der Ausdruck „gekoppelt“, wie er hierin verwendet wird, wird als „verbunden“ definiert, obwohl nicht notwendigerweise direkt und nicht notwendigerweise mechanisch. Eine Vorrichtung oder Struktur, die in einer bestimmten Art und Weise „konfiguriert“ ist, ist mindestens auf diese Art und Weise konfiguriert, kann aber auch auf mindestens eine Art und Weise konfiguriert sein, die nicht aufgeführt ist.
  • Es ist gewünscht, dass einige Ausführungsformen einen oder mehrere generische oder spezialisierte Prozessoren (oder „Verarbeitungsvorrichtungen“) umfassen, wie zum Beispiel Mikroprozessoren, digitale Signalprozessoren, kundenspezifische Prozessoren und freiprogrammierbare Feld-Gate-Arrays (FPGAs) und eindeutige gespeicherte Programmanweisungen (die sowohl Software als auch Firmware umfassen), die den einen oder mehrere Prozessoren steuern, um in Verbindung mit bestimmten Nicht-Prozessor-Schaltungen, einige, die meisten oder alle der Funktionen des Verfahrens und/oder der Vorrichtung, die hierin beschrieben werden, zu implementieren. Alternativ können einige oder alle Funktionen durch eine Zustandsmaschine implementiert werden, die über keine gespeicherten Programmanweisungen verfügt, oder in einer oder mehreren anwendungsspezifischen integrierten Schaltungen (ASICs), in denen jede Funktion oder einige Kombinationen von bestimmten der Funktionen, als kundenspezifische Logik implementiert sind. Selbstverständlich kann eine Kombination der zwei Ansätze verwendet werden.
  • Darüber hinaus kann eine Ausführungsform als ein computerlesbares Speichermedium implementiert sein, das über einen darauf gespeicherten computerlesbaren Code zum Programmieren eines Computers (der zum Beispiel einen Prozessor umfasst) verfügt, um ein hierin beschriebenes und beanspruchtes Verfahren durchzuführen. Beispiele solcher computerlesbaren Speichermedien umfassen, ohne darauf beschränkt zu sein: eine Festplatte, eine CD-ROM, eine optische Speichervorrichtung, eine magnetische Speichervorrichtung, einen ROM (Nur-Lese-Speicher), einen PROM (Programmierbarer Lesespeicher), einen EPROM (Löschbarer Programmierbarer Lesespeicher), einen EEPROM (Elektrisch Löschbarer Programmierbarer Lesespeicher) und einen Flash-Speicher. Weiterhin ist zu erwarten, dass ein Fachmann auf dem Gebiet, ungeachtet möglicher erheblicher Anstrengungen und einer großen Designauswahl, die zum Beispiel durch eine zur Verfügung stehende Zeit, der aktuellen Technologie und ökonomische Überlegungen begründet ist, geleitet durch die hierin offenbarten Konzepte und Prinzipien, ohne Weiteres in der Lage ist solche Softwareanweisungen und Programme und ICs mit minimalem Versuchsaufwand zu erzeugen.
  • Die Zusammenfassung der Offenbarung wird zur Verfügung gestellt, um dem Leser zu erlauben, die Natur der technischen Offenbarung schnell zu erkennen. Es wird mit dem Verständnis eingereicht, dass es nicht verwendet wird, um den Geist oder die Bedeutung der Ansprüche zu interpretieren oder zu begrenzen. Zusätzlich ist der vorangehenden ausführlichen Beschreibung zu entnehmen, dass verschiedene Merkmale in verschiedenen Ausführungsformen zusammengruppiert werden, um die Offenbarung zu straffen. Dieses Offenbarungsverfahren soll nicht als ein Reflektieren einer Intention interpretiert werden, dass die beanspruchten Ausführungsformen mehr Merkmale erfordern, als ausdrücklich in jedem Anspruch vorgetragen werden. Vielmehr liegt, wie aus den folgenden Ansprüchen hervorgeht, ein erfinderischer Gegenstand in weniger als allen Merkmalen einer einzelnen offenbarten Ausführungsform vor. Somit werden die folgenden Ansprüche hierdurch in die ausführliche Beschreibung integriert, wobei jeder Anspruch für sich alleine als ein getrennt beanspruchter Gegenstand steht.

Claims (14)

  1. Videozusammenfassungssystem umfassend: einen elektronischen Prozessor eingerichtet zum Empfangen eines ersten Videos von einer ersten sich bewegenden Videokamera, Empfangen eines zweiten Videos von einer zweiten sich bewegenden Videokamera, Bestimmen einer ersten Bewegungscharakteristik des ersten Videos, Bestimmen einer zweiten Bewegungscharakteristik des zweiten Videos, Erzeugen eines Vergleichs zwischen der ersten Bewegungscharakteristik und der zweiten Bewegungscharakteristik, Modifizieren des zweiten Videos basierend auf dem Vergleich, so dass die zweite Bewegungscharakteristik an die erste Bewegungscharakteristik angeglichen wird, und Erzeugen, nach dem Modifizieren des zweiten Videos, eines kombinierten Videos, das wenigstens einen Teil von beiden Videos, dem ersten Video und dem zweiten Video, beinhaltet.
  2. System gemäß Anspruch 1, wobei die erste Bewegungscharakteristik eine erste Richtung ist, in die sich die erste sich bewegende Videokamera bewegt, und die zweite Bewegungscharakteristik eine zweite Richtung ist, in die sich die zweite sich bewegende Videokamera bewegt, die im Wesentlichen entgegengesetzt zur ersten Richtung ist, und der elektronische Prozessor ferner eingerichtet ist zum Modifizieren des zweiten Videos, um die zweite Bewegungscharakteristik durch Umkehren wenigstens einen Teils des zweiten Videos an die erste Bewegungscharakteristik anzugleichen.
  3. System gemäß Anspruch 1, wobei die erste Bewegungscharakteristik eine erste Geschwindigkeit ist, mit der sich die erste sich bewegende Videokamera bewegt, und die zweite Bewegungscharakteristik eine zweite Geschwindigkeit ist, mit der sich die zweite sich bewegende Videokamera bewegt, und der elektronische Prozessor ferner eingerichtet ist zum Modifizieren des zweiten Videos, um die zweite Bewegungscharakteristik durch Erhöhen oder Verringern einer Geschwindigkeit von wenigstens einem Teil des zweiten Videos an die erste Bewegungscharakteristik anzugleichen.
  4. System gemäß Anspruch 1, wobei die erste Bewegungscharakteristik und die zweite Bewegungscharakteristik basierend auf einem interessierenden Objekt bestimmt werden, das das erste Video und das zweite Video gemein haben.
  5. System gemäß Anspruch 4, wobei der elektronische Prozessor ferner eingerichtet ist zum Hinzufügen eines visuellen Elements zu dem zweiten Video, wobei das visuelle Element wenigstens eines angibt, ausgewählt aus der Gruppe bestehend aus einem Zeitstempel des zweiten Videos, einer Geschwindigkeit, mit der die zweite sich bewegende Videokamera sich zu einer Zeit bewegt, während der das zweite Video erfasst wird, und dem interessierenden Objekt.
  6. System gemäß Anspruch 1, wobei der elektronische Prozessor ferner eingerichtet ist zum Modifizieren eines Elementes in dem zweiten Video.
  7. System gemäß Anspruch 6, wobei der elektronische Prozessor eingerichtet ist zum Bestimmen einer Angleichung des Elementes mit der ersten Bewegungscharakteristik.
  8. Verfahren zum Zusammenfassen von Videos von einer Vielzahl von sich bewegender Videokameras, das Verfahren umfasst: das Empfangen eines ersten Videos von einer ersten sich bewegenden Videokamera, das Empfangen eines zweiten Videos von einer zweiten sich bewegenden Videokamera, das Bestimmen einer ersten Bewegungscharakteristik des ersten Videos, das Bestimmen einer zweiten Bewegungscharakteristik des zweiten Videos, das Erzeugen eines Vergleichs zwischen der ersten Bewegungscharakteristik und der zweiten Bewegungscharakteristik, das Modifizieren des zweiten Videos basierend auf dem Vergleich, so dass die zweite Bewegungscharakteristik an die erste Bewegungscharakteristik angeglichen wird, und das Erzeugen, nach dem Modifizieren des zweiten Videos, eines kombinierten Videos, das wenigstens einen Teil von beiden Videos, dem ersten Video und dem zweiten Video, beinhaltet.
  9. Verfahren nach Anspruch 8, wobei die erste Bewegungscharakteristik eine erste Richtung ist, in die sich die erste sich bewegende Videokamera bewegt, und die zweite Bewegungscharakteristik eine zweite Richtung ist, in die sich die zweite sich bewegende Videokamera bewegt, die im Wesentlichen entgegengesetzt zur ersten Richtung ist, und das Verfahren ferner das Modifizieren des zweiten Videos beinhaltet, um die zweite Bewegungscharakteristik durch Umkehren wenigstens einen Teils des zweiten Videos an die erste Bewegungscharakteristik anzugleichen.
  10. Verfahren nach Anspruch 8, wobei die erste Bewegungscharakteristik eine erste Geschwindigkeit ist, mit der sich die erste sich bewegende Videokamera bewegt, und die zweite Bewegungscharakteristik eine zweite Geschwindigkeit ist, mit der sich die zweite sich bewegende Videokamera bewegt, und das Verfahren ferner das Modifizieren des zweiten Videos beinhaltet, um die zweite Bewegungscharakteristik durch Erhöhen oder Verringern einer Geschwindigkeit von wenigstens einem Teil des zweiten Videos an die erste Bewegungscharakteristik anzugleichen.
  11. Verfahren nach Anspruch 8, wobei die erste Bewegungscharakteristik und die zweite Bewegungscharakteristik basierend auf einem interessierenden Objekt bestimmt werden, das das erste Video und das zweite Video gemein haben.
  12. Verfahren nach Anspruch 11, wobei das Verfahren ferner das Hinzufügen eines visuellen Elements zu dem zweiten Video beinhaltet, wobei das visuelle Element wenigstens eines angibt, ausgewählt aus der Gruppe bestehend aus einem Zeitstempel des zweiten Videos, einer Geschwindigkeit, mit der die zweite sich bewegende Videokamera sich zu einer Zeit bewegt, während der das zweite Video erfasst wird, und dem interessierenden Objekt.
  13. Verfahren gemäß Anspruch 8, wobei das Verfahren ferner das Modifizieren eines Elementes in dem zweiten Video beinhaltet.
  14. Verfahren gemäß Anspruch 13, wobei das Verfahren ferner das Bestimmen einer Angleichung des Elementes mit der ersten Bewegungscharakteristik beinhaltet.
DE102019123220.1A 2018-09-14 2019-08-29 Zusammenfassen von Videos von mehreren sich bewegenden Videokameras Pending DE102019123220A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US16/131,380 2018-09-14
US16/131,380 US10666877B2 (en) 2018-09-14 2018-09-14 Synopsizing videos from multiple moving video cameras

Publications (1)

Publication Number Publication Date
DE102019123220A1 true DE102019123220A1 (de) 2020-03-19

Family

ID=68099604

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102019123220.1A Pending DE102019123220A1 (de) 2018-09-14 2019-08-29 Zusammenfassen von Videos von mehreren sich bewegenden Videokameras

Country Status (3)

Country Link
US (1) US10666877B2 (de)
DE (1) DE102019123220A1 (de)
GB (1) GB2578195B (de)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11178531B2 (en) * 2019-03-26 2021-11-16 International Business Machines Corporation Link devices using their relative positions
US20210089637A1 (en) * 2019-09-20 2021-03-25 Micron Technology, Inc. Methods and apparatus for persistent biometric profiling
CN116405776A (zh) * 2020-09-27 2023-07-07 华为技术有限公司 多镜头视频录制方法及相关设备

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5982452A (en) 1997-03-27 1999-11-09 Dalhousie University Analog video merging system for merging N video signals from N video cameras
CN100349188C (zh) 1999-11-24 2007-11-14 伊摩信科技有限公司 以时空同步整合视频序列的方法及***
US7912337B2 (en) * 2005-11-02 2011-03-22 Apple Inc. Spatial and temporal alignment of video sequences
US7738008B1 (en) * 2005-11-07 2010-06-15 Infrared Systems International, Inc. Infrared security system and method
EP1991934B1 (de) 2006-02-27 2016-10-26 Robert Bosch GmbH Auf trajektorien basierendes videoabrufsystem, verfahren und computerprogramm
EP3297272A1 (de) 2007-02-01 2018-03-21 Yissum Research Development Company of the Hebrew University of Jerusalem Ltd. Verfahren und system zur videoindizierung und videosynopse
JP5761601B2 (ja) * 2010-07-01 2015-08-12 株式会社リコー 物体識別装置
US20120263439A1 (en) 2011-04-13 2012-10-18 David King Lassman Method and apparatus for creating a composite video from multiple sources
WO2016014591A1 (en) * 2014-07-21 2016-01-28 Avigilon Corporation Timeline synchronization control method for multiple display views
WO2018103042A1 (en) * 2016-12-08 2018-06-14 Zhejiang Dahua Technology Co., Ltd. Methods and systems for video synopsis
CN110771175A (zh) * 2018-05-30 2020-02-07 深圳市大疆创新科技有限公司 视频播放速度的控制方法、装置及运动相机

Also Published As

Publication number Publication date
US10666877B2 (en) 2020-05-26
GB2578195B (en) 2021-03-17
GB201911753D0 (en) 2019-10-02
US20200092495A1 (en) 2020-03-19
GB2578195A (en) 2020-04-22

Similar Documents

Publication Publication Date Title
DE112017007579T5 (de) Verfahren und System zum automatischen Kolorieren von Nachtsichtbildern
DE102010038341B4 (de) Videoüberwachungssystem sowie Verfahren zur Konfiguration eines Videoüberwachungssystems
DE102018201054A1 (de) System und Verfahren zur Bilddarstellung durch ein Fahrerassistenzmodul eines Fahrzeugs
DE112017001311T5 (de) System und Verfahren zum Trainieren eines Objektklassifikators durch maschinelles Lernen
DE102014220302B4 (de) Verfahren zur Durchführung einer Aktions-Erkennung auf einem Bild eines Fahrers in einem Fahrzeug sowie entsprechendes Nichtflüchtiges, Computer-lesbares Speichermedium und Verfahren zum Lernen eines Random Forest Modells zur Aktionserkennung
DE102019123220A1 (de) Zusammenfassen von Videos von mehreren sich bewegenden Videokameras
EP2464098B1 (de) Umfeld-Darstellungsvorrichtung sowie ein Fahrzeug mit einer derartigen Umfeld-Darstellungsvorrichtung und Verfahren zur Darstellung eines Panoramabildes
WO2017025483A1 (de) Verfahren und vorrichtung zur datenerfassung und auswertung von umgebungsdaten
DE112014007249T5 (de) Bildverarbeitungsvorrichtung, Fahrzeuganzeigesystem, Anzeigevorrichtung, Bildverarbeitungsverfahren und Bildverarbeitungsprogramm
DE102017115318A1 (de) Heads-Up-Anzeige zum Beobachten von Fahrzeugwahrnehmungsaktivität
DE112013005195T5 (de) Verfahren und Vorrichtung zur Auswahl eines Videoanalyse-Algorithmus, basierend auf historischen Ereignisdaten
DE112018005191T5 (de) System und Verfahren zur Verbesserung des Signal-Rausch-Verhältnisses bei der Objektverfolgung unter schlechten Lichtbedingungen
DE102021211867A1 (de) Systeme und verfahren zum erkennen von krankheitssymptomen von nutzern
DE102012218870A1 (de) Verbessertes Erkennen herrenloser Objekte unter Verwendung des Erfassens von Fussgängern
DE102013217223A1 (de) Überwachungsanlage sowie Verfahren zur Darstellung eines Überwachungsbereichs
EP1791364B1 (de) Flugverkehr-Leiteinrichtung
WO2021072645A1 (en) Video analytics conflict detection and mitigation
DE10049366A1 (de) Verfahren zum Überwachen eines Sicherheitsbereichs und entsprechendes System
DE102019220335A1 (de) Semantische segmentierung unter verwendung von fahreraufmerksamkeitsinformationen
DE102015226015A1 (de) Verfahren und Vorrichtung zum Detektieren eines Fluggeräts
DE102007000344A1 (de) System und Verfahren zum Erkennen von Sensorstörungen und/oder von Signalstörungen und/oder von Sabotage
DE102018201909A1 (de) Verfahren und Vorrichtung zur Objekterkennung
DE102017211555A1 (de) Verfahren zur Überwachung mindestens eines Insassen eines Kraftfahrzeugs, wobei das Verfahren insbesondere zur Überwachung und Erkennung möglicher Gefahrensituationen für mindestens einen Insassen dient
DE102021201774A1 (de) Augmented-Reality-Erkennung zum Lokalisieren von autonomen Fahrzeugen
DE202020004150U1 (de) System basierend auf Edge Devices mit einem oder mehreren Tiefensensoren zur präzisen Detektion und Zählung von Menschen, Tieren und Objekten in Echtzeit

Legal Events

Date Code Title Description
R012 Request for examination validly filed