DE112016004269T5 - Verfahren, systeme und medien zum präsentieren interaktiver elemente innerhalb von videoinhalt - Google Patents

Verfahren, systeme und medien zum präsentieren interaktiver elemente innerhalb von videoinhalt Download PDF

Info

Publication number
DE112016004269T5
DE112016004269T5 DE112016004269.8T DE112016004269T DE112016004269T5 DE 112016004269 T5 DE112016004269 T5 DE 112016004269T5 DE 112016004269 T DE112016004269 T DE 112016004269T DE 112016004269 T5 DE112016004269 T5 DE 112016004269T5
Authority
DE
Germany
Prior art keywords
video content
view
presented
interactive
interactive element
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112016004269.8T
Other languages
English (en)
Inventor
Justin Lewis
Ruxandra Georgiana Davies
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Google LLC
Original Assignee
Google LLC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Google LLC filed Critical Google LLC
Publication of DE112016004269T5 publication Critical patent/DE112016004269T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/854Content authoring
    • H04N21/8545Content authoring for generating interactive applications
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/43Processing of content or additional data, e.g. demultiplexing additional data from a digital video stream; Elementary client operations, e.g. monitoring of home network or synchronising decoder's clock; Client middleware
    • H04N21/431Generation of visual interfaces for content selection or interaction; Content or additional data rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/70Information retrieval; Database structures therefor; File system structures therefor of video data
    • G06F16/74Browsing; Visualisation therefor
    • G06F16/748Hypervideo
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0207Discounts or incentives, e.g. coupons or rebates
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/472End-user interface for requesting content, additional data or services; End-user interface for interacting with content, e.g. for content reservation or setting reminders, for requesting event notification, for manipulating displayed content
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/40Client devices specifically adapted for the reception of or interaction with content, e.g. set-top-box [STB]; Operations thereof
    • H04N21/47End-user applications
    • H04N21/478Supplemental services, e.g. displaying phone caller identification, shopping application
    • H04N21/4782Web browsing, e.g. WebTV
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/81Monomedia components thereof
    • H04N21/812Monomedia components thereof involving advertisement data
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N21/00Selective content distribution, e.g. interactive television or video on demand [VOD]
    • H04N21/80Generation or processing of content or additional data by content creator independently of the distribution process; Content per se
    • H04N21/85Assembly of content; Generation of multimedia applications
    • H04N21/858Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot
    • H04N21/8583Linking data to content, e.g. by linking an URL to a video object, by creating a hotspot by creating hot-spots
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06QINFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES; SYSTEMS OR METHODS SPECIALLY ADAPTED FOR ADMINISTRATIVE, COMMERCIAL, FINANCIAL, MANAGERIAL OR SUPERVISORY PURPOSES, NOT OTHERWISE PROVIDED FOR
    • G06Q30/00Commerce
    • G06Q30/02Marketing; Price estimation or determination; Fundraising
    • G06Q30/0241Advertisements
    • G06Q30/0251Targeted advertisements

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Development Economics (AREA)
  • Strategic Management (AREA)
  • Physics & Mathematics (AREA)
  • Finance (AREA)
  • General Physics & Mathematics (AREA)
  • Accounting & Taxation (AREA)
  • Marketing (AREA)
  • Databases & Information Systems (AREA)
  • Human Computer Interaction (AREA)
  • Entrepreneurship & Innovation (AREA)
  • General Engineering & Computer Science (AREA)
  • Game Theory and Decision Science (AREA)
  • Data Mining & Analysis (AREA)
  • Economics (AREA)
  • General Business, Economics & Management (AREA)
  • Computer Security & Cryptography (AREA)
  • User Interface Of Digital Computer (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

Verfahren, Systeme und Medien zum Präsentieren interaktiver Elemente innerhalb von Videoinhalt werden bereitgestellt. In einigen Ausführungsformen umfasst das Verfahren: Veranlassen, dass immersiver Videoinhalt auf einem Benutzergerät präsentiert wird, wobei der immersive Videoinhalt mindestens eine erste Ansicht und eine zweite Ansicht beinhaltet, und wobei die erste Ansicht ein erstes interaktives Element beinhaltet, das innerhalb der ersten Ansicht präsentiert werden soll, und die zweite Ansicht ein zweites interaktives Element beinhaltet, das innerhalb der zweiten Ansicht präsentiert werden soll; Empfangen einer Angabe, dass die erste Ansicht des immersiven Videoinhalts präsentiert werden soll; in Reaktion auf Empfangen der Angabe Veranlassen, dass die erste Ansicht des immersiven Videoinhalts auf dem Benutzergerät präsentiert wird; Bestimmen, dass das erste interaktive Element innerhalb der ersten Ansicht des immersiven Videoinhalts präsentiert wurde; in Reaktion auf Bestimmen, dass das erste interaktive Element präsentiert wurde, Identifizieren eines Inhaltserstellers, der dem ersten interaktiven Element zugeordnet ist; und Zuweisen von Zuschreibungsinformationen, die die Präsentation des ersten interaktiven Elements angeben, zu dem Inhaltsersteller, der dem ersten interaktiven Element zugeordnet ist.

Description

  • Querverweis auf eine verwandte Anmeldung
  • Diese Anmeldung beansprucht den Vorteil der Priorität von US-Patentanmeldung Nr. 14/979,347 , eingereicht am 22. Dezember 2015, deren Inhalte hiermit durch Bezugnahme in ihrer Ganzheit hierin aufgenommen sind.
  • Technisches Gebiet
  • Der offenbarte Gegenstand betrifft Verfahren, Systeme und Medien zum Präsentieren interaktiver Elemente innerhalb von Videoinhalt.
  • Hintergrund
  • Inhaltsersteller sind zunehmend an der Produktion und Bereitstellung von immersivem Medieninhalt interessiert. Mit „immersivem Medieninhalt“ ist gemeint, dass der Medieninhalt eine Vielzahl von Standpunkten beinhaltet, die von einem Benutzer ausgewählt werden können. Zusätzlich können Inhaltsersteller am Erstellen von immersivem Videoinhalt interessiert sein. Darüber hinaus können Inhaltsersteller daran interessiert sein, interaktiven Inhalt innerhalb eines solchen Videos bereitzustellen, um den immersiven Medieninhalt zu ergänzen. Es kann jedoch schwierig sein, den interaktiven Inhalt zu präsentieren und die Präsentation des interaktiven Inhalts einem Ersteller des interaktiven Inhalts zuzuschreiben.
  • Daher ist es wünschenswert, Verfahren, Systeme und Medien zum Präsentieren interaktiver Elemente innerhalb von Videoinhalt bereitzustellen.
  • Überblick
  • Verfahren, Systeme und Medien zum Präsentieren interaktiver Elemente innerhalb von Videoinhalt werden bereitgestellt. Gemäß einigen Ausführungsformen des offenbarten Gegenstandes werden Verfahren zum Präsentieren interaktiver Elemente innerhalb von Videoinhalt bereitgestellt, wobei die Verfahren umfassen: Veranlassen, dass immersiver Videoinhalt auf einem Benutzergerät präsentiert wird, wobei der immersive Videoinhalt mindestens eine erste Ansicht und eine zweite Ansicht beinhaltet, und wobei die erste Ansicht ein erstes interaktives Element beinhaltet, das innerhalb der ersten Ansicht präsentiert werden soll, und die zweite Ansicht ein zweites interaktives Element beinhaltet, das innerhalb der zweiten Ansicht präsentiert werden soll; Empfangen einer Angabe, dass die erste Ansicht des immersiven Videoinhalts präsentiert werden soll; in Reaktion auf Empfangen der Angabe Veranlassen, dass die erste Ansicht des immersiven Videoinhalts auf dem Benutzergerät präsentiert wird; Bestimmen, dass das erste interaktive Element innerhalb der ersten Ansicht des immersiven Videoinhalts präsentiert wurde; in Reaktion auf Bestimmen, dass das erste interaktive Element präsentiert wurde, Identifizieren eines Inhaltserstellers, der dem ersten interaktiven Element zugeordnet ist; und Zuweisen von Zuschreibungsinformationen, die die Präsentation des ersten interaktiven Elements angeben, zu dem Inhaltsersteller, der dem ersten interaktiven Element zugeordnet ist.
  • Gemäß einigen Ausführungsformen des offenbarten Gegenstandes werden Systeme zum Präsentieren interaktiver Elemente innerhalb von Videoinhalt bereitgestellt, wobei die Systeme umfassen: einen Hardware-Prozessor, der programmiert ist zum: Veranlassen, dass immersiver Videoinhalt auf einem Benutzergerät präsentiert wird, wobei der immersive Videoinhalt mindestens eine erste Ansicht und eine zweite Ansicht beinhaltet, und wobei die erste Ansicht ein erstes interaktives Element beinhaltet, das innerhalb der ersten Ansicht präsentiert werden soll, und die zweite Ansicht ein zweites interaktives Element beinhaltet, das innerhalb der zweiten Ansicht präsentiert werden soll; Empfangen einer Angabe, dass die erste Ansicht des immersiven Videoinhalts präsentiert werden soll; in Reaktion auf Empfangen der Angabe Veranlassen, dass die erste Ansicht des immersiven Videoinhalts auf dem Benutzergerät präsentiert wird; Bestimmen, dass das erste interaktive Element innerhalb der ersten Ansicht des immersiven Videoinhalts präsentiert wurde; in Reaktion auf Bestimmen, dass das erste interaktive Element präsentiert wurde, Identifizieren eines Inhaltserstellers, der dem ersten interaktiven Element zugeordnet ist; und Zuweisen von Zuschreibungsinformationen, die die Präsentation des ersten interaktiven Elements gegenüber dem Inhaltsersteller, der dem ersten interaktiven Element zugeordnet ist, angeben.
  • Gemäß einigen Ausführungsformen des offenbarten Gegenstandes werden nicht flüchtige computerlesbare Medien bereitgestellt, die computerausführbare Anweisungen enthalten, die, wenn sie durch einen Prozessor ausgeführt werden, den Prozessor veranlassen, ein Verfahren auszuführen, um interaktive Elemente innerhalb von Videoinhalt zu präsentieren. Das Verfahren umfasst: Veranlassen, dass immersiver Videoinhalt auf einem Benutzergerät präsentiert wird, wobei der immersive Videoinhalt mindestens eine erste Ansicht und eine zweite Ansicht beinhaltet, und wobei die erste Ansicht ein erstes interaktives Element beinhaltet, das innerhalb der ersten Ansicht präsentiert werden soll, und die zweite Ansicht ein zweites interaktives Element beinhaltet, das innerhalb der zweiten Ansicht präsentiert werden soll; Empfangen einer Angabe, dass die erste Ansicht des immersiven Videoinhalts präsentiert werden soll; in Reaktion auf Empfangen der Angabe Veranlassen, dass die erste Ansicht des immersiven Videoinhalts auf dem Benutzergerät präsentiert wird; Bestimmen, dass das erste interaktive Element innerhalb der ersten Ansicht des immersiven Videoinhalts präsentiert wurde; in Reaktion auf Bestimmen, dass das erste interaktive Element präsentiert wurde, Identifizieren eines Inhaltserstellers, der dem ersten interaktiven Element zugeordnet ist; und Zuweisen von Zuschreibungsinformationen die die Präsentation des ersten interaktiven Elements angeben, zu dem Inhaltsersteller, der dem ersten interaktiven Element zugeordnet ist.
  • Gemäß einigen Ausführungsformen des offenbarten Gegenstandes wird ein System zum Präsentieren interaktiver Elemente innerhalb von Videoinhalt bereitgestellt, wobei das System umfasst: Mittel zum Veranlassen, dass immersiver Videoinhalt auf einem Benutzergerät präsentiert wird, wobei der immersive Videoinhalt mindestens eine erste Ansicht und eine zweite Ansicht beinhaltet, und wobei die erste Ansicht ein erstes interaktives Element beinhaltet, das innerhalb der ersten Ansicht präsentiert werden soll, und die zweite Ansicht ein zweites interaktives Element beinhaltet, das innerhalb der zweiten Ansicht präsentiert werden soll; Mittel zum Empfangen einer Angabe, dass die erste Ansicht des immersiven Videoinhalts präsentiert werden soll; in Reaktion auf Empfangen der Angabe, Mittel zum Veranlassen, dass die erste Ansicht des immersiven Videoinhalts auf dem Benutzergerät präsentiert wird; Mittel zum Bestimmen, dass das erste interaktive Element innerhalb der ersten Ansicht des immersiven Videoinhalts präsentiert wurde; in Reaktion auf Bestimmen, dass das erste interaktive Element präsentiert wurde, Mittel zum Identifizieren eines Inhaltserstellers, der dem ersten interaktiven Element zugeordnet ist; und Mittel zum Zuweisen von Zuschreibungsinformationen, die die Präsentation des ersten interaktiven Elements angeben, zu dem Inhaltsersteller, der dem ersten interaktiven Element zugeordnet ist.
  • In einigen Ausführungsformen umfasst das Mittel zum Bestimmen, dass das erste interaktive Element präsentiert wurde, des Weiteren: Mittel zum Identifizieren einer dem ersten interaktiven Element zugeordneten räumlichen Position; und Mittel zum Bestimmen, ob die erste Ansicht des immersiven Videoinhalts die dem ersten interaktiven Element zugeordnete räumliche Position beinhaltet.
  • In einigen Ausführungsformen ist das erste interaktive Element auswählbar.
  • In einigen Ausführungsformen umfasst das System des Weiteren: Mittel zum Empfangen einer Angabe, dass das erste interaktive Element ausgewählt wurde; und Mittel zum Veranlassen, dass eine dem ersten interaktiven Element zugeordnete Aktion auf dem Benutzergerät ausgeführt wird.
  • In einigen Ausführungsformen veranlasst die Aktion, dass sich eine Webseite öffnet.
  • In einigen Ausführungsformen veranlasst die Aktion eine Benutzeroberfläche zum Präsentieren des immersiven Videoinhalts zur gemeinsamen Nutzung.
  • In einigen Ausführungsformen geben die Zuschreibungsinformationen außerdem an, dass das interaktive Element ausgewählt wurde.
  • Figurenliste
  • Verschiedene Aufgaben, Merkmale und Vorteile des offenbarten Gegenstandes können vollständiger unter Bezugnahme auf die folgende ausführliche Beschreibung des offenbarten Gegenstandes erfasst werden, wenn sie in Zusammenhang mit den folgenden Zeichnungen betrachtet werden, in denen gleiche Bezugszeichen gleiche Elemente identifizieren.
    • 1A und 1B stellen Beispiele von Benutzeroberflächen zum Präsentieren von interaktiven Elementen innerhalb von Videoinhalt gemäß einigen Ausführungsformen des offenbarten Gegenstandes dar.
    • 2 zeigt ein schematisches Diagramm eines veranschaulichenden Systems, das zur Implementierung von hierin beschriebenen Mechanismen zum Präsentieren von interaktiven Elementen innerhalb von Videoinhalt gemäß einigen Ausführungsformen des offenbarten Gegenstandes geeignet ist.
    • 3 stellt ein ausführliches Beispiel einer Hardware dar, die in einem Server und/oder einem Benutzergerät von 2 gemäß einigen Ausführungsformen des offenbarten Gegenstandes verwendet werden kann.
    • 4 stellt ein Beispiel eines Verfahrens zum Präsentieren von interaktiven Elementen innerhalb von Videoinhalt gemäß einigen Ausführungsformen des offenbarten Gegenstandes dar.
    • 5 stellt ein Beispiel eines Verfahrens zum Präsentieren von interaktiven Elementen innerhalb von Videoinhalt gemäß einigen Ausführungsformen des offenbarten Gegenstandes dar.
  • Ausführliche Beschreibung
  • Gemäß verschiedenen Ausführungsformen werden Mechanismen (die Verfahren, Systeme und Medien beinhalten können), zum Präsentieren von interaktiven Elementen innerhalb von Videoinhalt bereitgestellt.
  • In einigen Ausführungsformen können die hierin beschriebenen Mechanismen veranlassen, dass Videoinhalt auf einem Benutzergerät präsentiert wird. In einigen Ausführungsformen kann der Videoinhalt immersiven Medieninhalt beinhalten, der mit einer geeigneten Anzahl und Art von Kameras aufgezeichnet werden kann. Beispielsweise können in einigen Ausführungsformen Multiplex-Ansichten in verschiedene Richtungen gleichzeitig von einem oder mehreren Videoaufnahmegeräten aufgezeichnet werden, und der resultierende Videoinhalt kann zusammengefügt werden, um einem Benutzer die Möglichkeit zu geben, einen Blickwinkel auf präsentierten Videoinhalt zu ändern. In einigen Ausführungsformen können die hierin beschriebenen Mechanismen veranlassen, dass ein oder mehrere interaktive Elemente innerhalb des Videoinhalts präsentiert werden. In einigen Ausführungsformen können die interaktiven Elemente beispielsweise Text, Bilder, Symbole, Animationen, Hyperlinks und/oder beliebigen anderen geeigneten Inhalt beinhalten. Die interaktiven Elemente können an einer bestimmten räumlichen Position innerhalb des Videoinhalts (z. B. eine bestimmte Winkelposition, bestimmte rechteckige Koordinaten und/oder jede andere geeignete räumliche Position) und/oder innerhalb eines bestimmten Zeitbereichs (z. B. zwischen zwei Zeitpunkten des Videoinhalts, zwischen zwei Framenummern des Videoinhalts und/oder einem beliebigen anderen geeigneten Zeitbereich) präsentiert werden. In einigen Ausführungsformen können die interaktiven Elemente präsentiert werden, wenn ein Benutzer den Videoinhalt manipuliert hat, um einen anderen Blickwinkel darzustellen. Wenn ein Benutzer beispielsweise angibt, dass er in eine bestimmte Richtung (z. B. nach links, rechts, oben, unten und/oder in eine andere geeignete Richtung) schwenken möchte, können die Mechanismen veranlassen, dass die interaktiven Elemente sichtbar werden, wenn ein Blickwinkel auf den Videoinhalt einer räumlichen Position des/der interaktiven Elements/Elemente entspricht.
  • In einigen Ausführungsformen können die hier beschriebenen Mechanismen die Präsentation des oder der interaktiven Elemente einem Inhaltsersteller zuordnen, der dem Videoinhalt und/oder einem oder mehreren der interaktiven Elemente zugeordnet ist. In Reaktion auf Bestimmen, dass das/die interaktive(n) Element(e) sichtbar geworden sind und/oder präsentiert wurden, können die Mechanismen beispielsweise eine Angabe in Verbindung mit einer Kennung des Inhaltserstellers speichern. In einigen Ausführungsformen kann die Zuschreibung der Präsentation des/der interaktiven Elements/Elemente für jeden geeigneten Zweck verwendet werden. Beispielsweise kann die Zuschreibung verwendet werden, um einen Ersteller des/der interaktiven Elements/Elemente zu kontaktieren, um zu bestimmen, dass die interaktiven Elemente präsentiert wurden.
  • Indem wir uns 1A und 1B zuwenden, werden Beispiele 100 und 150 von Benutzeroberflächen zum Präsentieren von interaktiven Elementen gemäß einigen Ausführungsformen des offenbarten Gegenstandes dargestellt. In einigen Ausführungsformen können die Benutzeroberflächen 100 und 150 zwei verschiedene Ansichten von Videoinhalt beinhalten. Beispielsweise kann, wie in 1A und 1B dargestellt, die Benutzeroberfläche 100 eine erste Ansicht, und die Benutzeroberfläche 150 eine zweite Ansicht präsentieren, z. B. eine Ansicht, die aus Schwenken in eine beliebige Richtung (z. B. links, rechts, oben, unten und/oder in eine andere geeignete Richtung) resultiert oder die Ansicht in einer anderen geeigneten Weise ändert. Wir weisen darauf hin, dass Videoinhalt in einigen Ausführungsformen immersiver Medieninhalt sein kann, der von einer oder mehreren geeigneten Videokameras aufgezeichnet wurde, und der in den Benutzeroberflächen 100 und 150 präsentierte Videoinhalt verschiedenen Perspektiven des aufgezeichneten immersiven Medieninhalts entsprechen kann.
  • Wie in 1A dargestellt, kann Benutzeroberfläche 100 Szeneninhalt 102 beinhalten. In einigen Ausführungsformen kann Szeneninhalt 102 einen geeigneten Videoinhalt beinhalten, der von jeder geeigneten Kamera(s) aufgenommen wurde, die an allen geeigneten Positionen positioniert sind. In einigen Ausführungsformen kann der Szeneninhalt 102 innerhalb eines Videoplayer-Fensters (nicht dargestellt) präsentiert werden, das alle geeigneten Bedienelemente (z. B. Pause, Schnellvorlauf, Rücklauf, Lautstärkeregler und/oder andere geeignete Steuerelemente) zum Steuern der Präsentation des Videoinhalts beinhalten kann.
  • In einigen Ausführungsformen kann die Benutzeroberfläche 100 Anweisungen 104 beinhalten. Beispielsweise können, wie in 1A dargestellt, die Anweisungen 104 Richtungen zum Ändern einer Ansicht des immersiven Videoinhalts in der Benutzeroberfläche 100 beinhalten. Wir weisen darauf hin, dass die Position von Anweisungen 104 innerhalb der Benutzeroberfläche 100 als Beispiel dargestellt wird und Anweisungen 104 an einem geeigneten Standort präsentiert werden können. In einigen Ausführungsformen können Anweisungen 104 ausgelassen werden.
  • In einigen Ausführungsformen kann eine Ansicht, die dem in der Benutzeroberfläche 100 dargestellten Videoinhalt zugeordnet ist, über eine Benutzereingabe geändert werden, die von einem Benutzergerät empfangen wird, das Benutzeroberfläche 100 präsentiert. Beispielsweise kann die Benutzereingabe in einigen Ausführungsformen angeben, dass die Ansicht in eine bestimmte Richtung (z. B. nach links, rechts, oben, unten und/oder in eine andere geeignete Richtung) verschoben, vergrößert oder verkleinert und/oder in einer anderen geeigneten Weise geändert werden soll. Eine geeignete Art von Benutzereingabe kann verwendet werden, um eine neue Richtung anzugeben, wie z. B. die Eingabe über eine Tastatur (z. B. mit bestimmten Tasten, die die Richtung angeben, in die die Ansicht geändert werden soll), die Eingabe über einen Touchscreen (z. B. durch Ziehen von Videoinhalten auf dem Bildschirm und/oder auf andere geeignete Weise), die Eingabe über eine Maus (z. B. durch Auswählen und Ziehen von auf dem Bildschirm präsentiertem Videoinhalt und/oder auf andere geeignete Weise), die Eingabe von einem Beschleunigungssensor (z. B. wenn die Bewegung des gesamten Benutzergeräts eine Richtung angibt, in die die Ansicht geändert werden soll) und/oder eine andere geeignete Benutzereingabe. In einigen Ausführungsformen kann die Ansicht geändert werden, indem Videoinhalt, der von einer anderen Kamera aufgenommen wurde, präsentiert wird. Zusätzlich oder alternativ kann in einigen Ausführungsformen die Ansicht geändert werden, indem ein Abschnitt des Videoinhalts präsentiert wird, der von derselben Videokamera aufgenommen wurde, jedoch einer räumlichen Position entspricht, die nicht in Szeneninhalt 102 präsentiert wird.
  • Wie in Benutzeroberfläche 150 von 1B dargestellt, kann bei Änderung des Sichtfeldes des Videoinhalts Szeneninhalt 152 entsprechend verschoben werden. Zusätzlich kann Benutzeroberfläche 150 in einigen Ausführungsformen ein interaktives Element 154 beinhalten. Das interaktive Element 154 kann alle geeigneten interaktiven Inhalte, wie z. B. Hyperlinks, Bilder, Symbole, Grafiken, Animationen, zusätzlichen Videoinhalt, Texte und/oder andere geeignete Inhalte beinhalten. Beispielsweise kann, wie unten im Zusammenhang mit 5 beschrieben, die Auswahl des interaktiven Elements 154 in einigen Ausführungsformen das Ausführen einer Aktion, z. B. Navigation zu einer bestimmten Webseite, die gemeinsame Nutzung von Videoinhalten (z. B. auf einer sozialen Netzwerkseite) und/oder andere geeignete Aktionen veranlassen. Darüber hinaus kann, wie unten in Verbindung mit 4 und 5 beschrieben, eine Angabe, dass das interaktive Element 154 präsentiert wurde, in Verbindung mit einer Kennung des Erstellers von Szeneninhalten 102 und 152 gespeichert werden.
  • Indem wir uns 2 zuwenden, wird ein Beispiel 200 von Hardware, die gemäß einigen Ausführungsformen des offenbarten Gegenstandes zum Präsentieren von interaktiven Videoinhalten verwendet werden kann, dargestellt. Wie veranschaulicht, kann Hardware 200 einen oder mehrere Server, wie z. B. einen Datenserver 202, ein Kommunikationsnetzwerk 204 und/oder ein oder mehrere Benutzergeräte 206, wie z. B. Benutzergeräte 208 und 210, beinhalten.
  • In einigen Ausführungsformen können Server 202 jedwede geeignete Server zum Speichern von immersivem Videoinhalt, Speichern von Angaben zu interaktiven Elementen, die innerhalb des Videoinhalts präsentiert werden sollen, und/oder anderen geeigneten Informationen sein. In einigen Ausführungsformen können Server 202 die gespeicherten Informationen verwenden, um Videoinhalt mit interaktiven Elementen auf Benutzergerät 206 zu präsentieren. Zusätzlich oder alternativ können Server 202 in einigen Ausführungsformen bestimmen, dass ein interaktives Element auf Benutzergerät 206 präsentiert wurde, und die Präsentation des interaktiven Elements einem Ersteller des Videoinhalts und/oder des interaktiven Elements zuschreiben. In einigen Ausführungsformen kann/können Server 202 weggelassen werden.
  • Das Kommunikationsnetzwerk 204 kann in einigen Ausführungsformen eine geeignete Kombination aus einem oder mehreren drahtgebundenen und/oder drahtlosen Netzwerken sein. Das Kommunikationsnetzwerk 206 kann beispielsweise eines oder mehrere von Internet, einem Intranet, einem Weitverkehrsnetzwerk (WAN), einem lokalen Netzwerk (LAN), einem drahtlosen Netzwerk, einem digitalen Teilnehmeranschlussleitungs- (DSL) - Netzwerk, einem Framerelay-Netzwerk, einem asynchronen Transfermodus- (ATM) - Netzwerk, einem virtuellen privaten Netzwerk (VPN) und/oder einem anderen geeigneten Kommunikationsnetzwerk beinhalten. Die Benutzergeräte 206 können durch eine oder mehrere Kommunikationsverbindungen 212 mit dem Kommunikationsnetzwerk 204 verbunden sein, das über eine oder mehrere Kommunikationsverbindungen (z. B. Kommunikationsverbindung 214) mit Server(n) 202 verbunden sein kann. Kommunikationsverbindungen 212 und/oder 214 können beliebige Kommunikationsverbindungen sein, die geeignet sind, Daten unter den Benutzergeräten 206 und Server(n) 202 zu übermitteln, wie beispielsweise Netzwerkverbindungen, Wählverbindungen, drahtlose Verbindungen, fest verdrahtete Verbindungen, beliebige andere geeignete Kommunikationsverbindungen oder eine geeignete Kombination aus diesen Verbindungen.
  • In einigen Ausführungsformen können Benutzergeräte 206 ein oder mehrere Computergeräte, die zum Anzeigen von Videoinhalten, Ändern einer Ansicht von Videoinhalt, Anzeigen interaktiver Elemente, Auswählen interaktiver Elemente geeignet sind, und/oder andere geeignete Funktionen beinhalten. In einigen Ausführungsformen können Benutzergeräte 206 als ein Mobilgerät, wie z. B. ein Smartphone, Mobiltelefon, ein Tablet-Computer, ein Laptop-Computer, ein Fahrzeug- (z. B. ein Auto, ein Boot, ein Flugzeug oder ein anderes geeignetes Fahrzeug) -Entertainmentsystem, ein tragbarer Media-Player und/oder ein anderes geeignetes Mobilgerät implementiert sein. Als ein weiteres Beispiel können in einigen Ausführungsformen Benutzergeräte 206 als ein nicht mobiles Gerät, wie z. B. ein Desktopcomputer, eine Set-Top-Box, ein Fernseher, ein Streaming-Media-Player, eine Spielekonsole und/oder ein anderes geeignetes nicht mobiles Gerät implementiert sein.
  • Obwohl Server 202 als ein einzelnes Gerät veranschaulicht ist, können die Funktionen, die von Server 202 ausgeführt werden, in einigen Ausführungsformen von einer geeigneten Anzahl an Geräten ausgeführt werden. In einigen Ausführungsformen können beispielsweise die Funktionen, die von Server 202 ausgeführt werden, auf einem einzelnen Server ausgeführt werden. Als weiteres Beispiel können in einigen Ausführungsformen mehrere Geräte verwendet werden, um die Funktionen zu implementieren, die von Server 202 ausgeführt werden.
  • Obwohl zwei Benutzergeräte 208 und 210 in 2 dargestellt sind, kann in einigen Ausführungsformen eine geeignete Anzahl an Benutzergeräten und/oder eine geeignete Art von Benutzergeräten verwendet werden.
  • Server 202 und Benutzergeräte 206 können in einigen Ausführungsformen unter Verwendung einer geeigneten Hardware implementiert sein. In einigen Ausführungsformen können Geräte 202 und 206 unter Verwendung eines geeigneten Universal- oder Spezialcomputers implementiert sein. Beispielsweise kann ein Server unter Verwendung eines Spezialcomputers implementiert sein. Ein beliebiger dieser Universal- oder Spezialcomputer kann eine geeignete Hardware beinhalten. Wie in der exemplarischen Hardware 300 von 3 veranschaulicht, kann diese Hardware beispielsweise Hardware-Prozessor 302, Speicher und/oder Datenspeicher 304, eine Eingabegerätesteuerung 306, ein Eingabegerät 308, Anzeige-/ Audiotreiber 310, Anzeige- und Audioausgangsschaltungen 312, Kommunikationsschnittstelle(n) 314, eine Antenne 316 und einen Bus 318 beinhalten.
  • Der Hardware-Prozessor 302 kann einen geeigneten Hardware-Prozessor, wie z. B. einen Mikroprozessor, einen Mikrocontroller, Digitalsignalprozessor(en), dedizierte Logik und/oder beliebige andere geeignete Schaltungen beinhalten, um in einigen Ausführungsformen die Funktion eines Universal- oder Spezialcomputers zu steuern. In einigen Ausführungsformen kann der Hardware-Prozessor 302 durch ein Serverprogramm gesteuert werden, das in Speicher und/oder Datenspeicher 304 eines Servers (wie z. B. Server 202) gespeichert ist. Beispielsweise kann das Serverprogramm veranlassen, dass Hardware-Prozessor 302 Videoinhalt an Benutzergerät 206 überträgt, dass ein interaktives Element auf Benutzergerät 206 präsentiert wird, dass die Präsentation des interaktiven Elements einem Inhaltsersteller zugewiesen wird und/oder dass andere geeignete Aktionen ausgeführt werden. In einigen Ausführungsformen kann Hardware-Prozessor 302 durch ein Computerprogramm gesteuert werden, das in Speicher und/oder Datenspeicher 304 von Benutzergerät 206 gespeichert ist. Beispielsweise kann das Computerprogramm veranlassen, dass Hardware-Prozessor 302 Videoinhalte präsentiert, eine Ansicht des Videoinhalts ändert, interaktive Elemente präsentiert und/oder andere geeignete Aktionen ausführt.
  • Speicher und/oder Datenspeicher 304 können in einigen Ausführungsformen geeignete Speicher und/oder Datenspeicher zum Speichern von Programmen, Daten, Medieninhalt und/oder beliebige andere geeignete Informationen sein. Speicher und/oder Datenspeicher 304 können Direktzugriffsspeicher, Nur-Lese-Speicher, Flash-Speicher, Festplattenspeicher, optische Datenträger und/oder einen anderen geeigneten Speicher beinhalten.
  • Eingabegerätesteuerung 306 kann eine geeignete Schaltung sein, um in einigen Ausführungsformen Eingaben von einem oder mehreren Eingabegeräten 308 zu steuern und zu empfangen. Eingabegerätesteuerung 306 kann beispielsweise eine Schaltung sein, um Eingaben von einem Touchscreen, von einer Tastatur, von einer Maus, von einer oder mehreren Tasten, von einer Spracherkennungsschaltung, von einem Mikrofon, von einer Kamera, von einem optischen Sensor, von einem Beschleunigungssensor, von einem Temperatursensor, von einem Nahfeldsensor und/oder einer anderen Art von Eingabegerät zu empfangen.
  • Die Anzeige-/Audiotreiber 310 können in einigen Ausführungsformen beliebige geeignete Schaltungen sein, um eine Ausgabe an eine oder mehrere Anzeige- /Audioausgabegeräte 312 zu steuern und anzusteuern. Die Anzeige-/Audiotreiber 310 können beispielsweise Schaltungen sein, um einen Touchscreen, einen Flachbildschirm, eine Kathodenstrahlröhrenanzeige, einen Projektor, einen oder mehrere Lautsprecher und/oder beliebige andere geeignete Anzeige- und/oder Präsentationsgeräte anzusteuern.
  • Die Kommunikationsschnittstelle(n) 314 können beliebige geeignete Schaltungen sein, um sich mit einem oder mehreren Kommunikationsnetzen, wie z. B. Netzwerk 204, wie in 2 dargestellt, zu verbinden. Beispielsweise können die Schnittstelle(n) 314 Netzwerkschnittstellenkartenschaltungen, drahtlose Kommunikationsschaltungen und/oder eine beliebige andere Arten von geeigneten Kommunikationsnetzwerkschaltungen beinhalten.
  • Die Antenne 316 kann in einigen Ausführungsformen eine oder mehrere beliebige geeignete Antennen sein, um mit einem Kommunikationsnetzwerk (z. B. Kommunikationsnetzwerk 204) drahtlos zu kommunizieren. In einigen Ausführungsformen kann die Antenne 316 ausgelassen werden.
  • Der Bus 318 kann ein geeigneter Mechanismus sein, um in einigen Ausführungsformen zwischen zwei oder mehr Komponenten 302, 304, 306, 310 und 314 zu kommunizieren.
  • Es können beliebige andere geeignete Komponenten in Hardware 300 gemäß einigen Ausführungsformen enthalten sein.
  • Wie unter Bezugnahme auf 4 ersichtlich, wird ein Beispiel 400 eines Informationsflussdiagramms zur Präsentation interaktiver Elemente innerhalb von immersivem Videoinhalt entsprechend einiger Ausführungsformen des offenbarten Gegenstandes dargestellt. In einigen Ausführungsformen können Blöcke des Informationsflussdiagramms 400 von einem Gerät implementiert werden, das einem Inhaltsersteller, Server 202 und/oder Benutzergerät 206 zugeordnet ist.
  • Bei 402 kann der Inhaltsersteller Videoinhalt mit Angaben zu interaktiven Elementen übertragen, die in dem Videoinhalt präsentiert werden sollen. Wie zuvor beschrieben, kann der Videoinhalt in einigen Ausführungsformen immersiver Medieninhalt sein, der von einer beliebigen Anzahl von Kameras an einem oder mehreren geeigneten Standort(en) aufgezeichnet wird. In einigen dieser Ausführungsformen kann der immersive Medieninhalt in geeigneter Weise verarbeitet und/oder zusammengefügt werden. Beispielsweise kann der immersive Medieninhalt in einigen Ausführungsformen Metadaten beinhalten, die räumlich überlappende Teile des Videoinhalts angeben können, wie unterschiedliche Benutzereingaben dazu führen sollen, dass sich der präsentierte Abschnitt des Videoinhalts ändert, und/oder beliebige andere geeignete Informationen. Es gilt zu beachten, dass es sich bei dem Videoinhalt in einigen Ausführungsformen um eine geeignete Art von Videoinhalt handeln kann, wie z. B. Werbung, Fernsehprogramme, Filme, Live-Streaming-Videoinhalt und/oder andere geeignete Arten von Videoinhalt.
  • In einigen Ausführungsformen können die Angaben zu interaktiven Elementen beliebige geeignete Informationen beinhalten. Beispielsweise können die Informationen in einigen Ausführungsformen Bilder, Symbole, Animationen, Texte und/oder anderen geeigneten Inhalt beinhalten, der in das interaktive Element einbezogen werden soll. Als weiteres Beispiel können die Informationen in einigen Ausführungsformen einen Zeitpunkt innerhalb des Videoinhalts beinhalten (z. B. eine seit Beginn des Videoinhalts verstrichene Zeit, eine Framenummer und/oder einen anderen geeigneten Zeitindikator), zu dem das interaktive Element präsentiert werden soll. Als weiteres Beispiel können die Informationen in einigen Ausführungsformen eine räumliche Position beinhalten, an der das interaktive Element präsentiert werden soll. Als spezielleres Beispiel kann die räumliche Position in einigen Ausführungsformen eine (x, y) Koordinate, eine Pixelanzahl und/oder einen anderen geeigneten Indikator für die räumliche Position beinhalten. Als weiteres Beispiel kann in einigen Ausführungsformen die räumliche Position eine Winkelposition beinhalten. Als konkretes Beispiel kann die Winkelposition ein horizontales und/oder vertikales Sichtfeld des Videoinhalts angeben.
  • Bei 404 kann Server 202 den Videoinhalt und Angaben zu interaktiven Elementen empfangen. Server 202 kann den Videoinhalt und die Angaben zu interaktiven Elementen an einem geeigneten Standort, z. B. in Speicher 304 auf Server 202, speichern.
  • Bei 406 kann Server 406 Anweisungen zur Präsentation des Videoinhalts und der interaktiven Elemente an Benutzergerät 206 übertragen. In einigen Ausführungsformen können die Anweisungen beispielsweise räumliche Positionen der interaktiven Elemente innerhalb des Videoinhalts, ein oder mehrere Male, an denen die interaktiven Elemente präsentiert werden sollen, und/oder andere Informationen im Zusammenhang mit der Präsentation der interaktiven Elemente angeben. Als weiteres Beispiel können die Anweisungen in einigen Ausführungsformen Eingaben von Benutzergerät 206 angeben, die zum Steuern einer Ansicht des Videoinhalts verwendet werden sollen. Als spezielleres Beispiel kann in einigen Ausführungsformen angegeben werden, dass bestimmte Tastenanschläge, bestimmte Gesten, bestimmte Bewegungen von Benutzergerät 206 und/oder andere geeignete Eingaben veranlassen sollen, eine Ansicht des aktuell präsentierten Videoinhalts zu ändern (z. B. in eine bestimmte Richtung zu schwenken und/oder auf eine andere geeignete Weise zu ändern), wie nachfolgend in Verbindung mit Blöcken 410 und 412 beschrieben.
  • Bei 408 kann Benutzergerät 206 veranlassen, dass ein Abschnitt des Videoinhalts auf Benutzergerät 206 präsentiert wird. Beispielsweise kann Benutzergerät 206 in Fällen, in denen es sich bei dem Videoinhalt um immersiven Medieninhalt handelt, veranlassen, dass ein bestimmter Abschnitt des aufgezeichneten Sichtfeldes präsentiert wird. Der Videoinhalt kann auf eine geeignete Art präsentiert werden. Beispielsweise kann der Videoinhalt in einigen Ausführungsformen in einem Videowiedergabefenster dargestellt werden, das Benutzereingaben zum Steuern der Präsentation des Videoinhalts, wie z. B. eine Pauseneingabe, einen Lautstärkeregler, Schnellvorlauf- und Rücklaufregler und/oder andere geeignete Arten von Reglern, beinhaltet. Als weiteres Beispiel kann in einigen Ausführungsformen der Videoinhalt mit einer geeigneten Art von Benutzeranweisungen präsentiert werden. Als spezielleres Beispiel, wie in Verbindung mit 1A oben dargestellt und beschrieben, kann der Videoinhalt mit Anweisungen zum Schwenken des Videoinhalts in eine bestimmte Richtung präsentiert werden. Als weiteres Beispiel kann der Videoinhalt mit Angaben zu bestimmten Benutzereingaben präsentiert werden, die ein Sichtfeld manipulieren (z. B. dass Pfeiltasten die Ansicht in eine bestimmte Richtung verschieben, dass sich durch Bewegen des Benutzergeräts 206 das Sichtfeld ändert, dass die Auswahl und/oder das Ziehen des Videoinhalts mit der Maus und/oder auf einem Touchscreen das Sichtfeld ändert, und/oder andere geeignete Angaben zu Benutzereingaben).
  • Bei 410 kann Benutzergerät 206 eine Eingabe empfangen, die angibt, dass eine Ansicht des Videoinhalts geändert werden soll. In einigen Ausführungsformen können Eingaben in beliebiger Weise empfangen werden. In einigen Ausführungsformen kann die Eingabe beispielsweise über eine Tastatur und/oder ein Tastenfeld erfolgen, die Benutzergerät 206 zugeordnet sind. In einigen Ausführungsformen können bestimmte Tasten (z. B. Pfeiltasten, bestimmte Zeichen und/oder andere geeignete Tasten) verschiedenen Änderungen in der Ansicht entsprechen, z. B. Schwenken in eine bestimmte Richtung (z. B. links, rechts, oben, unten und/oder in eine andere geeignete Richtung). Als weiteres Beispiel kann in einigen Ausführungsformen die Eingabe von einem Touchscreen, der Benutzergerät 206 zugeordnet ist, empfangen werden. Als spezielleres Beispiel kann in einigen Ausführungsformen eine Wischbewegung über den Touchscreen angeben, dass die Ansicht geändert werden soll, um einen Abschnitt des Videoinhalts darzustellen, der einer durch die Wischbewegung angegebenen Richtung entspricht. Als weiteres Beispiel kann in einigen Ausführungsformen die Eingabe von einem Beschleunigungssensor, der Benutzergerät 206 zugeordnet ist, empfangen werden. Als spezielleres Beispiel kann der Beschleunigungssensor in einigen Ausführungsformen angeben, dass Benutzergerät 206 in eine bestimmte Richtung und/oder mit einer bestimmten Geschwindigkeit bewegt wurde, und bestimmen, dass die Ansicht des Videos in eine Richtung geändert werden soll, die der Richtung und Geschwindigkeit der Bewegung von Benutzergerät 206 entspricht.
  • Bei 412 kann Benutzergerät 206 veranlassen, dass ein zweiter Abschnitt des Videoinhalts basierend auf der empfangenen Eingabe präsentiert wird. Falls die empfangene Eingabe beispielsweise angibt, dass eine Ansicht des Videoinhalts geändert werden soll (z. B. Schwenken in eine bestimmte Richtung, Neigen, Zoomen, Fokussieren auf einen bestimmten Standort und/oder andere Änderungen), kann Benutzergerät 206 die Ansicht des Videoinhalts ändern. Falls die empfangene Eingabe angibt, dass der Benutzer nach links schwenken möchte (z. B. wie zuvor in Verbindung mit 1A und 1B dargestellt und beschrieben), kann der zweite Abschnitt des Videoinhalts, der präsentiert wird, Abschnitte des Videoinhalts beinhalten, die sich links von dem in Block 408 präsentierten Videoinhalt befinden. Es gilt zu beachten, dass in einigen Ausführungsformen der zweite Abschnitt des Videoinhalts von einer anderen Kamera aufgenommen werden kann als der erste Abschnitt des Videoinhalts.
  • Benutzergerät 206 kann eine Angabe empfangen, dass ein interaktives Element innerhalb des Videoinhalts von Benutzergerät 206 präsentiert wurde. Diese Angabe kann auf beliebigen geeigneten Informationen basieren. Beispielsweise kann Benutzergerät 206 in einigen Ausführungsformen bestimmen, dass das interaktive Element basierend auf Informationen präsentiert wurde, die eine räumliche Position angeben, an der das interaktive Element präsentiert werden soll, sowie auf Informationen, die die räumlichen Positionen des Videoinhalts angeben, wie in Verbindung mit Block 508 von 5 dargestellt und im Folgenden beschrieben.
  • Bei 416 kann Server 202 die Präsentation des interaktiven Elements dem Inhaltsersteller zuschreiben, um zu bestimmen, dass das interaktive Element innerhalb des Videoinhalts präsentiert wurde. In einigen Ausführungsformen kann Benutzergerät 206 eine Angabe an Server 202 übertragen, dass das interaktive Element präsentiert wurde. Zusätzlich oder alternativ kann Benutzergerät 206 in einigen Ausführungsformen eine Angabe übertragen, dass ein interaktives Element aus einer Gruppe von interaktiven Elementen, die in dem immersiven Videoinhalt enthalten sind, präsentiert wurde, woraufhin Server 202 das präsentierte interaktive Element identifizieren kann.
  • Die Zuschreibung kann auf eine geeignete Art gespeichert werden. Beispielsweise kann Server 202 in einigen Ausführungsformen eine Angabe speichern, dass das interaktive Element präsentiert wurde. Als spezielleres Beispiel kann Server 202 in einigen Ausführungsformen den mit dem dargestellten interaktiven Element verknüpften Inhaltsersteller identifizieren (z. B. durch Abfragen einer Datenbank und/oder auf andere geeignete Weise), und kann eine dem identifizierten Inhaltsersteller zugeordnete Angabe speichern. In einigen Ausführungsformen kann Server 202 die Angabe an einem geeigneten Standort speichern, z. B. in einer Datenbank, die in Speicher 304 von Server 202 gespeichert ist. Wir weisen darauf hin, dass in einigen Ausführungsformen der Ersteller des Videoinhalts und der Ersteller des interaktiven Elements unterschiedlich sein können. In einigen dieser Ausführungsformen kann die Präsentation des interaktiven Elements einem oder beiden Erstellern zugeschrieben werden. Die Zuschreibung kann für einen geeigneten Zweck verwendet werden. Beispielsweise kann das interaktive Element in einigen Ausführungsformen als Werbung behandelt werden, und die Zuschreibung kann verwendet werden, um dem Inhaltsersteller einen Eindruck in Rechnung zu stellen, wenn bestimmt wird, dass das interaktive Element auf Benutzergerät 206 präsentiert wurde.
  • Wie unter Bezugnahme auf 5 ersichtlich, wird ein Beispiel 500 eines Verfahrens zum Präsentieren von interaktiven Elementen innerhalb von Videoinhalt gemäß einigen Ausführungsformen des offenbarten Gegenstandes dargestellt. In einigen Ausführungsformen können Blöcke von Prozess 500 auf einem Benutzergerät 206 implementiert werden, das Videoinhalt präsentiert.
  • Prozess 500 kann veranlassen, dass Videoinhalt auf einem Benutzergerät bei 502 dargestellt wird. Wie zuvor in Verbindung mit 1A, 1B und 4 beschrieben, kann der Videoinhalt immersiven Medieninhalt beinhalten. Beispielsweise kann in einigen Ausführungsformen der Videoinhalt von mehreren Kameras an einem anderen Standort aufgezeichnet, und in einer geeigneten Weise zusammengefügt werden. Zusätzlich oder alternativ kann der Videoinhalt in einigen Ausführungsformen von einer einzigen Kamera mit großem Sichtfeld aufgezeichnet werden. Wie zuvor in Verbindung mit 1A beschrieben, können zusätzlich Anweisungen zur Interaktion mit dem Videoinhalt präsentiert werden (z. B. überlagert auf dem Videoinhalt, an anderer Stelle auf einer Seite, die einen Videoplayer enthält, und/oder in geeigneter Weise). Beispielsweise können, wie in 1A dargestellt, die Anweisungen einen Benutzer anweisen, eine Ansicht des Videoinhalts auf eine bestimmte Weise zu ändern, z. B. in eine bestimmte Richtung zu schwenken, zu vergrößern oder zu verkleinern, und/oder eine andere geeignete Änderung vorzunehmen. Als weiteres Beispiel können die Anweisungen bestimmte Tasten, Bewegungen des Benutzergeräts, Bewegungen auf einem Touchscreen, Bewegungen mit der Maus und/oder andere geeignete Eingaben angeben, die eine Änderung der Ansicht des Videoinhalts veranlassen können.
  • Prozess 500 kann eine Angabe empfangen, dass eine dem Videoinhalt zugeordnete Ansicht bei 504 geändert werden soll. Wie zuvor in Verbindung mit Block 410 von 4 beschrieben, kann die Angabe eine Eingabe sein, die von einem Benutzergerät empfangen wird, das den Videoinhalt präsentiert, wie z. B. ein bestimmter Tastendruck, eine Eingabe auf einem Touchscreen, eine Bewegung des Benutzergeräts und/oder eine andere geeignete Art von Eingabe. In einigen Ausführungsformen kann die empfangene Eingabe eine Richtung, in der die Ansicht geändert werden soll, wie z. B. eine Schwenkrichtung, einen Zoom und/oder eine andere geeignete Art von Änderung, angeben.
  • Prozess 500 kann veranlassen, dass die dem Videoinhalt zugeordnete Ansicht bei 506 basierend auf der empfangenen Angabe geändert werden soll. Entspricht die empfangene Angabe beispielsweise dem Schwenken der Ansicht in eine bestimmte Richtung (z. B. links, rechts, oben, unten und/oder eine andere geeignete Richtung), kann Prozess 500 veranlassen, dass das Video in die angegebene Richtung geschwenkt wird. Als weiteres Beispiel kann, sofern die empfangene Angabe dem Vergrößern oder Verkleinern entspricht, Prozess 500 dazu führen, dass der Videoinhalt entsprechend vergrößert wird.
  • Prozess 500 kann veranlassen, dass Videoinhalte unter Verwendung geeigneter Informationen und Technik(en) geändert werden. Beispielsweise kann der Videoinhalt in einigen Ausführungsformen mit Metadaten verknüpft werden, die angeben, wie bestimmte Benutzereingaben unterschiedlichen Ansichten des Videoinhalts entsprechen. Als spezielleres Beispiel können die Metadaten in einigen Ausführungsformen angeben, dass bestimmte Tasteneingaben, Eingaben auf einem Touchscreen und/oder Bewegungen des Benutzergeräts dem Schwenken des Videoinhalts in eine bestimmte Richtung entsprechen. Als weiteres Beispiel können die Metadaten in manchen Ausführungsformen angeben, dass beim Empfangen einer Eingabe zum Schwenken in eine bestimmte Richtung eine Ansicht des Videoinhalts um einen bestimmten Winkel geändert werden soll.
  • Bei 508 kann Prozess 500 eine Angabe empfangen, dass ein interaktives Element innerhalb des Videoinhalts auf dem Benutzergerät als Ergebnis der Änderung der Ansicht präsentiert wurde. Prozess 500 kann diese Bestimmung unter Verwendung von allen geeigneten Informationen vornehmen. Beispielsweise kann Prozess 500 in einigen Ausführungsformen ein Sichtfeld (z. B. Koordinaten, eine Winkelposition und/oder andere geeignete räumliche Informationen) der aktuell präsentierten Ansicht mit einer räumlichen Position des interaktiven Elements vergleichen. Als spezielleres Beispiel, wenn eine räumliche Position des aktuellen Sichtfeldes einer Winkelposition von 60 Grad bis 180 Grad entspricht und sich das interaktive Element bei 75 Grad befindet, kann Prozess 500 bestimmen, dass das interaktive Element auf dem Benutzergerät präsentiert wurde. Wir weisen darauf hin, dass in einigen Ausführungsformen jedes geeignete Koordinatensystem (z. B. rechteckige Koordinaten, Winkel- und/oder Kugelkoordinaten und/oder ein anderes geeignetes Koordinatensystem) verwendet werden kann. Zusätzlich kann in einigen Ausführungsformen eine beliebige Anzahl von Achsen (z. B. eine, zwei und/oder drei) verwendet werden.
  • Prozess 500 kann die Präsentation des interaktiven Elements bei 510 einem Ersteller des Videoinhalts bei 510 zuschreiben. Beispielsweise, wie zuvor in Verbindung mit Block 416 von 4 beschrieben, kann Prozess 500 z. B. eine Angabe speichern, dass das interaktive Element in Verbindung mit einer Kennung des Inhaltserstellers präsentiert wurde. In einigen Ausführungsformen kann die Angabe auch andere geeignete Informationen beinhalten, wie z. B. einen Zeitpunkt, zu dem das interaktive Element präsentiert wurde, einen Zeitpunkt innerhalb des immersiven Videoinhalts (z. B. eine Zeit, die seit Beginn der Präsentation des Inhalts ablief, eine Framenummer und/oder einen anderen geeigneten Zeitpunkt), zu dem das interaktive Element präsentiert wurde, eine Zeitdauer, in der das interaktive Element auf dem Benutzergerät präsentiert wurde, bevor eine Ansicht des immersiven Videoinhalts geändert wurde, und/oder andere geeignete Informationen. In einigen Ausführungsformen kann die gespeicherte Angabe für jeden geeigneten Zweck verwendet werden. Beispielsweise kann die gespeicherte Angabe verwendet werden, um den Inhaltsersteller zu kontaktieren oder den Inhaltsersteller auf andere Weise auf die Präsentation des interaktiven Elements hinzuweisen. Es gilt zu beachten, dass in Fällen, in denen sich ein Ersteller des interaktiven Elements von einem Ersteller des Videoinhalts unterscheidet, Prozess 500 die Präsentation des interaktiven Elements einem oder beiden Inhaltserstellern zuschreiben kann.
  • In einigen Ausführungsformen kann Prozess 500 bestimmen, dass die Präsentation eines interaktiven Elements unter Verwendung einer geeigneten Technik oder Kombination von Techniken einem Inhaltsersteller zuzuschreiben ist. Beispielsweise kann Prozess 500 in einigen Ausführungsformen bestimmen, dass mindestens ein interaktives Element aus einer Gruppe von interaktiven Elementen, die in dem immersiven Inhalt enthalten sind, auf dem Benutzergerät präsentiert wurde (z. B. durch Vergleich der räumlichen Positionen des immersiven Inhalts, die mit räumlichen Positionen jedes interaktiven Elements in der Gruppe von interaktiven Elementen präsentiert wurden). Prozess 500 kann dann eine Entität identifizieren, die dem interaktiven Element zugeordnet ist, das präsentiert wurde. Beispielsweise kann die Entität in einigen Ausführungsformen ein Ersteller des interaktiven Elements, ein Ersteller des immersiven Videoinhalts und/oder eine andere geeignete Entität sein. In einigen Ausführungsformen kann Prozess 500 die Entität identifizieren, indem es eine Datenbank abfragt, die jedes interaktive Element in einer Gruppe von interaktiven Elementen, die in einem bestimmten immersiven Videoinhalt enthalten sind, zuordnet. Prozess 500 kann dann die Präsentation des interaktiven Elements der identifizierten Entität zuschreiben.
  • Prozess 500 kann eine Angabe empfangen, dass das interaktive Element auf dem Benutzergerät bei 512 ausgewählt wurde. Beispielsweise kann in einigen Ausführungsformen der Prozess 500 eine Angabe empfangen, dass das interaktive Element berührt und/oder angeklickt wurde. Wir weisen darauf hin, dass in einigen Ausführungsformen das interaktive Element möglicherweise nicht auswählbar ist. In einigen Ausführungsformen kann Block 512 ausgelassen werden. Es gilt zu beachten, dass Prozess 500 in einigen Ausführungsformen bestimmen kann, ob ein geeigneter Raum um das interaktive Element herum ausgewählt wurde. Beispielsweise kann in einigen Ausführungsformen ein Winkelbereich um das interaktive Element und/oder ein rechteckiger Raum um das interaktive Element definiert werden, und das Anklicken und/oder Auswählen des Videoinhalts innerhalb des angegebenen Bereichs oder Raums kann als Auswahl des interaktiven Elements betrachtet werden.
  • Prozess 500 kann veranlassen, dass eine dem ausgewählten interaktiven Element zugeordnete Aktion bei 514 ausgeführt wird. Prozess 500 kann veranlassen, dass eine geeignete Aktion ausgeführt wird. Beispielsweise kann die Auswahl des interaktiven Elements in einigen Ausführungsformen veranlassen, dass eine neue Webseite geöffnet wird, eine Benutzeroberfläche für die gemeinsame Nutzung Videoinhalte präsentiert wird, eine Benutzeroberfläche für die Navigation zu einem anderen Video präsentiert wird, der Videoinhalt übersprungen wird und/oder eine andere geeignete Aktion erfolgt. In einigen Ausführungsformen kann Prozess 500 eine Angabe speichern, dass das interaktive Element ausgewählt wurde und/oder dass die zugehörige Aktion in Verbindung mit einer Kennung des Inhaltserstellers ausgeführt wurde. In einigen dieser Ausführungsformen kann die gespeicherte Angabe für einen geeigneten Zweck verwendet werden, z. B. um einen Betrag zu bestimmen, der dem Inhaltsersteller für die Interaktion des Benutzers mit dem interaktiven Element in Rechnung gestellt werden soll.
  • In einigen Ausführungsformen können mindestens einige der zuvor beschriebenen Blöcke der Verfahren von 4 und 5 in jeder Reihenfolge oder Sequenz ausgeführt werden, die nicht auf die Reihenfolge und Sequenz beschränkt ist, die in den Figuren dargestellt und in Verbindung mit denselben beschrieben ist. Darüber hinaus können ggf. einige der vorstehenden Blöcke von 4 und 5 im Wesentlichen gleichzeitig oder parallel ausgeführt werden, um Latenz- und Verarbeitungszeiten zu reduzieren. Zusätzlich oder alternativ dazu können einige der vorstehend beschriebenen Blöcke der Verfahren von 4 und 5 weggelassen werden.
  • In einigen Ausführungsformen können geeignete computerlesbare Medien zum Speichern von Befehlen verwendet werden, um die Funktionen und/oder Prozesse hierin auszuführen. In einigen Ausführungsformen können beispielsweise computerlesbare Medien flüchtig oder nicht flüchtig sein. Nicht flüchtige computerlesbare Medien können beispielsweise Medien, wie z. B. magnetische Medien (wie Festplatten, Disketten und/oder andere geeignete magnetische Medien), optische Medien (wie Compact Disc, Digital Video Discs, Blu-ray-Discs und/oder beliebige andere geeignete optische Medien), Halbleitermedien (wie Flash-Speicher, elektrisch programmierbaren Festwertspeicher (EPROM), elektrisch löschbaren und programmierbaren Festwertspeicher (EEPROM) und/oder beliebige andere geeignete Halbleitermedien), geeignete Medien, die nicht flüchtig oder ohne jeden Anschein von Dauerhaftigkeit während der Übertragung sind, und/oder geeignete physische Medien beinhalten. Als ein weiteres Beispiel können flüchtige computerlesbare Medien Signale auf Netzwerken, in Drähten, Leitern, Lichtwellenleitern, Schaltungen, geeigneten Medien, die flüchtig und während der Übertragung ohne jeden Anschein von Dauerhaftigkeit sind, und/oder geeignete immaterielle Medien beinhalten.
  • In Situationen, in denen die hier erläuterten Systeme persönliche Informationen über Benutzer sammeln oder persönliche Informationen nutzen, kann den Benutzern die Möglichkeit eingeräumt werden, einzustellen, ob Programme oder Merkmale Benutzerinformationen (z. B. Informationen über das soziale Netzwerk eines Benutzers, soziale Aktionen oder Aktivitäten, den Beruf, die Präferenzen eines Benutzers oder den aktuellen Standort eines Benutzers) erfassen. Außerdem können bestimmte Daten auf eine oder mehrere Arten behandelt werden, bevor sie gespeichert oder verwendet werden, sodass persönliche Informationen entfernt werden. Eine Benutzeridentität kann beispielsweise so behandelt werden, dass keine persönlichen Informationen für den Benutzer bestimmt werden können, oder ein geografischer Standort des Benutzers verallgemeinert werden kann, wobei Standortinformationen (wie beispielsweise Stadt, Postleitzahl oder Bundeslandebene) entnommen werden, sodass ein bestimmter Benutzerstandort nicht festgestellt werden kann. Auf diese Weise kann der Benutzer die Kontrolle darüber haben, inwiefern Informationen über den Benutzer gesammelt und von einem Inhaltsserver verwendet werden.
  • Dementsprechend werden Verfahren, Systeme und Medien zum Präsentieren interaktiver Elemente innerhalb von Videoinhalten bereitgestellt.
  • Obgleich die Erfindung in den vorangegangenen illustrativen Ausführungsformen beschrieben und veranschaulicht wurde, versteht es sich, dass die vorliegende Offenbarung nur beispielhaft ausgeführt wurde und dass zahlreiche Änderungen in den Details der Implementierung der Erfindung erfolgen können, ohne von dem Umfang der Erfindung abzuweichen, der nur durch die folgenden Ansprüche begrenzt ist. Merkmale der offenbarten Ausführungsformen können auf verschiedene Arten kombiniert und umgeordnet werden.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 14/979347 [0001]

Claims (9)

  1. Verfahren zum Präsentieren interaktiver Elemente innerhalb von Videoinhalten werden bereitgestellt, umfassend: Veranlassen, dass immersiver Videoinhalt auf einem Benutzergerät präsentiert wird, wobei der immersive Videoinhalt mindestens eine erste Ansicht und eine zweite Ansicht beinhaltet, und wobei die erste Ansicht ein erstes interaktives Element beinhaltet, das innerhalb der ersten Ansicht präsentiert werden soll, und die zweite Ansicht ein zweites interaktives Element beinhaltet, das innerhalb der zweiten Ansicht präsentiert werden soll; Empfangen einer Angabe, dass die erste Ansicht des immersiven Videoinhalts präsentiert werden soll; in Reaktion auf Empfangen der Angabe Veranlassen, dass die erste Ansicht des immersiven Videoinhalts auf dem Benutzergerät präsentiert wird; Bestimmen, dass das erste interaktive Element innerhalb der ersten Ansicht des immersiven Videoinhalts präsentiert wurde; in Reaktion auf Bestimmen, dass das erste interaktive Element präsentiert wurde, Identifizieren eines Inhaltserstellers, der dem ersten interaktiven Element zugeordnet ist; und Zuweisen von Zuschreibungsinformationen, die die Präsentation des ersten interaktiven Elements angeben, zu dem Inhaltsersteller, der dem ersten interaktiven Element zugeordnet ist.
  2. Verfahren nach Anspruch 1, wobei Bestimmen, dass das erste interaktive Element präsentiert wurde, ferner umfasst: Identifizieren einer dem ersten interaktiven Element zugeordneten räumlichen Position; und Bestimmen, ob die erste Ansicht des immersiven Videoinhalts die dem ersten interaktiven Element zugeordnete räumliche Position beinhaltet.
  3. Verfahren nach Anspruch 1, wobei das erste interaktive Element auswählbar ist.
  4. Verfahren nach Anspruch 3, ferner umfassend: Empfangen einer Angabe, dass das erste interaktive Element ausgewählt wurde; und Veranlassen, dass eine dem ersten interaktiven Element zugeordnete Aktion auf dem Benutzergerät ausgeführt wird.
  5. Verfahren nach Anspruch 4, wobei die Aktion veranlasst, dass sich eine Webseite öffnet.
  6. Verfahren nach Anspruch 4, wobei die Aktion eine Benutzeroberfläche zum Präsentieren des immersiven Videoinhalts zur gemeinsamen Nutzung veranlasst.
  7. Verfahren nach Anspruch 4, wobei die Zuschreibungsinformationen außerdem angeben, dass das interaktive Element ausgewählt wurde.
  8. Ein System zum Präsentieren interaktiver Elemente innerhalb von Videoinhalten wird bereitgestellt, wobei das System einen Hardware-Prozessor umfasst, der so programmiert ist, dass er das Verfahren eines der vorangegangenen Ansprüche ausführt.
  9. Nicht flüchtiges computerlesbares Medium, das computerausführbare Anweisungen enthält, die, wenn sie durch einen Prozessor ausgeführt werden, den Prozessor zum Ausführen des Verfahrens nach einem der Ansprüche 1 bis 7 veranlassen.
DE112016004269.8T 2015-12-22 2016-12-08 Verfahren, systeme und medien zum präsentieren interaktiver elemente innerhalb von videoinhalt Pending DE112016004269T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US14/979,347 2015-12-22
US14/979,347 US10356493B2 (en) 2015-12-22 2015-12-22 Methods, systems, and media for presenting interactive elements within video content
PCT/US2016/065553 WO2017112421A1 (en) 2015-12-22 2016-12-08 Methods, systems, and media for presenting interactive elements within video content

Publications (1)

Publication Number Publication Date
DE112016004269T5 true DE112016004269T5 (de) 2018-05-30

Family

ID=57708766

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112016004269.8T Pending DE112016004269T5 (de) 2015-12-22 2016-12-08 Verfahren, systeme und medien zum präsentieren interaktiver elemente innerhalb von videoinhalt

Country Status (6)

Country Link
US (4) US10356493B2 (de)
EP (1) EP3335179A1 (de)
CN (2) CN115134649B (de)
DE (1) DE112016004269T5 (de)
GB (1) GB2556818A (de)
WO (1) WO2017112421A1 (de)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10356493B2 (en) 2015-12-22 2019-07-16 Google Llc Methods, systems, and media for presenting interactive elements within video content
US10102611B1 (en) 2017-10-16 2018-10-16 Xplorit Llc Interconnected 360 video virtual travel
US10929909B2 (en) 2018-09-19 2021-02-23 International Business Machines Corporation Media enhancement with customized add-on content
CN110166842B (zh) * 2018-11-19 2020-10-16 深圳市腾讯信息技术有限公司 一种视频文件操作方法、装置和存储介质
CN114009058B (zh) * 2019-04-26 2024-05-31 摹恩帝株式会社 多反应型图像生成方法及其存储介质
CN114078190B (zh) * 2020-08-19 2024-05-31 乔山健身器材(上海)有限公司 健身运动的引导设备
US20230283864A1 (en) * 2022-01-31 2023-09-07 Lemon Inc. Content creation using interactive effects

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2001061539A2 (en) 2000-02-14 2001-08-23 Ferreira, Jose, P., S. Methods and systems for presenting a virtual representation of a real city
WO2003012744A1 (en) * 2001-08-02 2003-02-13 Intellocity Usa, Inc. Post production visual alterations
JP5649303B2 (ja) * 2006-03-30 2015-01-07 エスアールアイ インターナショナルSRI International メディア・ストリームに注釈を付ける方法および装置
EP1865455A1 (de) 2006-06-07 2007-12-12 Seac02 S.r.l. Virtuelles Werbesystem
US20080126206A1 (en) * 2006-11-27 2008-05-29 Trf Systems, Inc. Providing advertising to buyers of real estate utilizing virtual tours
US8416247B2 (en) * 2007-10-09 2013-04-09 Sony Computer Entertaiment America Inc. Increasing the number of advertising impressions in an interactive environment
US20100121676A1 (en) 2008-11-11 2010-05-13 Yahoo! Inc. Method and system for logging impressions of online advertisments
US20100128112A1 (en) * 2008-11-26 2010-05-27 Samsung Electronics Co., Ltd Immersive display system for interacting with three-dimensional content
US9244533B2 (en) * 2009-12-17 2016-01-26 Microsoft Technology Licensing, Llc Camera navigation for presentations
EP2408196B1 (de) * 2010-07-14 2017-01-11 Alcatel Lucent Verfahren, Server und Endgerät zur Erzeugung einer Verbundansicht von mehrfachen Inhaltselementen
US20130054319A1 (en) * 2011-08-29 2013-02-28 United Video Properties, Inc. Methods and systems for presenting a three-dimensional media guidance application
EP2613223A1 (de) * 2012-01-09 2013-07-10 Softkinetic Software System und Verfahren zur verbesserten, auf Gesten basierenden Interaktion
KR20140031457A (ko) * 2012-08-31 2014-03-13 엘지전자 주식회사 광고 서비스 서버 및 디지털 사이니지 장치
EP2903703A1 (de) * 2012-10-04 2015-08-12 Disney Enterprises, Inc. Interaktive objekte für immersive umgebung
US20140149884A1 (en) * 2012-11-26 2014-05-29 William Joseph Flynn, III User-Based Interactive Elements
US20140195675A1 (en) * 2013-01-09 2014-07-10 Giga Entertainment Media Inc. Simultaneous Content Data Streaming And Interaction System
CN103561065B (zh) * 2013-10-22 2017-05-24 深圳市优逸电子科技有限公司 一种利用移动终端实现3d虚拟广告的***及其方法
US20150128014A1 (en) * 2013-10-28 2015-05-07 Mixonium Group Holdings, Inc. Systems, methods, and media for content management and sharing
US20150277711A1 (en) * 2014-03-31 2015-10-01 Microsoft Corporation User interaction and motion driving updates to components in an immersive document view
CN104238884B (zh) * 2014-09-12 2018-09-18 北京诺亚星云科技有限责任公司 基于数字全景的动态信息呈现与用户交互***及设备
US9990028B2 (en) * 2014-10-03 2018-06-05 Verizon Patent And Licensing Inc. System and method for providing live augmented reality content
CN104954369A (zh) * 2015-06-08 2015-09-30 百度在线网络技术(北京)有限公司 多媒体内容的发送、生成和传输、播放方法和对应装置
US9994279B2 (en) * 2015-07-10 2018-06-12 Specialized Bicycle Components, Inc. Suspension assembly and bicycle having a suspension assembly
US20170085964A1 (en) * 2015-09-17 2017-03-23 Lens Entertainment PTY. LTD. Interactive Object Placement in Virtual Reality Videos
US10356493B2 (en) 2015-12-22 2019-07-16 Google Llc Methods, systems, and media for presenting interactive elements within video content

Also Published As

Publication number Publication date
WO2017112421A1 (en) 2017-06-29
US11070894B2 (en) 2021-07-20
GB2556818A (en) 2018-06-06
EP3335179A1 (de) 2018-06-20
CN108027936A (zh) 2018-05-11
CN108027936B (zh) 2022-06-03
CN115134649A (zh) 2022-09-30
CN115134649B (zh) 2024-04-12
US20210345017A1 (en) 2021-11-04
US20190342633A1 (en) 2019-11-07
US11825177B2 (en) 2023-11-21
US20240040211A1 (en) 2024-02-01
US10356493B2 (en) 2019-07-16
US20170180827A1 (en) 2017-06-22
GB201804156D0 (en) 2018-05-02

Similar Documents

Publication Publication Date Title
DE112016004269T5 (de) Verfahren, systeme und medien zum präsentieren interaktiver elemente innerhalb von videoinhalt
DE202017105372U1 (de) Elektronischer Programmführer mit expandierenden Zellen für die Videovorschau
DE112016001594T5 (de) Verfahren, systeme und medien zum aggregieren und präsentieren von relevantem inhalt für ein bestimmtes videospiel
CN108351897B (zh) 用于创建和更新媒体内容项组的方法、***和介质
WO2018102013A1 (en) Methods, systems, and media for enhancing two-dimensional video content items with spherical video content
CN105589655A (zh) 一种终端设备的显示方法及***
US12015813B2 (en) Methods, systems, and media for indicating viewership of a video
US11329942B2 (en) Methods, systems, and media for presenting messages related to notifications
DE102016225493B4 (de) Verfahren, Systeme und Medien zum Präsentieren einer Werbeanzeige, während ein Video gepuffert wird
DE102019218787A1 (de) Verfahren, vorrichtung und system zum erzeugen von mit einer darstellung eines artikels verbundenen angeboten
DE202016008299U1 (de) Systeme und Medien zur Präsentation einer Erinnerung zum Ansehen von Inhalt
US20190158900A1 (en) Methods, systems, and media for indicating viewership of a video based on context
CN115494987A (zh) 基于视频的交互方法、装置、计算机设备和存储介质
DE202017105308U1 (de) Videosurfen per Langhaltegeste
DE202017104855U1 (de) Animieren eines Bildes zum Anzeigen, dass das Bild verschiebbar ist
DE112015005223T5 (de) Verfahren, Systeme und Medien zur Darstellung von Links zu Medieninhalten
CN112468865B (zh) 一种视频处理方法、vr终端及计算机可读存储介质
CN110709839A (zh) 用于呈现媒体内容预览的方法、***和介质
DE112022002844T5 (de) System und Verfahren zur Verwendung von Portalsystemen in virtuellen Umgebungen der erweiterten Realität
DE202016003250U1 (de) Gerät und grafische Benutzerschnittstelle für die Navigation durch Medieninhalt

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R082 Change of representative

Representative=s name: KASTEL, STEFAN, DIPL.-PHYS.UNIV., DE

Representative=s name: KILBURN & STRODE LLP, GB

Representative=s name: KILBURN & STRODE LLP, NL

R082 Change of representative

Representative=s name: KASTEL, STEFAN, DIPL.-PHYS.UNIV., DE

Representative=s name: KILBURN & STRODE LLP, GB

Representative=s name: KILBURN & STRODE LLP, NL

R082 Change of representative

Representative=s name: KILBURN & STRODE LLP, GB

Representative=s name: KILBURN & STRODE LLP, NL

R082 Change of representative

Representative=s name: KILBURN & STRODE LLP, GB

Representative=s name: KILBURN & STRODE LLP, NL

R082 Change of representative

Representative=s name: KILBURN & STRODE LLP, NL