DE112017005059T5 - System und verfahren zum projizieren graphischer objekte - Google Patents

System und verfahren zum projizieren graphischer objekte Download PDF

Info

Publication number
DE112017005059T5
DE112017005059T5 DE112017005059.6T DE112017005059T DE112017005059T5 DE 112017005059 T5 DE112017005059 T5 DE 112017005059T5 DE 112017005059 T DE112017005059 T DE 112017005059T DE 112017005059 T5 DE112017005059 T5 DE 112017005059T5
Authority
DE
Germany
Prior art keywords
virtual reality
interest
geographic area
graphical
reality space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112017005059.6T
Other languages
English (en)
Inventor
Lee M. Proctor
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motorola Solutions Inc
Original Assignee
Motorola Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motorola Solutions Inc filed Critical Motorola Solutions Inc
Publication of DE112017005059T5 publication Critical patent/DE112017005059T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F27/00Combined visual and audible advertising or displaying, e.g. for public address
    • G09F27/004Displays including an emergency or alarm message
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/0482Interaction with lists of selectable items, e.g. menus
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/05Geographic models
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F19/00Advertising or display means not otherwise provided for
    • G09F19/12Advertising or display means not otherwise provided for using special optical effects
    • G09F19/18Advertising or display means not otherwise provided for using special optical effects involving the use of optical projection means, e.g. projection of images on clouds
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09FDISPLAYING; ADVERTISING; SIGNS; LABELS OR NAME-PLATES; SEALS
    • G09F19/00Advertising or display means not otherwise provided for
    • G09F19/22Advertising or display means on roads, walls or similar surfaces, e.g. illuminated
    • G09F19/226External wall display means; Facade advertising means

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Business, Economics & Management (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Marketing (AREA)
  • Accounting & Taxation (AREA)
  • Geometry (AREA)
  • Computer Graphics (AREA)
  • Emergency Management (AREA)
  • Remote Sensing (AREA)
  • Computer Hardware Design (AREA)
  • User Interface Of Digital Computer (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Processing Or Creating Images (AREA)

Abstract

Es werden Systeme und Verfahren zum Projizieren graphischer Objekte offenbart. In einem Beispiel enthält ein System eine Virtual-Reality-Wiedergabemaschine (VR), die konfiguriert ist, um einen Virtual-Reality-Raum eines interessierenden geographischen Bereichs mit einem graphischen Merkmal zu erzeugen, das ein physikalisches Merkmal in dem interessierenden geographischen Bereich repräsentiert. Eine Anzeige wird konfiguriert, um eine graphische VR-Nutzerschnittstelle (GUI) mit dem erzeugten Virtual-Reality-Raum und einem Menü zu erzeugen, das graphische Objekte enthält. Ein graphisches Objekt kann auf dem graphischen Merkmal in dem Virtual-Reality-Raum angeordnet werden. Eine Projektorschnittstelle bestimmt eine Projektionsoberfläche auf dem physikalischen Merkmal basierend auf der Anordnung des graphischen Objekts in dem Virtual-Reality-Raum und erzeugt Anweisungen für einen Projektor, um ein Bild des graphischen Objekts auf die Projektionsoberfläche in dem physikalischen Merkmal des interessierenden geographischen Bereichs zu projizieren.

Description

  • HINTERGRUND
  • Bei zahlreichen Ereignissen oder Situationen, wie zum Beispiel Sportereignissen, Feiern, Partys oder auch nur in verkehrsreichen städtischen Bereichen, können sich eine große Anzahl an Menschen zusammenfinden und eine Menschenmenge bilden. Für solche Menschenmengen ist es wichtig, eine Ordnung beizubehalten, was zum Beispiel Ordnungskräfte für die öffentliche Sicherheit betrifft. Je mehr Menschen jedoch in einem beengten Bereich anwesend sind und je begrenzter der Bereich ist, umso schwieriger kann es sein, die Menschen in einer geordneten Weise zu verteilen. Es kann noch schwieriger sein, eine solche Ordnung beizubehalten, wenn Krisensituationen vorliegen. Dies trifft insbesondere in städtischen Bereichen zu, in denen eine Sichtbarkeit durch Gebäude, Fahrzeuge oder andere Menschen behindert ist, die sich dicht zusammengefunden haben. Ordnungskräfte sind häufig anwesend, um Menschen in die beengten Bereiche und aus diesen hinaus zu schicken, aber die beschränkte Sichtbarkeit der Ordnungskräfte und/oder der Menschen in dem beengten Bereich kann Konfusion und/oder Verzögerungen verursachen. Zusätzlich können Nothelfer, die in beengten Bereichen eingesetzt werden, durch Menschenmengen verzögert werden, und sie müssen sich möglicherweise daher auf sprachliche Anweisungen von einem Einsatzleiter oder einer anderen zentralen Quelle verlassen. Entsprechend besteht ein Bedürfnis an Systemen und Verfahren zum Bereitstellen von Information der öffentlichen Sicherheit.
  • Figurenliste
    • 1 veranschaulicht ein Beispiel eines Informationscontrollers der öffentlichen Sicherheit gemäß einigen Ausführungsformen.
    • 2 veranschaulicht ein Beispiel eines Informationssystems der öffentlichen Sicherheit gemäß einigen Ausführungsformen.
    • 3 veranschaulicht ein Beispiel einer graphischen Virtual-Reality-Nutzerschnittstelle gemäß einigen Ausführungsformen.
    • 4 veranschaulicht ein anderes Beispiel einer graphischen Virtual-Reality-Nutzerschnittstelle gemäß einigen Ausführungsformen.
    • 5 veranschaulicht noch ein anderes Beispiel einer graphischen Virtual-Reality-Nutzerschnittstelle gemäß einigen Ausführungsformen.
    • 6 veranschaulicht noch ein weiteres Beispiel einer graphischen Virtual-Reality-Nutzerschnittstelle gemäß einigen Ausführungsformen.
    • 7 veranschaulicht ein Beispiel eines Diagramms zum Bereitstellen von Information der öffentlichen Sicherheit gemäß einigen Ausführungsformen.
    • 8 veranschaulicht noch ein anderes Beispiel einer graphischen Virtual-Reality-Nutzerschnittstelle gemäß einigen Ausführungsformen.
    • 9 veranschaulicht noch ein weiteres Beispiel einer graphischen Virtual-Reality-Nutzerschnittstelle gemäß einigen Ausführungsformen.
    • 10 veranschaulicht ein anderes Beispiel eines Diagramms zum Bereitstellen von Information der öffentlichen Sicherheit gemäß einigen Ausführungsformen.
    • 11 veranschaulicht noch ein anderes Beispiel eines Diagramms zum Bereitstellen von Information der öffentlichen Sicherheit gemäß einigen Ausführungsformen.
    • 12 veranschaulicht ein Beispiel eines Verfahrens zum Bereitstellen von Information der öffentlichen Sicherheit gemäß einigen Ausführungsformen.
  • Fachleute werden erkennen, dass Elemente in den Figuren zum Zwecke der Einfachheit und Klarheit veranschaulicht sind und nicht notwendigerweise maßstabsgetreu gezeichnet sind. Zum Beispiel können die Abmessungen einiger der Elemente in den Figuren im Vergleich zu anderen Elementen übertrieben sein, um dabei zu helfen, das Verständnis von Ausführungsformen der vorliegenden Erfindung zu verbessern.
  • Die Vorrichtungs- und Verfahrenskomponenten wurden dort, wo es angemessen erscheint, durch konventionelle Symbole in den Zeichnungen dargestellt, wobei nur jene spezifischen Einzelheiten gezeigt werden, die für ein Verständnis der Ausführungsformen der vorliegenden Erfindung wesentlich sind, um so die Offenbarung nicht mit Einzelheiten zu verschleiern, die für jene Durchschnittsfachleute ohne weiteres erkennbar sind, die den Vorteil dieser Beschreibung genießen.
  • DETAILLIERTE BESCHEIBUNG DER ERFINDUNG
  • Die beigefügten Abbildungen, bei denen sich gleiche Bezugszahlen auf identische oder funktional ähnliche Elemente in den einzelnen Ansichten beziehen, sind zusammen mit der folgenden detaillierten Beschreibung einbezogen in die Beschreibung und bilden einen Teil derselben und dienen zum weiteren Veranschaulichen von Ausführungsformen und Konzepten, die die beanspruchte Erfindung beinhalten und erklären verschiedene Prinzipien und Vorteile dieser Ausführungsformen.
  • Ein Beispiel enthält ein Verfahren und ein System zum Projizieren graphischer Objekte. Das System enthält eine Virtual-Reality-Wiedergabemaschine („virtual reality“ (VR)), die konfiguriert ist, um einen Virtual-Reality-Raum eines interessierenden geographischen Bereichs mit einem graphischen Merkmal zu erzeugen, das ein physikalisches Merkmal des interessierenden geographischen Bereichs repräsentiert. Das System enthält auch eine Anzeige, die konfiguriert ist, um eine graphische Virtual-Reality-Nutzerschnittstelle („graphical user interface“ (GUI)) mit dem erzeugten Virtual-Reality-Raum sowie einem Menü mit graphischen Objekten zu erzeugen. Das System enthält auch einen elektronischen Prozessor, der eine Eingabe erfasst, die für eine Anordnung eines graphischen Objekts in dem Virtual-Reality-Raum kennzeichnend ist. Das System enthält weiterhin eine Projektorschnittstelle, die eine Projektionsoberfläche auf dem physikalischen Merkmal des interessierenden geographischen Bereichs basierend auf der Anordnung des graphischen Objekts in dem Virtual-Reality-Raum bestimmt und Anweisungen für einen Projektor erzeugt, um ein Bild des graphischen Objekts auf die bestimme Projektionsoberfläche in dem physikalischen Merkmal des interessierenden geographischen Bereichs zu projizieren.
  • 1 veranschaulicht ein Beispiel eines Informationscontrollers der öffentlichen Sicherheit 10 gemäß einigen Ausführungsformen. Der Informationscontroller der öffentlichen Sicherheit 10 kann in verschiedenen Kontexten implementiert sein, um Menschen in einer Menschenmenge und/oder Nothelfern in einer beengten und/oder städtischen Umgebung Information der öffentlichen Sicherheit zur Verfügung zu stellen. Wie hier beschrieben ist, kann der Informationscontroller der öffentlichen Sicherheit 10 einen Virtual-Reality-Raum („virtual reality“ (VR)) erzeugen, der einem interessierenden geographischen Bereich entspricht, um eine Nutzerinteraktion mit dem Virtual-Reality-Raum zu ermöglichen, der dem interessierenden geographischen Bereich entspricht. Der Informationscontroller der öffentlichen Sicherheit 10 kann die Laserprojektion der Information der öffentlichen Sicherheit auf einem oder mehreren physikalischen Merkmalen des interessierenden geographischen Bereichs ermöglichen, basierend auf der Nutzerinteraktion, um die Information der öffentlichen Sicherheit unter den Menschen in der Menschenmenge und/oder den Nothelfern zu verbreiten. Der Informationscontroller der öffentlichen Sicherheit 10 kann für zahlreiche Anwendungen der öffentlichen Sicherheit genutzt werden, wie zum Beispiel zum Bereitstellen einer Steuerung der Menschenmenge zur Evakuierung, zum Anzeigen von Umleitungen für öffentliche Durchgangswege und/oder zum Bereitstellen von Anweisungen oder Befehlen für Nothelfer. In einem Beispiel kann der Informationscontroller der öffentlichen Sicherheit 10 in einem Fahrzeug der öffentlichen Sicherheit angeordnet sein, wie zum Beispiel einem Ordnungskräftefahrzeug, oder er kann in einem Einsatzleitungszentrum oder in einem zentralen Einsatzleitungsfahrzeug angeordnet sein.
  • Der Informationscontroller der öffentlichen Sicherheit 10 enthält eine Virtual-Reality-Wiedergabemaschine 12, die konfiguriert ist, um einen Virtual-Reality-Raum 14 des interessierenden geographischen Bereichs zu erzeugen. Der interessierende geographische Bereich kann jedem mit Menschen besetzten geographischen Bereich entsprechen, denen die Information der öffentlichen Sicherheit in sichtbarer Weise zugeführt werden soll, wie zum Beispiel eine oder mehrere Straßen, Kreuzungen, Stadtplätze oder Blöcke, öffentlichen Versammlungsorte oder dergleichen. Wie hier beschrieben ist, enthält der interessierende geographische Bereich wenigstens ein physikalisches Merkmal, das einem Ort entspricht, auf den die Information der öffentlichen Sicherheit zu projizieren ist, wie zum Beispiel ein Gebäude, einen Hang, eine Straßenfläche oder irgendeine andere Fassade, die für Menschen klar erkennbar ist, die den interessierenden geographischen Bereich besetzen. In dem Beispiel aus 1 empfängt die Virtual-Reality-Wiedergabemaschine 12 Videobilddaten („video image data“ (VID)) des interessierenden geographischen Bereichs und erzeugt den Virtual-Reality-Raum 14 basierend auf den Videobilddaten (VID). Es ist klar, dass Fotodaten der Virtual-Reality-Wiedergabemaschine 12 zur Verfügung gestellt werden können, um den Virtual-Reality-Raum 14 basierend auf den Fotodaten zu erzeugen. Somit kann der Virtual-Reality-Raum 14 sichtbar den interessierenden geographischen Bereich repräsentieren, so dass im Wesentlichen alle physikalischen Merkmale des interessierenden geographischen Bereichs sichtbar in dem Virtual-Reality-Raum 14 als entsprechende graphische Merkmale repräsentiert sind. Daher wird das wenigstens eine physikalische Merkmal, das dem Ort entspricht, auf den die Information der öffentlichen Sicherheit zu projizieren ist, in gleicher Weise repräsentiert, wie ein graphisches Merkmal in dem Virtual-Reality-Raum 14.
  • Der Informationscontroller der öffentlichen Sicherheit 10 ist konfiguriert, um den Virtual-Reality-Raum 14 für einen Nutzer in einem Anzeigesystem 16 anzuzeigen und um eine graphische Nutzerschnittstelle („graphical user interface“ (GUI)) 18 zu erzeugen, um eine Nutzerinteraktion mit dem Virtual-Reality-Raum 14 zu ermöglichen. Zum Beispiel kann das Anzeigesystem 14 als eine vom Nutzer tragbare Virtual-Reality-Schnittstelle plus Anzeigesystem implementiert sein, wie zum Beispiel eine Brille und/oder ein Helm, zusammen mit einem assoziierten Virtual-Reality-Eingabegerät (zum Beispiel Handschuhe, ein Handcontroller, eine Maus und/oder eine Tastatur oder dergleichen). Alternativ kann das Anzeigesystem 16 über ein Computersystem implementiert sein, wie zum Beispiel einen Desktop-Computer, ein Laptop- oder ein Tablet-Computersystem. Die graphische Nutzerschnittstelle 18 kann ein oder mehrere Menüs zur Verfügung stellen, die dem Nutzer einen auswählbaren Kontext der öffentlichen Sicherheit zur Verfügung stellen können, wie zum Beispiel entsprechend einer Menschenmengensteuerung, Evakuierungssituationen, Nothelfereinsätzen oder anderen Informationskontexten der öffentlichen Sicherheit. Jeder dieser Kontexte kann ein assoziiertes Menü enthalten, das die Fähigkeit einer Nutzerauswahl einer Vielzahl graphischer Objekte zur Verfügung stellt. Der Nutzer kann somit eine Interaktion von einem oder mehreren der graphischen Objekte mit einem oder mehreren der graphischen Merkmale in den Virtual-Reality-Raum 14 über die graphische Nutzerschnittstelle 18 zur Verfügung stellen, um die Information der öffentlichen Sicherheit anzuzeigen, die dem graphischen Objekt in dem interessierenden geographischen Bereich entspricht, wie hier noch genauer beschrieben ist.
  • Der Informationscontroller der öffentlichen Sicherheit 10 enthält weiterhin eine Projektorschnittstelle 20. Die Projektorschnittstelle 20 kann einem oder mehreren Verarbeitungselementen und/oder Software/Firmware-Komponenten entsprechen, die konfiguriert sind, um für einen Projektor Anweisungen zu erzeugen, Information der öffentlichen Sicherheit anzuzeigen. Zum Beispiel kann die Projektorschnittstelle 20 Anweisungen erzeugen, die einem Laserbild zur Projektion über einen Laserprojektor entsprechen. Die Information der öffentlichen Sicherheit kann dem ausgewählten graphischen Objekt entsprechen, so dass in Reaktion darauf, dass das graphische Objekt über dem graphischen Merkmal mittels der graphischen Nutzerschnittstelle 18 angeordnet wird, der assoziierte Projektor eine Kopie des graphischen Objekts auf das physikalische Merkmal in dem interessierenden geographischen Bereich projizieren kann, basierend auf den Anweisungen, die über die Projektorschnittstelle 20 erzeugt werden. Daher kann der assoziierte Projektor ein projiziertes Bild des angeordneten graphischen Objekts auf dem physikalischen Merkmal in dem interessierenden geographischen Bereich ausgeben, um eine Zusammenanordnung des projizierten Bildes auf dem physikalischen Merkmal in dem interessierenden geographischen Bereich und des angeordneten graphischen Objekts auf dem graphischen Merkmal in dem Virtual-Reality-Raum zu simulieren.
  • Wie hier beschrieben ist, gibt der Begriff „simulierte Zusammenanordnung“ (und seine Ableitungen) mit Bezug auf das graphische Objekt und das projizierte Bild an, dass eine Position des projizierten Bildes in dem interessierenden geographischen Bereich einer Position in dem Virtual-Reality-Raum 14 entspricht, welche dieselbe Position in dem interessierenden geographischen Bereich repräsentiert, und umgekehrt. Auf diese Weise erscheinen das projizierte Bild und das angeordnete graphische Objekt, die eine simulierte Zusammenanordnung aufweisen, in der Weise, dass sie sich im Wesentlichen an derselben Position in dem Virtual-Reality-Raum 14 und dem interessierenden geographischen Bereich befinden. Daher führt die Anordnung des graphischen Objekts auf dem graphischen Merkmal (zum Beispiel einer graphischen Darstellung eines Gebäudes) in dem Virtual-Reality-Raum 14 über die graphische Nutzerschnittstelle 18 zu einer Projektion des projizierten Bildes entsprechend dem graphischen Objekt auf das physikalische Merkmal (zum Beispiel das tatsächliche Gebäude, das durch das graphische Gebäude repräsentiert wird) bei näherungsweise demselben Koordinatenort. Zum Beispiel können die Virtual-Reality-Wiedergabemaschine 12 und/oder das Anzeigesystem 16 eine Ausrichtung jeweiliger Koordinatensysteme in dem Virtual-Reality-Raum 14 und dem interessierenden geographischen Bereich implementieren und/oder ein Musteranpassalgorithmus zum Implementieren der simulierten Zusammenanordnung des graphischen Objekts und des projizierten Bildes, wie hier beschrieben ist.
  • Im Ergebnis kann der Informationscontroller der öffentlichen Sicherheit 10 implementiert sein, um eine Projektion (zum Beispiel eine Laserprojektion) von Information der öffentlichen Sicherheit auf ein physikalisches Merkmal zur Verfügung zu stellen, wie zum Beispiel ein Gebäude, die für Menschen in dem interessierenden geographischen Bereich sichtbar ist. Zum Beispiel kann die Information der öffentlichen Sicherheit Evakuierungsbefehle und/oder -anweisungen enthalten, wie zum Beispiel Pfeile, um Menschen von einem beengten Bereich auf geordnete Weise wegzuführen, indem die Menschen zu einem am wenigsten verstopften Ausgangsweg geleitet werden (zum Beispiel nachdem eine große Menschenmenge zusammengetroffen ist oder nach einem Sportereignis). In einem anderen Beispiel kann die Information der öffentlichen Sicherheit einer Umleitungsanweisung entsprechen, die für Fahrer in einem Verkehrsstau sichtbar ist, um einen bevorzugten Reiseweg anzuzeigen und zu vermeiden, einem vorhergehenden Verkehrsunfall oder einer Baustellenzone zu begegnen. Bei einem anderen Beispiel kann die Information der öffentlichen Sicherheit Anweisungen oder Befehlen für Nothelfer entsprechen, wie zum Beispiel durch Angeben des Ortes eines aktiven Schützen, eines Feuers, einer Sicherheitseintrittszone oder mehrere andere Anweisungen, um Gefahr zu vermeiden, zu mildern oder zu verhindern.
  • 2 veranschaulicht ein Beispiel eines Informationssystems der öffentlichen Sicherheit 50 gemäß einigen Ausführungsformen. Das Informationssystem der öffentlichen Sicherheit 50 kann der aktiven Hardware entsprechen, die mit dem Erfassen von Videobilddaten („video image data“ (VID)) assoziiert ist sowie dem Bereitstellen der Information der öffentlichen Sicherheit, und den Verarbeitungs- und Rechenkomponenten, die mit dem Informationscontroller der öffentlichen Sicherheit assoziiert sind. Das Informationssystem der öffentlichen Sicherheit 50 enthält eine Bildgebungsplattform 52. Die Bildgebungsplattform 52 enthält ein Kameraschnittstellensystem 54 und ein Laserprojektionssystem 56. Die Bildgebungsplattform 52 kann an einem Nothelferfahrzeug oder einem Fahrzeug der öffentlichen Sicherheit montiert sein, beispielsweise montiert an einem Licht/Sirenengestell eines Ordnungskräftefahrzeugs. Somit können das Kameraschnittstellensystem 54 und das Laserprojektionssystem 56 zum Beispiel im Wesentlichen zusammen angeordnet sein. Zum Beispiel kann das Kameraschnittstellensystem 54 als eine 360-Grad-Tiefenkameraschnittstelle konfiguriert sein, die konfiguriert ist, um dreidimensionale Videobilddaten VID in 360 Grad über die Bildgebungsplattform 52 zu erfassen. Alternativ, wie vorliegend genauer beschrieben, können das Kameraschnittstellensystem 54 und das Laserprojektionssystem 56 an getrennten physikalischen Orten montiert sein.
  • Das Informationssystem der öffentlichen Sicherheit 50 enthält auch einen Informationscontroller der öffentlichen Sicherheit 58, der im Wesentlichen gleich oder ähnlich konfiguriert ist, wie der Informationscontroller der öffentlichen Sicherheit 10 im Beispiel aus 1. Der Informationscontroller der öffentlichen Sicherheit 58 enthält eine Virtual-Reality-Wiedergabemaschine 60, die konfiguriert ist, um dreidimensionale virtuelle Wiedergabedaten zu konfigurieren, gezeigt in dem Beispiel in 2 als „3D“, entsprechend einem Virtual-Reality-Raum des interessierenden geographischen Bereichs (zum Beispiel dem Virtual-Reality-Raum 14 in dem Beispiel aus 1). In dem Beispiel aus 2, empfängt die Virtual-Reality-Wiedergabemaschine 60 Videobilddaten VID von dem interessierenden geographischen Bereich, die über das Kameraschnittstellensystem 54 erhalten werden, und erzeugt somit den Virtual-Reality-Raum basierend auf den Videobilddaten VID. Zum Beispiel kann die Virtual-Reality-Wiedergabemaschine 60 konfiguriert sein, um eine direkte Fotowiedergabe der Videobilddaten VID zur Verfügung zu stellen, um die Bildmerkmale des interessierenden geographischen Bereichs in entsprechende graphische Merkmale des Virtual-Reality-Raums 14 zu konvertieren. Somit kann der Virtual-Reality-Raum visuell dem interessierenden geographischen Bereich entsprechen, so dass im Wesentlichen alle physikalischen Merkmale des interessierenden geographischen Bereichs visuell in dem Virtual-Reality-Raum als jeweilige graphische Merkmale repräsentiert sind.
  • Der Informationscontroller der öffentlichen Sicherheit 58 enthält auch ein Anzeigesystem 62 mit einer Anzeige 63, die konfiguriert ist, um eine Anzeige des Virtual-Reality-Raums für einen Nutzer zu ermöglichen und um eine graphische Virtual-Reality-Nutzerschnittstelle 64 zu erzeugen, um eine Nutzerinteraktion mit dem Virtual-Reality-Raum zu ermöglichen. Zum Beispiel kann das Anzeigesystem 52 als eine vom Nutzer tragbare Virtual-Reality-Schnittstelle plus Anzeigesystem implementiert sein, wie zum Beispiel eine Brille und/oder ein Helm, zusammen mit einem assoziierten Virtual-Reality-Eingabegerät (zum Beispiel Handschuhe, ein Handcontroller, eine Maus, und/oder eine Tastatur oder dergleichen). Die graphische Virtual-Reality-Schnittstelle 64 enthält ein Kontextmenü 66, das dem Nutzer einen auswählbaren Kontext der öffentlichen Sicherheit zur Verfügung stellen kann, wie zum Beispiel eine Steuerung einer Menschenmenge, eine Katastrophenevakuierung, Gefahrwarnungen, Nothilfe, Terroristenangriffe oder andere auswählbare Kontexte der öffentlichen Sicherheit. Jede Kategorie des Kontextmenüs 66 enthält eine jeweilige von einer oder mehreren Objektbibliotheken 68, wobei jede die Möglichkeit einer Nutzerauswahl einer Vielzahl graphischer Objekte zur Verfügung stellt. Der Nutzer kann einen Kontext über das Kontextmenü 66 auswählen und kann somit ein oder mehrere graphische Objekte aus einer jeweiligen der Objektbibliotheken 68 auswählen, die mit dem ausgewählten Kontext assoziiert ist, um auf einem oder mehreren der graphischen Merkmale in dem Virtual-Reality-Raum über die graphische Virtual-Reality-Nutzerschnittstelle 64 angeordnet zu werden. Das Anzeigesystem 62 enthält auch einen elektronischen Prozessor 65, der konfiguriert ist, um eine Nutzereingabe zu erfassen, die für eine Anordnung graphischer Objekte in dem Virtual-Reality-Raum kennzeichnend ist. Zum Beispiel kann der Kontext automatisch ausgewählt werden, basierend auf empfangenen Kontextdaten, die einer Vielzahl von kontextermöglichenden Faktoren entspricht, wie zum Beispiel auf Einsatzleitungsdaten, die kennzeichnend für den Typ eines Ereignisses sind, Sensordaten oder anderen Typen von Eingaben, die Kontext zur Verfügung stellen können, vor einer Initiierung des Anzeigesystems 62. Zum Beispiel kann jeder der Kontexte in dem Kontextmenü 66 eine Referenz und einen Zugriff (zum Beispiel über Zeiger) auf einen Satz graphischer Objekte zur Verfügung stellen, die in einer einzelnen Objektbibliothek 68 zur Verfügung gestellt werden, so dass nur der Satz graphischer Objekte gesehen werden kann und nur auf diesen von dem Nutzer in Reaktion auf eine Auswahl des gegebenen Kontextes aus dem Kontextmenü 66 zugegriffen werden kann.
  • Der Informationscontroller der öffentlichen Sicherheit 58 enthält weiterhin eine Projektorschnittstelle 70. Die Projektorschnittstelle 70 kann einem oder mehreren Verarbeitungselementen und/oder Software/Firmware-Komponenten entsprechen, die konfiguriert sind, um eine Projektionsoberfläche auf dem physikalischen Merkmal des interessierenden geographischen Bereichs zu bestimmen, basierend auf der Anordnung graphischer Objekte in dem Virtual-Reality-Raum. In einer Ausführungsform identifiziert die Projektorschnittstelle 70 Koordinaten, an denen die graphischen Objekte in dem Virtual-Reality-Raum angeordnet werden. Die Projektorschnittstelle 70 bestimmt Projektionskoordinaten auf dem physikalischen Merkmal des interessierenden geographischen Bereichs, wo die Projektionskoordinaten den identifizierten Koordinaten in dem Virtual-Reality-Raum entsprechen, an denen die graphischen Objekte angeordnet werden. Die Projektorschnittstelle 70 bildet die Projektionskoordinaten auf das physikalische Merkmal ab und identifiziert eine Oberfläche auf dem physikalischen Merkmal, welche für die Projektion der graphischen Objekte zulässig ist. Die Projektorschnittstelle 70 erzeugt Anweisungen, in dem Beispiel nach 2 als Signal INST gezeigt, zu dem Laserprojektionssystem 56, um die Information der öffentlichen Sicherheit, die mit dem oder den graphischen Objekten assoziiert ist, welche aus der jeweiligen Objektbibliothek 68 ausgewählt sind, auf die Projektionsoberfläche zu projizieren. Daher kann das Laserprojektionssystem 56 ein projiziertes Bild des angeordneten graphischen Objekts auf der Projektionsoberfläche in dem physikalischen Merkmal des interessierenden geographischen Bereichs ausgeben, um eine Zusammenanordnung zwischen dem projizierten Bild des physikalischen Merkmals in dem interessierenden geographischen Bereich und dem angeordneten graphischen Objekt auf dem graphischen Merkmal in dem Virtual-Reality-Raum zu simulieren.
  • In dem Beispiel aus 2 enthält der Informationscontroller der öffentlichen Sicherheit 58 weiterhin einen Positionsdatencontroller 72. Wenn zum Beispiel das Laserprojektionssystem 56 angewiesen wird, das graphischen Objekt auf das physikalische Merkmal (zum Beispiel ein Gebäude) in dem interessierenden geographischen Bereich zu projizieren und wenn das Laserprojektionssystem 56 nicht orthogonal mit Bezug auf die Oberfläche des physikalischen Merkmals ausgerichtet ist, wird das projizierte Bild des graphischen Objekts verzerrt, so wie es von den Beobachtern betrachtet wird. Daher ist der Positionsdatencontroller 72 konfiguriert, um eine Position des Laserprojektionssystems 56 in Echtzeit über ein Signal POS zu überwachen, das von dem Laserprojektionssystem 56 (oder direkt von der Bildgebungsplattform 52, auf der das Laserprojektionssystem 56 montiert ist) zur Verfügung gestellt wird. In dem Beispiel aus 2 kann der Positionsdatencontroller 72 Positionsbeziehungsdaten PD erzeugen, die mit der Position des Laserprojektionssystems 56 assoziiert sind. Während der Positionsdatencontroller 72 als eine separate Komponente oder ein separates Element im Vergleich zu der Virtual-Reality-Wiedergabemaschine 60 gezeigt ist, sollte verstanden werden, dass der Positionsdatencontroller 72 als Teil der Virtual-Reality-Wiedergabemaschine 60 integriert sein kann.
  • In dem Beispiel aus 2 werden die Positionsbeziehungsdaten PD dem Anzeigesystem 62 zur Verfügung gestellt, so dass das Anzeigesystem eine Positionsbeziehung des Laserprojektionssystems 56 relativ zu dem graphischen Merkmal für den Virtual-Reality-Raum ermitteln kann, basierend auf dreidimensionalen Virtual-Reality-Wiedergabedaten 3D von der Virtual-Reality-Wiedergabemaschine 60. Daher kann die Positionsbeziehung des Blicks des Nutzers in dem Virtual-Reality-Raum im Vergleich zu den graphischen Merkmalen des Virtual-Reality-Raums in gleicher Weise einer Positionsbeziehung zwischen dem Laserprojektionssystem 56 und dem physikalischen Merkmal des interessierenden geographischen Bereichs entsprechen, basierend auf dem Koordinatensystem, das dem Virtual-Reality-Raum und dem interessierenden geographischen Bereich gemeinsam ist. Entsprechend kann die Projektorschnittstelle 70 konfiguriert werden, um die Anweisungen INST für das Laserprojektionssystem 56 basierend auf den Positionsbeziehungsdaten zu erzeugen, um das Laserprojektionssystem 56 anzuweisen, das projizierte Bild bei einer vorbestimmten Orientierung auf das physikalische Merkmal zu projizieren, unabhängig von einer Position des Laserprojektionssystems 56 relativ zu der Oberfläche des physikalischen Merkmals. Mit anderen Worten kann die Projektion des graphischen Objekts auf die Oberfläche des physikalischen Merkmals als orthogonal zentriert und nicht verzerrt zur Verfügung gestellt werden, so wie von den Beobachtern betrachtet, unabhängig von der Position oder Orientierung des Laserprojektionssystems 56 relativ zu der Oberfläche des physikalischen Merkmals.
  • Zum Beispiel kann in Reaktion auf die Anordnung des graphischen Objekts auf dem graphischen Merkmal in dem Virtual-Reality-Raum die graphische Virtual-Reality-Nutzerschnittstelle 64 die graphische Darstellung des graphischen Objekts für den Nutzer basierend auf den Positionsbeziehungsdaten modifizieren. Auf diese Weise kann der Virtual-Reality-Raum für den Nutzer über die graphische Virtual-Reality-Nutzerschnittstelle 64 von einem Aussichtspunkt aus angezeigt werden, der eine Zusammenanordnung des Nutzers in dem Virtual-Reality-Raum und der Bildgebungsplattform 52 in dem interessierenden geographischen Bereich simuliert. Daher kann die graphische Virtual-Reality-Nutzerschnittstelle 64 das graphische Objekt auf dem graphischen Merkmal so zeigen, wie es für den Nutzer in der Perspektive erscheinen würde, wenn sich der Nutzer an dem entsprechenden physikalischen Ort in dem interessierenden geographischen Bereich befände (zum Beispiel dem physikalischen Ort des Laserprojektionssystems 56). Daher kann der Nutzer das graphische Objekt in derselben Weise wie das projizierte Bild von der Orientierung des Laserprojektionssystems 56 relativ zu der Projektionsoberfläche in dem physikalischen Merkmal betrachten, wie beobachtet von dem physikalischen Ort des Laserprojektionssystems 56. Da weiterhin der Positionsdatencontroller 72 die Position des Laserprojektionssystems 56 in Echtzeit überwachen kann, kann der Positionsdatencontroller 72 die Erzeugung der Anweisungen INST in Echtzeit basierend auf den Positionsbeziehungsdaten ermöglichen. Folglich kann der Positionsdatencontroller 72 das Laserprojektionssystem 56 anweisen, das projizierte Bild bei der vorbestimmten Orientierung des physikalischen Merkmals zu projizieren, unabhängig von einer Bewegung des Laserprojektionssystems 56 relativ zu der Projektionsoberfläche in dem physikalischen Merkmal, wie zum Beispiel von einem sich bewegenden unbemannten Luftfahrzeug oder einem Nothelferfahrzeug.
  • Zusätzlich enthält der Informationscontroller der öffentlichen Sicherheit 58 weiterhin eine Umgebungsdatenbank 74. Die Umgebungsdatenbank 74 kann konfiguriert sein, um Daten zu speichern, die Projektionsregeln definieren, welche mit einer Laserprojektion graphischer Objekte über das Laserprojektionssystem 56 assoziiert sind, abhängig von statischen oder dynamischen physikalischen oder äußeren Umweltbedingungen bezüglich der Umgebung, die mit dem interessierenden geographischen Bereich assoziiert ist. Zum Beispiel kann die Umgebungsdatenbank 74 Daten speichern, die mit Wetter, Temperatur und/oder Umgebungslicht assoziiert sind, die mit dem interessierenden geographischen Bereich assoziiert sind. Bei einem anderen Beispiel kann die Umgebungsdatenbank 74 Daten speichern, die mit den physikalischen Merkmalen des interessierenden geographischen Bereichs assoziiert sind, wie zum Beispiel die Struktur und/oder Materialien, die mit den Oberflächen der physikalischen Merkmale assoziiert sind (zum Beispiel Ziegel, Putz, Fenster, Konturen oder dergleichen). In dem Beispiel aus 2 wird die Umgebungsdatenbank 74 so gezeigt, dass sie ein externes Signal ENV_DT empfängt, das Echtzeit-Updates oder vorbestimmten Updates der Daten entspricht, die in der Umgebungsdatenbank 74 gespeichert sind, so dass die Projektionsregeln, die mit der Laserprojektion graphischer Objekte über das Laserprojektionssystem 56 assoziiert sind, im Wesentlichen kontinuierlich aktualisiert werden können.
  • In dem Beispiel aus 2 kann das Anzeigesystem 62 konfiguriert sein, um auf die Umgebungsdatenbank 74 zuzugreifen, basierend auf dem ausgewählten graphischen Objekt, das auf das jeweilige graphische Merkmal in dem Virtual-Reality-Raum angeordnet wird, so dass die in der Umgebungsdatenbank 74 gespeicherten Daten genutzt werden können, um die Anweisungen INST zu modifizieren, die von der Projektorschnittstelle 70 erzeugt werden. Zum Beispiel können die Umgebungsbedingungen, die mit dem interessierenden geographischen Bereich assoziiert sind, so wie sie in der Umgebungsdatenbank gespeichert sind, die Laserprojektion des graphischen Objekts auf die Oberfläche des physikalischen Merkmals in dem interessierenden geographischen Bereich beeinflussen. Entsprechend können die in der Umgebungsdatenbank 74 gespeicherten Daten implementiert werden, um die Laserprojektion des graphischen Objekts zu ändern, um eine bessere Betrachtung durch die Beobachter in dem interessierenden geographischen Bereich zu ermöglichen, wie zum Beispiel durch Auswählen spezifischer Farben, Projektionsliniendicken oder auf irgendeine andere Weise, um die Laserprojektion zu modifizieren.
  • Bei einem anderen Beispiel können die Projektionsregeln, die mit der Laserprojektion graphischer Objekte über das Laserprojektionssystem 56 assoziiert sind, so wie durch die in der Umgebungsdatenbank 74 gespeicherten Daten definiert, Projektionseinschränkungen enthalten. Zum Beispiel können die Projektionseinschränkungen auf bekannten dynamischen Bedingungen basieren, die mit dem interessierenden geographischen Bereich assoziiert sind (zum Beispiel einen Flugraum von Helikoptern oder anderen Luftfahrzeugen), oder sie können auf statischen Verbotsbedingungen basieren, die mit den physikalischen Merkmalen des interessierenden geographischen Bereichs assoziiert sind. Daher kann das Anzeigesystem 62 die Umgebungsdatenbank 74 überprüfen, um zu erfassen, ob die Anordnung des geographischen Objekts auf dem graphischen Merkmal und somit eine Projektion des entsprechenden projizierten Bildes auf einer identifizierten Projektionsoberfläche des physikalischen Merkmals die Projektionsregeln verletzt, basierend darauf, dass die Projektion auf einen unerlaubten Ort in dem interessierenden geographischen Bereich erfolgt. In Reaktion darauf, dass die Anordnung des graphischen Objekts auf dem graphischen Merkmal die Projektionsregeln verletzt, kann die Projektorschnittstelle 70 die Projektion des projizierten Bildes auf die identifizierte Projektionsoberfläche auf dem physikalischen Merkmal über die Anweisungen INST verhindern (zum Beispiel keine Anweisungen zur Verfügung stellen). Zusätzlich kann die graphische Virtual-Reality-Nutzerschnittstelle 64 die Verletzung von Projektionsregeln dem Nutzer anzeigen, und sie kann weiterhin automatisch das graphische Objekt auf einer anderen Oberfläche anzeigen, die einem vorgeschlagenen neu positionierten Ort in dem Virtual-Reality-Raum entspricht, der die Projektionsregeln nicht verletzt. Daher kann der Nutzer den vorgeschlagenen neu positionierten Ort als die Anordnung des graphischen Objekts akzeptieren, oder er kann ein anderes graphisches Merkmal auswählen, auf welchem das graphische Objekt anzuordnen ist.
  • Folglich kann das Informationssystem der öffentlichen Sicherheit 50 so implementiert werden, dass es eine Laserprojektion von Information der öffentlichen Sicherheit auf ein physikalisches Merkmal zur Verfügung stellt, wie zum Beispiel ein Gebäude, die für Menschen in dem interessierenden geographischen Bereich auf verschiedene Weise sichtbar ist, wie hier mit Bezug auf die 3 bis 9 genauer beschrieben ist.
  • 3 veranschaulicht ein beispielhaftes Diagramm 100 einer graphischen Virtual-Reality-Nutzerschnittstelle 102 gemäß einigen Ausführungsformen. Die graphische Virtual-Reality-Nutzerschnittstelle 102 kann der graphischen Virtual-Reality-Nutzerschnittstelle 64 im Beispiel aus 2 entsprechen, und sie kann somit Nutzersteuerungen zum Steuern des Informationscontrollers der öffentlichen Sicherheit 58 in dem Beispiel aus 2 entsprechen, zum Projizieren des projizierten Bildes auf das physikalische Merkmal des interessierenden geographischen Bereichs. Daher ist auf das Beispiel aus 2 bei der nachfolgenden Beschreibung des Beispiels aus 3 Bezug zu nehmen.
  • Die graphische Virtual-Reality-Nutzerschnittstelle 102 zeigt einen Virtual-Reality-Raum 104, der durch die Virtual-Reality-Wiedergabemaschine 60 erzeugt worden sein könnte (zum Beispiel über das Kameraschnittstellensystem 54). In dem Beispiel aus 3 ist der Virtual-Reality-Raum 104 als ein Satz aus drei Gebäuden 106, 108 und 110 gezeigt, die drei jeweiligen Gebäuden in dem interessierenden geographischen Bereich entsprechen können. Die graphische Virtual-Reality-Nutzerschnittstelle 102 enthält auch ein Kontextmenü 112. Das Kontextmenü 112 stellt dem Nutzer einen auswählbaren Kontext der öffentlichen Sicherheit zur Verfügung. Das Kontextmenü 112 zeigt einen Gefahrenkontext 114, einen Evakuierungskontext 116, einen Informationskontext 118, und es kann zusätzliche Kontexte enthalten. Die graphische Virtual-Reality-Nutzerschnittstelle 102 enthält auch eine graphische Objektbibliothek 120, die einen Satz graphischer Objekte zeigt, die von dem Nutzer ausgewählt werden können.
  • In dem Beispiel aus 3 wird der Gefahrenkontext 114 ausgewählt. Daher wird in dem Beispiel aus 3 die graphische Objektbibliothek 120 mit graphischen Objekten gefüllt, die gefährlichen oder riskanten Situationen entsprechen, und somit dem Gefahrenkontext 114. In dem Beispiel aus 3 enthalten die graphischen Objekte ein Feuer 122, eine aktiven Schützen 124 und einen Textblock 126, der dem Nutzer ermöglichen kann, spezifischen Text zu programmieren, der auf das physikalische Merkmal über das Laserprojektionssystem 56 zu projizieren ist. Wie hier beschrieben ist, kann der Nutzer daher ein graphisches Objekt aus der graphischen Objektbibliothek 120 auswählen und das graphische Objekt auf einem graphischen Merkmal anordnen, wie zum Beispiel einem der Gebäude 106, 108 oder 110. In Reaktion darauf kann die Projektorschnittstelle 70 die Anweisungen INST für das Laserprojektionssystem 56 erzeugen, um ein Laserbild zu projizieren, das dem angeordneten graphischen Objekt auf dem physikalischen Merkmal entspricht (zum Beispiel einem der jeweiligen entsprechenden physikalischen Gebäude) in dem interessierenden geographischen Bereich, wie hier beschrieben ist.
  • 4 veranschaulicht ein anderes beispielhaftes Diagramm 150 der graphischen Virtual-Reality-Schnittstelle 102 gemäß einigen Ausführungsformen. Das Diagramm 150 zeigt den Evakuierungskontext 116, wie er von dem Nutzer ausgewählt worden ist, um ein anderes Beispiel zu zeigen. In dem Beispiel aus 4 wird daher die graphische Objektbibliothek 120 durch graphische Objekte gefüllt, die Richtungen für Fußgänger oder Automobile anzeigen, wie zum Beispiel in Reaktion auf einen Verkehrsunfall oder zur Steuerung von Menschenmengen, um Anweisungen zum Verlassen eines Sportereignisses auf eine geordnete Art und Weise zur Verfügung zu stellen. In dem in 4 gezeigten Beispiel enthalten die graphischen Objekte einen Linkspfeil 152, einen Rechtspfeil 154, einen Aufwärtspfeil 156 und einen Abwärtspfeil 158. Zum Beispiel kann die graphische Objektbibliothek 120 des Evakuierungskontextes 116 zusätzliche graphische Objekte enthalten, wie zum Beispiel den Textblock 126 in dem Beispiel aus 3 oder ein Unfallortzeichen, ein Stoppzeichen, ein Langsamzeichen und/oder ein Vorfahrt-Gewähren-Zeichen. Wie in den nachfolgenden Beispielen der 4 bis 9 beschrieben ist, kann der Nutzer daher ein graphisches Objekt aus der graphischen Objektbibliothek 120 auswählen und das graphische Objekt auf einem graphischen Merkmal anordnen, wie zum Beispiel einem der Gebäude 106, 108 oder 110. In Reaktion darauf kann die Projektorschnittstelle 70 die Anweisungen INST für das Laserprojektionssystem 56 erzeugen, um ein Laserbild zu projizieren, das dem angeordneten graphischen Objekt auf dem physikalischen Merkmal (zum Beispiel einem der jeweiligen entsprechenden physikalischen Gebäude) in dem interessierenden geographischen Bereich entspricht.
  • 5 veranschaulicht noch ein anderes beispielhaftes Diagramm 200 der graphischen Virtual-Reality-Nutzerschnittstelle 102 gemäß einigen Ausführungsformen. Das Diagramm 200 zeigt, dass der Nutzer eines der graphischen Objekte auf einem graphischen Merkmal des Virtual-Reality-Raums 104 anordnet. In dem Beispiel aus 5 ist die Nutzereingabe als eine Hand 202 gezeigt, die den Rechtspfeil 154 aus der graphischen Objektbibliothek 120 ausgewählt hat. Der Nutzer kann somit eine „Klick-Zieh“-Operation ausführen, um den Rechtspfeil 154 auszuwählen, so dass ein Rechtspfeil-Icon 204 als von der Hand 202 bewegt gezeigt wird, nachdem der Nutzer den Rechtspfeil 154 aus der graphischen Objektbibliothek 120 ausgewählt hat, wobei dieser auf das graphische Merkmal des Virtual-Reality-Raums 104 bewegt wird, gezeigt als das graphische Gebäude 110. Zusätzlich kann der Nutzer auch in der Lage sein, zusätzliche Gesteneingaben mit Bezug auf die Positionierung des jeweiligen graphischen Objekts auszuführen (zum Beispiel des Rechtspfeil-Icons), wie zum Beispiel Zoomen, Drehen, Farbändern oder andere Arten zum Manipulieren des graphischen Objekts zur Anordnung (zum Beispiel basierend auf Drücken, Handgelenkrotation oder anderen Arten von Gesten).
  • 6 veranschaulicht noch ein weiteres beispielhaftes Diagramm 250 einer graphischen Virtual-Reality-Nutzerschnittstelle gemäß einigen Ausführungsformen. Das Diagramm 250 zeigt wie der Nutzer den Rechtspfeil-Icon 204 auf dem graphischen Gebäude 110 angeordnet hat. In Reaktion darauf wird die graphische Virtual-Reality-Nutzerschnittstelle 102 so konfiguriert, dass die Orientierung des Rechtspfeil-Icon 204 so eingestellt wird, dass es der Art und Weise entspricht, wie der entsprechende Rechtspfeil erscheinen würde, wenn er flach auf die Oberfläche des Gebäudes in dem interessierenden geographischen Bereich projiziert würde, entsprechend dem graphischen Gebäude 110 in dem Virtual-Reality-Raum 104. Zum Beispiel kann der Positionsdatencontroller 72 die Positionsbeziehungsdaten PC entsprechend der Position und Orientierung des Laserprojektionssystems 56 relativ zu dem Gebäude in dem interessierenden geographischen Bereich zur Verfügung stellen, entsprechend dem graphischen Gebäude 110 in dem Virtual-Reality-Raum 104. Daher kann die graphische Virtual-Reality-Nutzerschnittstelle 102 den Rechtspfeil-Icon 204 so orientieren, dass er in dem Virtual-Reality-Raum 104 so erscheint, wie das projizierte Bild des entsprechenden Pfeils in dem interessierenden geographischen Bereich erscheinen würde.
  • 7 veranschaulicht ein Beispiel eines Diagramms 300 zum Bereitstellen von Information der öffentlichen Sicherheit in einem interessierenden geographischen Bereich 302 gemäß einigen Ausführungsformen. Der interessierende geographische Bereich 302 kann in dem Virtual-Reality-Raum 104 durch eine Videoerfassung des interessierenden geographischen Bereichs 302 durch das Kameraschnittstellensystem 54 angezeigt werden. In dem Beispiel aus 7 wird der interessierende geographische Bereich 302 als ein Satz von drei Gebäuden 304, 306 und 308 gezeigt, die den Gebäuden 106, 108 und 110 in dem Virtual-Reality-Raum 104 entsprechen können. Der interessierende geographische Bereich 302 enthält auch ein Nothelferfahrzeug 310, welches ein projiziertes Bild 312 eines Rechtspfeils laserprojiziert, der dem Rechtspfeil-Icon 204 entsprechen kann, welcher auf dem graphischen Gebäude 110 in dem Virtual-Reality-Raum 104 angeordnet wurde. Daher befiehlt in Reaktion auf die Anordnung des Rechtspfeil-Icon 204 auf dem graphischen Gebäude 110 in dem Virtual-Reality-Raum 104 durch den Nutzer das Anzeigesystem 62 der Projektorschnittstelle 70, Anweisungen INST zu erzeugen, ein entsprechendes Bild eines Rechtspfeils auf eine identifizierte Projektionsoberfläche in dem Gebäude 304 des interessierenden geographischen Bereichs 302 zu projizieren. In Reaktion auf die Anordnung des Rechtspfeil-Icons 204 auf dem graphischen Gebäude 110 in dem Virtual-Reality-Raum 104 durch den Nutzer simuliert entsprechend das Anzeigesystem 62 eine Zusammenanordnung zwischen dem projizierten Bild 312 des Rechtspfeils auf dem Gebäude 308 in dem interessierenden geographischen Bereich 302 und dem angeordneten Rechtspfeil-Icon 204 auf dem graphischen Gebäude 110 in dem Virtual-Reality-Raum 104.
  • Es ist zu bemerken, dass der Informationscontroller der öffentlichen Sicherheit 58 konfiguriert sein kann, um mehrere Projektionen derselben oder verschiedener graphischer Objekte anzuzeigen, basierend auf denselben oder verschiedenen Bildgebungsplattformen 52. Zum Beispiel kann das Informationssystem der öffentlichen Sicherheit 50 eine Vielzahl von Bildgebungsplattformen 52 und/oder eine Vielzahl von graphischen Virtual-Reality-Nutzerschnittstellen 64 enthalten, um ein oder mehrere graphische Objekte auf einem oder mehreren physikalischen Merkmalen auf einem interessierenden geographischen Bereich anzuzeigen. Daher kann das Informationssystem der öffentlichen Sicherheit 50 für eine Vielzahl verschiedener Kontexte und auf eine Vielzahl unterschiedlicher Arten konfiguriert sein.
  • 8 veranschaulicht noch ein anderes beispielhaftes Diagramm 280 einer graphischen Virtual-Reality-Nutzerschnittstelle 102 gemäß einigen Ausführungsformen. Das Diagramm 280 zeigt, dass der Nutzer einen Rechtspfeil-Icon 204 auf dem graphischen Gebäude 110 angeordnet hat, wie in 6 veranschaulicht ist, und in Reaktion darauf das Nothelferfahrzeug 310 ein projiziertes Bild 312 eines Rechtspfeils laserprojiziert, welches dem Rechtspfeil-Icon 204 entspricht, wie in 7 veranschaulicht ist.
  • In dem Diagramm 280 wird angenommen, dass das projizierte Bild 312 des Rechtspfeils auf dem Gebäude 308 seine Position geändert hat (zum Beispiel aufgrund von Umweltvariablen, wie Temperatur und/oder Wind). In einer solchen Situation reflektieren die Videobilddaten VID des interessierenden geographischen Bereichs 302, die von dem Kameraschnittstellensystem 54 erfasst werden, die Positionsänderung des projizierten Bildes 312 des Rechtspfeils auf dem Gebäude 308. Entsprechend werden die Videobilddaten VID zurück in die Virtual-Reality-Wiedergabemaschine 60 geführt, und der Virtual-Reality-Raum 104 wird in nahezu Echtzeit aktualisiert, um eine Positionsänderung des Rechtspfeils zu reflektieren, angezeigt durch den Umriss des projizierten Rechtspfeils 282. Basierend auf der Anwesenheit des Umrisses des projizierten Rechtspfeils 282 kann die graphische Virtual-Reality-Nutzerschnittstelle 102 die Änderung der Position des projizierten Bildes 312 erfassen.
  • In einem Beispiel kann in Reaktion auf ein Erfassen der Positionsänderung die graphische Virtual-Reality-Nutzerschnittstelle 102 konfiguriert sein, um die Orientierung des Umrisses des projizierten Rechtspfeils 282 einzustellen, um den Rechtspfeil-Icon 204 wieder mit dem Umriss des projizierten Rechtspfeils 282 auszurichten, um die Positionsänderung des projizierten Bildes 312 zu kompensieren. In einem anderen Beispiel kann in Reaktion auf ein Erfassen der Positionsänderung die graphische Virtual-Reality-Nutzerschnittstelle 102 konfiguriert sein, um die Orientierung des Rechtspfeil-Icons 204 anzupassen, um wieder mit dem Umriss des projizierten Rechtspfeils 282 ausgerichtet zu sein, der die Positionsänderung des projizierten Bildes reflektiert. In noch einem anderen Beispiel kann die graphische Virtual-Reality-Nutzerschnittstelle 102 konfiguriert sein, um sowohl den Rechtspfeil-Icon 204 als auch den Umriss des projizierten Rechtspfeils 282 bei einer Durchschnittsposition neu zu positionieren (oder bei irgendeiner anderen Position), um eine Zusammenanordnung des Rechtspfeil-Icons 204 und des Umrisses des projizierten Rechtspfeils 282 zu simulieren.
  • 9 veranschaulicht noch ein anderes beispielhaftes Diagramm 290 einer graphischen Virtual-Reality-Nutzerschnittstelle 102 gemäß einigen Ausführungsformen. Das Diagramm 290 zeigt das Diagramm 280 des Virtual-Reality-Raums aus 8 nach einer Neuausrichtung des Umrisses des projizierten Rechtspfeils 282 (entsprechend einem projizierten Bild 312, das seine Position ändert) auf den Icon des Rechtspfeils 204. In Reaktion auf die Neuausrichtung identifiziert die Projektorschnittstelle 70 eine neu positionierte Projektionsoberfläche in dem Gebäude 308 und erzeugt Anweisungen INST für das Laserprojektionssystem 56, um das projizierte Bild 312 auf eine neu positionierte Projektionsoberfläche in dem Gebäude 308 auszugeben (zum Beispiel einzustellen und/oder fein abzustimmen), um eine Zusammenanordnung zwischen dem projizierten Bild 312 auf dem Gebäude 308 des interessierenden geographischen Bereichs und dem graphischen Gebäude 110 des Virtual-Reality-Raums 104 zu simulieren.
  • 10 veranschaulicht ein anderes Beispiel eines Diagramms 350 zum Bereitstellen von Information der öffentlichen Sicherheit in einem interessierenden geographischen Bereich gemäß einigen Ausführungsformen. Der interessierende geographische Bereich 302 kann in dem Virtual-Reality-Raum 104 durch Videoerfassung durch das Kameraschnittstellensystem 54 angezeigt werden. In dem Beispiel aus 10 enthält der interessierende geographische Bereich 302 drei Gebäude 304, 306 und 308 und das Nothelferfahrzeug 310. In dem Diagramm 350 ist das Nothelferfahrzeug 310 dargestellt, wie es eine Laserprojektion eines ersten projizierten Bildes 352 eines Linkspfeils projiziert, was dem entsprechen kann, dass ein Nutzer einen Linkspfeil 152 aus der graphischen Objektbibliothek 120 ausgewählt und auf dem graphischen Gebäude 110 in dem Virtual-Reality-Raum 104 angeordnet hat. Das Diagramm 350 zeigt auch das Nothelferfahrzeug 310, wie es ein zweites projiziertes Bild 354 eines Feuer-Icons laserprojiziert, was dem entsprechen kann, dass ein Nutzer das Feuer 122 aus der graphischen Objektbibliothek 120 ausgewählt hat und auf dem graphischen Gebäude 104 in dem Virtual-Reality-Raum 104 angeordnet hat.
  • Zum Beispiel kann das Nothelferfahrzeug 310 zwei separate Laserprojektionssysteme 56 enthalten, denen separat durch die Projektorschnittstelle 70 Befehle zukommen oder von zwei separaten jeweiligen Projektorschnittstellen, basierend auf einer Implementierung von Nutzersteuerungen über die graphische Virtual-Reality-Nutzerschnittstelle 64 oder über zwei getrennte jeweilige graphische Virtual-Reality-Nutzerschnittstellen 64. Alternativ kann ein einziger Projektor mehrere graphische Objekte in eine einzige Projektion durch die Projektorschnittstelle 70 zusammenführen. Die Projektion des ersten und des zweiten projizierten Bildes 352 und 354 kann beispielsweise auf einem Implementieren separater Kontexte von dem Kontextmenü 112 basiert werden oder auf separate graphische Objekte von derselben graphischen Objektbibliothek 120, die mit einem gegebenen Kontext assoziiert ist.
  • Entsprechend kann das Informationssystem 50 der öffentlichen Sicherheit Flexibilität beim Bereitstellen von Information der öffentlichen Sicherheit zur Verfügung stellen. In dem Beispiel aus 10 kann das Informationssystem der öffentlichen Sicherheit 50 das erste projizierte Bild 352 auf das Gebäude 308 projizieren, um Feuerwehrleuten eine generelle Richtung anzuzeigen, wo ein brennendes Feuer zu finden ist, und es kann das zweite projizierte Bild 354 auf das Gebäude 304 projizieren, um den Feuerwehrleuten anzuzeigen, auf welchem spezifischen Stockwerk oder an welchem spezifischen Ort das Feuer brennt. Folglich können die Feuerwehrleute schnell und in einfacher Weise die Notfallsituation ermitteln, um den Feuerwehrleuten zu ermöglichen, schneller zu reagieren.
  • 11 veranschaulicht noch ein anderes Beispiel eines Diagramms 400 zum Bereitstellen von Information der öffentlichen Sicherheit in einem interessierenden geographischen Bereich 402 gemäß einigen Ausführungsformen. Der interessierende geographische Bereich kann in einem Virtual-Reality-Raum durch Videoerfassung über das Kameraschnittstellensystem 54 angezeigt werden. Das Diagramm 400 zeigt den interessierenden geographischen Bereich 402 in einer Draufsicht, um eine Kreuzung 404 eines Stadtblocks zu zeigen, der Gebäude 406, 408, 410 und 412 enthält. In dem Diagramm 400 ist ein erstes Nothelferfahrzeug 414 in der Kreuzung 404 des Stadtblocks angeordnet. Zum Beispiel kann das erste Nothelferfahrzeug 414 ein Kameraschnittstellensystem 54 enthalten, das konfiguriert ist, um die Videobilddaten der Kreuzung 404 des Stadtblocks zu erfassen, einschließlich den Merkmalen, die den Gebäuden 406, 408, 410 und 412 entsprechen. Das Diagramm 400 enthält auch ein zweites Nothelferfahrzeug 416, das ein erstes projiziertes Bild 418 laserprojiziert, welches einem Linkspfeil auf dem Gebäude 412 entspricht, sowie ein drittes Nothelferfahrzeug 420, das ein zweites projiziertes Bild 422 laserprojiziert, das einem Linkspfeil auf dem Gebäude 406 entspricht.
  • Zum Beispiel können die Nothelferfahrzeuge 416 und 420 jedes ein Laserprojektionssystem 56 enthalten, das über eine gemeinsame Projektorschnittstelle 70 mit Befehlen versorgt wird, oder durch zwei getrennte jeweilige Projektorschnittstellen (zum Beispiel in dem ersten Nothelferfahrzeug 414 oder einem Einsatzleitungszentrum angeordnet). Daher kann ein gemeinsamer Nutzer Nutzersteuerungen über eine graphische Virtual-Reality-Nutzerschnittstelle 64 oder über zwei getrennte jeweilige Virtual-Reality-Nutzerschnittstellen implementieren, um separat die Projektion des ersten und des zweiten projizierten Bildes 418 und 422 zu steuern. Bei noch einem anderen Beispiel kann das erste Nothelferfahrzeug 414 mehrere Kameraschnittstellensysteme enthalten, die zum Beispiel mit der Projektion von jedem von dem ersten und dem zweiten projizierten Bild 418 und 422 über die jeweiligen zweiten und dritten Nothelferfahrzeuge 416 und 420 assoziiert sind. Bei noch einem anderen Beispiel können mehrere zusätzliche Kameraschnittstellensysteme, die getrennt angeordnet sind (zum Beispiel über verschiedene Nothelferfahrzeuge) implementiert sein, um Videobilddaten von verschiedenen Teilen des interessierenden geographischen Bereichs zu erfassen, wie zum Beispiel Videobilddaten von Teilen des interessierenden geographischen Bereichs zu erfassen, die nicht von einem einzelnen Kameraschnittstellensystem erfasst werden können. In diesen Beispielen können daher die Videobilddaten über eine oder mehrere Virtual-Reality-Wiedergabemaschinen integriert sein, um einen einzigen Virtual-Reality-Raum zu erzeugen, der die Nutzerinteraktion von einem oder mehreren getrennten Anzeigesystemen ermöglichen kann, wie zum Beispiel von jedem von dem zweiten und dem dritten Nothelferfahrzeug 416 und 420.
  • Entsprechend kann das Informationssystem der öffentlichen Sicherheit 50 Flexibilität beim Bereitstellen von Information der öffentlichen Sicherheit über mehrere Nothelferfahrzeuge oder Bildgebungsplattformen 52 zur Verfügung stellen. In dem Beispiel aus 11 kann das Informationssystem der öffentlichen Sicherheit 50 eine Projektion des ersten projizierten Bilds 418 auf das Gebäude 412 und des zweiten projizierte Bilds 422 auf das Gebäude 406 implementieren, um Menschen oder Nothelfern anzuzeigen, dass sie sich in eine allgemeine Richtung bewegen sollen, die durch den Pfeil 424 angezeigt ist, zum Beispiel, um den Bereich zu evakuieren. Im Ergebnis können Menschen oder Nothelfer schnell und einfach die Bewegungsrichtung ermitteln, um sich auf sichere und bedachte Weise zu bewegen.
  • In Anbetracht der vorstehenden strukturellen und funktionellen Merkmale, welche oben beschrieben sind, kann ein Verfahren gemäß verschiedenen Aspekten der vorliegenden Offenbarung besser mit Bezug auf 12 eingeschätzt werden. Während zu Zwecken der Einfachheit der Erläuterung das Verfahren aus 12 mittels serieller Ausführung gezeigt und beschrieben ist, sollte es verstanden und erkannt werden, dass die vorliegende Erfindung nicht durch die veranschaulichte Reihenfolge beschränkt ist, da einige Aspekte gemäß der vorliegenden Erfindung in verschiedenen Reihenfolgen und/oder gleichzeitig mit anderen Aspekten auftreten können, bezogen auf das hier Gezeigte und Beschriebene. Darüber hinaus sind möglicherweise nicht alle veranschaulichten Merkmale erforderlich, um ein Verfahren gemäß einem Aspekt der vorliegenden Erfindung zu implementieren.
  • 12 veranschaulicht ein Verfahren 450 zum Bereitstellen von Information der öffentlichen Sicherheit gemäß einigen Ausführungsformen. Bei 452 wird ein Virtual-Reality-Raum (zum Beispiel der Virtual-Reality-Raum 14) eines interessierenden geographischen Bereichs (zum Beispiel des interessierenden geographischen Bereichs 302) mit einem graphischen Merkmal (zum Beispiel dem graphischen Gebäude 110), das ein physikalisches Merkmal (zum Beispiel das Gebäude 308) des interessierenden geographischen Bereichs repräsentiert, über eine Virtual-Reality-Wiedergabemaschine erzeugt (zum Beispiel die Virtual-Reality-Wiedergabemaschine 12). Bei 454 wird eine graphische Virtual-Reality-Nutzerschnittstelle (zum Beispiel die graphische Nutzerschnittstelle 18) mit dem erzeugten Virtual-Reality-Raum und einem Menü (zum Beispiel der graphischen Objektbibliothek 120) mit einer Vielzahl graphischer Objekte (zum Beispiel den graphischen Objekten 122, 124, 126) über eine Anzeige (zum Beispiel das Anzeigesystem 16) angezeigt. Bei 456 wird eine Nutzereingabe einer Anordnung eines graphischen Objekts (zum Beispiel des Pfeils 204) in dem Virtual-Reality-Raum über die graphische Virtual-Reality-Nutzerschnittstelle durch den elektronischen Prozessor 65 erfasst. Bei 458 wird eine Projektionsoberfläche auf dem physikalischen Merkmal des interessierenden geographischen Bereichs basierend auf der Anordnung des graphischen Objekts in dem Virtual-Reality-Raum durch die Projektorschnittstelle 70 bestimmt. In einer Ausführungsform identifiziert die Projektorschnittstelle 70 Koordinaten in dem Virtual-Reality-Raum entsprechend der Anordnung des graphischen Objekts, bestimmt Projektionskoordinaten auf dem physikalischen Merkmal des interessierenden geographischen Bereichs entsprechend den identifizierten Koordinaten in dem Virtual-Reality-Raum und identifiziert eine Oberfläche auf dem physikalischen Merkmal durch Abbilden der bestimmten Projektionskoordinaten auf das physikalische Merkmal. Weiterhin bestimmt die Projektorschnittstelle 70, ob die identifizierte Oberfläche eine Projektionsregel verletzt, die wenigstens eine der Oberflächen definiert, die für die Projektion wenigstens eines der graphischen Objekte zulässig ist. Wenn die identifizierte Oberfläche keine Projektionsregel verletzt, wählt die Projektorschnittstelle 70 die identifizierte Oberfläche als die Projektionsoberfläche aus, andernfalls wählt die Projektorschnittstelle 70 eine andere Oberfläche auf dem physikalischen Merkmal aus, die keine Projektionsregel verletzt.
  • Als nächstes werden bei 460 Anweisungen für einen Projektor (zum Beispiel das Laserprojektionssystem 56) zum Projizieren eines Bildes (zum Beispiel des projizierten Bildes 312) des angeordneten graphischen Objekts auf dem physikalischen Merkmal über die Projektorschnittstelle (zum Beispiel die Projektorschnittstelle 20) erzeugt, um eine Zusammenanordnung zwischen dem projizierten Bild auf dem physikalischen Merkmal in dem interessierenden geographischen Bereich und dem angeordneten graphischen Bereich auf dem graphischen Merkmal in dem Virtual-Reality-Raum zu simulieren. In einer Ausführungsform erzeugt die Projektorschnittstelle 70 Anweisungen, die Projektionsparameter enthalten, die basierend auf wenigstens einem von einem aktuellen Umgebungszustand, der mit dem interessierenden geographischen Bereich assoziiert ist, einer Struktur der identifizierten Projektionsoberfläche und einem Layout der identifizierten Projektionsoberfläche bestimmt werden. In einer Ausführungsform werden die Projektionsparameter weiterhin basierend auf den Positionsbeziehungsdaten bestimmt, die mit der Projektion relativ zu der Projektionsoberfläche assoziiert sind, um eine vorbestimmte Orientierung des projizierten Bildes auf der Projektionsoberfläche unabhängig von einer Position des Projektors relativ zu der Projektoroberfläche zur Verfügung zu stellen. In einer Ausführungsform identifiziert die Projektorschnittstelle 70 eine andere Projektionsoberfläche auf dem physikalischen Merkmal des interessierenden geographischen Bereichs basierend auf der Anordnung des wenigstens einen der graphischen Objekte in dem Virtual-Reality-Raum und erzeugt Anweisungen für wenigstens einen anderen Projektor (an einem anderen Ort angeordnet), um das angeordnete graphische Objekt auf die eine andere Projektionsoberfläche in dem physikalischen Merkmal des interessierenden geographischen Bereichs zu projizieren.
  • In der vorangehenden Spezifikation sind spezifische Ausführungsformen beschrieben worden. Fachleuten auf dem Gebiet ist jedoch klar, dass verschiedene Modifizierungen und Änderungen vorgenommen werden können, ohne von dem Geist der Erfindung abzuweichen, wie in den Ansprüchen unten dargelegt. Dementsprechend sind die Spezifikation und die Abbildungen in einem eher illustrativen als einem restriktiven Sinne zu verstehen und alle solche Modifikationen sollen in dem Schutzbereich der vorliegenden Lehren enthalten sein.
  • Die Nutzen, Vorteile, Problemlösungen und jedes denkbare Element, das dazu führt, dass irgendein Nutzen, Vorteil oder irgendeine Lösung eintritt oder ausgeprägter wird, sollen nicht als kritische, erforderliche oder essentielle Merkmale oder Elemente eines beliebigen Anspruchs oder aller Ansprüche ausgelegt werden. Die Erfindung wird ausschließlich durch die angehängten Ansprüche definiert, einschließlich jeder beliebigen Änderung, die während der Rechtshängigkeit der vorliegenden Anmeldung vorgenommen wird, und aller Äquivalente solcher Ansprüche, wie veröffentlicht.
  • Darüber hinaus sollen in diesem Dokument relationale Ausdrücke, wie zum Beispiel, erste und zweite, oben und unten, und dergleichen ausschließlich verwendet werden, um eine Entität oder Aktion von einer anderen Entität oder Aktion zu unterscheiden, ohne notwendigerweise irgend eine tatsächliche solche Beziehung oder Reihenfolge zwischen solchen Entitäten oder Aktionen zu erfordern oder zu implizieren. Die Ausdrücke „umfasst“, „umfassend“, „hat“, „habend“, „beinhalten“, „beinhaltend“, „enthalten“, „enthaltend“ oder eine beliebige Variation davon sollen eine nicht-exklusive Einbeziehung abdecken, so dass ein Prozess, Verfahren, Artikel oder eine Vorrichtung, die eine Liste von Elementen umfassen, haben, beinhalten, enthalten, nicht nur solche Elemente beinhalten, sondern andere Elemente beinhalten können, die nicht ausdrücklich aufgeführt werden, oder solchen Prozessen, Verfahren, Artikeln oder Vorrichtungen inhärent sind. Ein Element, das fortfährt mit „umfasst... ein“, „hat... ein“, „beinhaltet... ein“, „enthält... ein“, schließt nicht, ohne weitere Auflagen, die Existenz zusätzlicher identischer Elemente in dem Prozess, Verfahren, Artikel oder der Vorrichtung aus, die das Element umfassen, haben, beinhalten, enthalten. Die Ausdrücke „eine“ und „ein“ werden als eins oder mehr definiert, sofern hierin nichts anderes explizit festgelegt ist. Die Ausdrücke „im Wesentlichen“, „essentiell“, „ungefähr“, „etwa“ oder eine beliebige andere Version davon wurden als „nahe bei sein“ definiert, wie dem Fachmann auf dem Gebiet klar ist, und in einer nicht begrenzenden Ausführungsform wird der Ausdruck definiert, innerhalb von 10 %, in einer anderen Ausführungsform innerhalb von 5 % in einer anderen Ausführungsform innerhalb von 1 % und in einer anderen Ausführungsform innerhalb von 0,5 % zu sein. Der Ausdruck „gekoppelt“, wie er hierin verwendet wird, wird als „verbunden“ definiert, obwohl nicht notwendigerweise direkt und nicht notwendigerweise mechanisch. Eine Vorrichtung oder Struktur, die in einer bestimmten Art und Weise „konfiguriert“ ist, ist mindestens auf diese Art und Weise konfiguriert, kann aber auch auf mindestens eine Art und Weise konfiguriert sein, die nicht aufgeführt ist.
  • Es ist gewünscht, dass einige Ausführungsformen einen oder mehrere generische oder spezialisierte Prozessoren (oder „Verarbeitungsvorrichtungen“) umfassen, wie zum Beispiel Mikroprozessoren, digitale Signalprozessoren, kundenspezifische Prozessoren und freiprogrammierbare Feld-Gate-Arrays (FPGAs) und eindeutige gespeicherte Programmanweisungen (die sowohl Software als auch Firmware umfassen), die den einen oder mehrere Prozessoren steuern, um in Verbindung mit bestimmten Nicht-Prozessor-Schaltungen, einige, die meisten oder alle der Funktionen des Verfahrens und/oder der Vorrichtung, die hierin beschrieben werden, zu implementieren. Alternativ können einige oder alle Funktionen durch eine Zustandsmaschine implementiert werden, die über keine gespeicherten Programmanweisungen verfügt, oder in einer oder mehreren anwendungsspezifischen integrierten Schaltungen (ASICs), in denen jede Funktion oder einige Kombinationen von bestimmten der Funktionen, als kundenspezifische Logik implementiert sind. Selbstverständlich kann eine Kombination der zwei Ansätze verwendet werden.
  • Darüber hinaus kann eine Ausführungsform als ein computerlesbares Speichermedium implementiert sein, das über einen darauf gespeicherten computerlesbaren Code zum Programmieren eines Computers (der zum Beispiel einen Prozessor umfasst) verfügt, um ein hierin beschriebenes und beanspruchtes Verfahren durchzuführen. Beispiele solcher computerlesbaren Speichermedien umfassen, ohne darauf beschränkt zu sein: eine Festplatte, eine CD-ROM, eine optische Speichervorrichtung, eine magnetische Speichervorrichtung, einen ROM (Nur-LeseSpeicher), einen PROM (Programmierbarer Lesespeicher), einen EPROM (Löschbarer Programmierbarer Lesespeicher), einen EEPROM (Elektrisch Löschbarer Programmierbarer Lesespeicher) und einen Flash-Speicher. Weiterhin ist zu erwarten, dass ein Fachmann auf dem Gebiet, ungeachtet möglicher erheblicher Anstrengungen und einer großen Designauswahl, die zum Beispiel durch eine zur Verfügung stehende Zeit, der aktuellen Technologie und ökonomische Überlegungen begründet ist, geleitet durch die hierin offenbarten Konzepte und Prinzipien, ohne Weiteres in der Lage ist solche Softwareanweisungen und Programme und ICs mit minimalem Versuchsaufwand zu erzeugen.
  • Die Zusammenfassung der Offenbarung wird zur Verfügung gestellt, um dem Leser zu erlauben, die Natur der technischen Offenbarung schnell zu erkennen. Es wird mit dem Verständnis eingereicht, dass es nicht verwendet wird, um den Geist oder die Bedeutung der Ansprüche zu interpretieren oder zu begrenzen. Zusätzlich ist der vorangehenden ausführlichen Beschreibung zu entnehmen, dass verschiedene Merkmale in verschiedenen Ausführungsformen zusammengruppiert werden, um die Offenbarung zu straffen. Dieses Offenbarungsverfahren soll nicht als ein Reflektieren einer Intention interpretiert werden, dass die beanspruchten Ausführungsformen mehr Merkmale erfordern, als ausdrücklich in jedem Anspruch vorgetragen werden. Vielmehr liegt, wie aus den folgenden Ansprüchen hervorgeht, ein erfinderischer Gegenstand in weniger als allen Merkmalen einer einzelnen offenbarten Ausführungsform vor. Somit werden die folgenden Ansprüche hierdurch in die ausführliche Beschreibung integriert, wobei jeder Anspruch für sich alleine als ein getrennt beanspruchter Gegenstand steht.

Claims (19)

  1. Verfahren zum Projizieren graphischer Objekte, wobei das Verfahren umfasst: Erzeugen eines Virtual-Reality-Raums eines interessierenden geographischen Bereichs, wobei der Virtual-Reality-Raum ein graphisches Merkmal enthält, das ein physikalisches Merkmal des interessierenden geographischen Bereichs repräsentiert; Anzeigen einer graphischen Virtual-Reality-Nutzerschnittstelle („graphical user interface“ (GUI)), die den erzeugten Virtual-Reality-Raum und ein Menü enthält, das eine Vielzahl graphischer Objekte aufweist; Erfassen einer Nutzereingabe, die für eine Anordnung von wenigstens einem der graphischen Objekte in dem Virtual-Reality-Raum kennzeichnend ist; Bestimmen einer Projektionsoberfläche auf dem physikalischen Merkmal des interessierenden geographischen Bereichs basierend auf der Anordnung des wenigstens einen graphischen Objekts in dem Virtual-Reality-Raum; und Erzeugen von Anweisungen für einen Projektor, um ein Bild von dem wenigstens einen von den graphischen Objekten auf die Projektionsoberfläche in dem physikalischen Merkmal des interessierenden geographischen Bereichs zu projizieren.
  2. Verfahren nach Anspruch 1, wobei das Anzeigen der Virtual-Reality-GUI umfasst: Empfangen von Kontextdaten, die mit einem Kontext der öffentlichen Sicherheit assoziiert sind; Auswählen von graphischen Objekten, die den Kontextdaten entsprechen; und Anzeigen der Virtual-Reality-GUI mit dem erzeugten Virtual-Reality-Raum und dem Menü, welches die ausgewählten graphischen Objekte aufweist.
  3. Verfahren nach Anspruch 1, weiterhin umfassend: Anzeigen einer Vielzahl von Kontexten der öffentlichen Sicherheit; Erfassen einer Nutzereingabe, die für eine Auswahl von einem aus der Vielzahl von Kontexten der öffentlichen Sicherheit kennzeichnend ist; und Filtern des Menüs, so dass es graphische Objekte enthält, die dem ausgewählten Kontext der öffentlichen Sicherheit entsprechen.
  4. Verfahren nach Anspruch 1, wobei das Bestimmen der Projektionsoberfläche umfasst: Identifizieren von Koordinaten in dem Virtual-Reality-Raum, die der Anordnung des wenigstens einen der graphischen Objekte entsprechen; Bestimmen von Projektionskoordinaten auf dem physikalischen Merkmal des interessierenden geographischen Bereichs, die den identifizierten Koordinaten in dem Virtual-Reality-Raum entsprechen; und Identifizieren einer Oberfläche auf dem physikalischen Merkmal des interessierenden geographischen Bereichs durch Abbilden der bestimmten Projektionskoordinaten auf das physikalische Merkmal.
  5. Verfahren nach Anspruch 4, weiterhin umfassend: Bestimmen, ob die identifizierte Oberfläche eine Projektionsregel verletzt, die wenigstens eine von Oberflächen definiert, die für die Projektion des wenigstens einen von den graphischen Objekten zulässig ist; und Auswählen der Oberfläche als die Projektionsoberfläche, wenn die identifizierte Oberfläche die Projektionsregel nicht verletzt.
  6. Verfahren nach Anspruch 5, weiterhin umfassend: Identifizieren einer anderen Oberfläche auf dem physikalischen Merkmal, das die Projektionsregel nicht verletzt, wenn die identifizierte Oberfläche die Projektionsregel verletzt.
  7. Verfahren nach Anspruch 1, wobei das Erzeugen des Virtual-Reality-Raums umfasst: Erhalten von dreidimensionalen (3D) virtuellen Wiedergabedaten, die dem physikalischen Merkmal des interessierenden geographischen Bereichs entsprechen; und Erzeugen des Virtual-Reality-Raums teilweise basierend auf den dreidimensionalen virtuellen Wiedergabedaten.
  8. Verfahren nach Anspruch 1, wobei die Anweisungen für den Projektor Projektionsparameter enthalten, die basierend auf wenigstens einem von einem aktuellen Umgebungszustand, der mit dem interessierenden geographischen Bereich assoziiert ist, einer Struktur der Projektionsoberfläche und einem Layout der Projektionsoberfläche bestimmt werden.
  9. Verfahren nach Anspruch 1, wobei die Anweisungen weiterhin Projektionsparameter enthalten, die basierend auf Positionsbeziehungsdaten bestimmt werden, die mit dem Projektor relativ zu der Projektionsoberfläche assoziiert sind, um eine vorbestimmte Orientierung des projizierten Bildes auf der Projektionsoberfläche zur Verfügung zu stellen, unabhängig von einer Position des Projektors relativ zu der Projektionsoberfläche.
  10. Verfahren nach Anspruch 1, weiterhin umfassend: Identifizieren einer anderen Projektionsoberfläche auf dem physikalischen Merkmal des interessierenden geographischen Bereichs basierend auf der Anordnung des wenigstens einen der graphischen Objekte in dem graphischen Merkmal; und Erzeugen von Anweisungen für wenigstens einen anderen Projektor, um das wenigstens eine der graphischen Objekte auf die eine andere Projektionsoberfläche in dem physikalischen Merkmal des interessierenden geographischen Bereichs zu projizieren, wobei sich der Projektor und der wenigstens eine andere Projektor an getrennten Orten befinden.
  11. System zum Projizieren graphischer Objekte, wobei das System umfasst: eine Virtual-Reality-Wiedergabemaschine („virtual reality“ (VR)), die konfiguriert ist, um einen Virtual-Reality-Raum eines interessierenden geographischen Bereichs zu erzeugen, wobei der Virtual-Reality-Raum ein graphisches Merkmal enthält, das ein physikalisches Merkmal des interessierenden geographischen Bereichs repräsentiert; ein Anzeigesystem, das einen elektronischen Prozessor und eine Anzeige umfasst, wobei das Anzeigesystem mit der VR-Wiedergabemaschine gekoppelt ist, wobei die Anzeige konfiguriert ist, um eine graphische Virtual-Reality-Nutzerschnittstelle („graphical user interface“ (GUI)) mit dem erzeugten Virtual-Reality-Raum und einem Menü anzuzeigen, das eine Vielzahl graphischer Objekte aufweist, und der elektronische Prozessor konfiguriert ist, um eine Nutzereingabe zu erfassen, die für eine Anordnung von wenigstens einem der graphischen Objekte in dem Virtual-Reality-Raum kennzeichnend ist; und eine Projektorschnittstelle, die mit dem Anzeigesystem gekoppelt ist, wobei die Projektorschnittstelle konfiguriert ist zum Bestimmen einer Projektionsoberfläche auf dem physikalischen Merkmal des interessierenden geographischen Bereichs basierend auf der Anordnung des wenigstens einen graphischen Objekts in dem Virtual-Reality-Raum, und Erzeugen von Anweisungen für einen Projektor, um ein Bild des wenigstens einen der graphischen Objekte auf die Projektionsoberfläche in dem physikalischen Merkmal des interessierenden geographischen Bereichs zu projizieren.
  12. System nach Anspruch 11, das weiterhin eine Kameraschnittstelle umfasst, die konfiguriert ist, um Bilddaten des interessierenden geographischen Bereichs zu erzeugen, und wobei die VR-Wiedergabemaschine den Virtual-Reality-Raum teilweise basierend auf den Bilddaten erzeugt.
  13. System nach Anspruch 11, das weiterhin eine Tiefenkameraschnittstelle umfasst, die konfiguriert ist, um dreidimensionale (3D) Bilddaten des interessierenden geographischen Bereichs zu erzeugen, und wobei weiterhin die VR-Wiedergabemaschine den Virtual-Reality-Raum teilweise basierend auf den 3D-Bilddaten erzeugt.
  14. System nach Anspruch 11, wobei die Anzeige konfiguriert ist zum: Empfangen von Kontextdaten, die mit einem Kontext der öffentlichen Sicherheit assoziiert sind; und Anzeigen des Menüs mit graphischen Objekten, die dem Kontext der öffentlichen Sicherheit entsprechen.
  15. System nach Anspruch 11, wobei die Virtual-Reality-GUI weiterhin eine Vielzahl von Kontexten der öffentlichen Sicherheit enthält und wobei in Reaktion darauf, dass eine Nutzereingabe einen aus der Vielzahl von Kontexten der öffentlichen Sicherheit auswählt, die virtuelle GUI das Menü filtert, so dass es graphische Objekte enthält, die dem ausgewählten Kontext der öffentlichen Sicherheit entsprechen.
  16. System nach Anspruch 11, wobei die Projektorschnittstelle weiterhin konfiguriert ist zum: Identifizieren von Koordinaten in dem Virtual-Reality-Raum, die der Anordnung des wenigstens einen der graphischen Objekte entsprechen; Bestimmen von Projektionskoordinaten auf dem physikalischen Merkmal des interessierenden geographischen Bereichs, die den identifizierten Koordinaten in dem Virtual-Reality-Raum entsprechen; Identifizieren einer Oberfläche auf dem physikalischen Merkmal des interessierenden geographischen Bereichs durch Abbilden der bestimmten Projektionskoordinaten auf das physikalische Merkmal; und Auswählen der Oberfläche als die Projektionsoberfläche basierend auf einer Bestimmung, dass die identifizierte Oberfläche keine Projektionsregel verletzt, welche wenigstens eine von Oberflächen definiert, die für die Projektion des wenigstens einen der graphischen Objekte zulässig ist.
  17. System nach Anspruch 11, wobei die Anzeige als eine vom Nutzer tragbare Virtual-Reality-Schnittstelle plus Anzeigesystem konfiguriert ist.
  18. System nach Anspruch 11, wobei die Virtual-Reality-Wiedergabemaschine konfiguriert ist, um den Virtual-Reality-Raum des interessierenden geographischen Bereichs basierend auf Videobilddaten zu erzeugen, die über eine Vielzahl von Kameraschnittstellen erzeugt werden, die an einer jeweiligen Vielzahl getrennter Orte angeordnet sind, wobei die Virtual-Reality-Wiedergabemaschine konfiguriert ist, um die Videobilddaten, die über die Vielzahl von Kameraschnittstellen erzeugt werden zu integrieren, um den Virtual-Reality-Raum zu erzeugen.
  19. Informationssystem der öffentlichen Sicherheit, umfassend: eine Bildgebungsplattform mit einer Kameraschnittstelle und einem Projektor, wobei die Kameraschnittstelle konfiguriert ist, um Bilddaten zu erzeugen, die einem interessierenden geographischen Bereich entsprechen; und einen Informationscontroller der öffentlichen Sicherheit, der kommunikationsfähig mit der Bildgebungsplattform gekoppelt ist, wobei der Informationscontroller der öffentlichen Sicherheit enthält: eine Virtual-Reality-Wiedergabemaschine („virtual reality“ (VR)), die konfiguriert ist, um einen Virtual-Reality-Raum teilweise basierend auf den Bilddaten des interessierenden geographischen Bereichs zu erzeugen, wobei der Virtual-Reality-Raum ein graphisches Merkmal enthält, das ein physikalisches Merkmal des interessierenden geographischen Bereichs repräsentiert, eine Anzeige, die konfiguriert ist, um eine graphische Virtual-Reality-Nutzerschnittstelle („graphical user interface“ (GUI)) mit dem erzeugten Virtual-Reality-Raum und einem Menü zu erzeugen, das eine Vielzahl graphischer Objekte aufweist, einen elektronischen Prozessor, der konfiguriert ist, um eine Nutzereingabe zu erfassen, die für eine Anordnung von wenigstens einem der graphischen Objekte in dem Virtual-Reality-Raum kennzeichnend ist, und eine Projektorschnittstelle, die konfiguriert ist zum Bestimmen einer Projektionsoberfläche auf dem physikalischen Merkmal des interessierenden geographischen Bereichs basierend auf der Anordnung des wenigstens einen der graphischen Objekte in dem Virtual-Reality-Raum, und Senden von Anweisungen, die Projektionsparameter mit der Projektionsoberfläche und dem wenigstens einen der geographischen Objekte identifizieren, zu dem Projektor, wobei der Projektor, in Reaktion auf ein Empfangen der Anweisungen von dem Projektor, ein Bild des wenigstens einen der graphischen Objekte auf die Projektionsoberfläche in dem physikalischen Merkmal des interessierenden geographischen Bereichs projiziert.
DE112017005059.6T 2016-10-05 2017-09-25 System und verfahren zum projizieren graphischer objekte Pending DE112017005059T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/285,528 2016-10-05
US15/285,528 US10802665B2 (en) 2016-10-05 2016-10-05 System and method for projecting graphical objects
PCT/US2017/053159 WO2018067333A1 (en) 2016-10-05 2017-09-25 System and method for projecting graphical objects

Publications (1)

Publication Number Publication Date
DE112017005059T5 true DE112017005059T5 (de) 2019-06-13

Family

ID=60022208

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017005059.6T Pending DE112017005059T5 (de) 2016-10-05 2017-09-25 System und verfahren zum projizieren graphischer objekte

Country Status (4)

Country Link
US (1) US10802665B2 (de)
DE (1) DE112017005059T5 (de)
GB (1) GB2568620B (de)
WO (1) WO2018067333A1 (de)

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10690918B2 (en) * 2016-12-19 2020-06-23 United States Of America As Represented By The Administrator Of Nasa Optical head-mounted displays for laser safety eyewear
US10360723B2 (en) * 2017-08-08 2019-07-23 Christie Digital Systems Usa, Inc. Method and apparatus for automated projection mapping previsualization
CN111448542B (zh) * 2017-09-29 2023-07-11 苹果公司 显示应用程序
US11217126B2 (en) * 2017-12-28 2022-01-04 Intel Corporation Systems, methods and apparatus for self-coordinated drone based digital signage
WO2019163264A1 (ja) * 2018-02-20 2019-08-29 ソニー株式会社 飛行体及び飛行体の制御方法
US10810432B2 (en) 2018-08-02 2020-10-20 Motorola Solutions, Inc. Methods and systems for differentiating one or more objects in a video
CN109141399B (zh) * 2018-08-06 2022-05-03 上海瀚莅电子科技有限公司 一种逃生指示方法、***、计算机存储介质和电子设备
US11366514B2 (en) 2018-09-28 2022-06-21 Apple Inc. Application placement based on head position
US11087798B2 (en) * 2019-04-16 2021-08-10 Honda Motor Co., Ltd. Selective curation of user recordings
WO2021061351A1 (en) 2019-09-26 2021-04-01 Apple Inc. Wearable electronic device presenting a computer-generated reality environment
DE112020001415T5 (de) 2019-09-27 2021-12-09 Apple Inc. Umgebung für Fernkommunikation
US11823559B2 (en) * 2019-12-16 2023-11-21 Motorola Solutions, Inc. Method and system to project guidance to building occupants during an emergency situation
US11772276B2 (en) * 2020-01-02 2023-10-03 Universal City Studios Llc Systems and methods for optical performance captured animated figure with real-time reactive projected media
AU2021200002A1 (en) * 2020-01-05 2021-07-22 Mitchell Lee Lewis Safety corridor arrangement
US11804126B2 (en) * 2020-02-24 2023-10-31 Intrado Life & Safety, Inc. Determining emergency severity and response strategy
CN111862866B (zh) * 2020-07-09 2022-06-03 北京市商汤科技开发有限公司 图像显示方法、装置、设备及计算机可读存储介质
US20230011079A1 (en) * 2021-07-09 2023-01-12 Mutualink, Inc. Dynamic symbol-based system for objects-of-interest video analytics detection
CN113676711B (zh) * 2021-09-27 2022-01-18 北京天图万境科技有限公司 虚拟投影方法、装置以及可读存储介质
CN115297308B (zh) * 2022-07-29 2023-05-26 东风汽车集团股份有限公司 基于无人机的环绕ar-hud投影***和方法

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4951151A (en) * 1988-07-28 1990-08-21 Dawntreader, Inc. Image display system and method
DE29716598U1 (de) 1997-09-16 1998-03-12 Behrends, Reiner, 82418 Murnau Werbeprojektion für Außenfassaden
US6150943A (en) 1999-07-14 2000-11-21 American Xtal Technology, Inc. Laser director for fire evacuation path
US6937210B1 (en) * 2002-11-06 2005-08-30 The United States Of America As Represented By The Secretary Of Commerce Projecting images on a sphere
US7872643B2 (en) * 2006-05-03 2011-01-18 Wallspace Media, Llc System and method for a digital projection advertising display
US7511684B2 (en) 2006-07-31 2009-03-31 Motorola, Inc. Image alignment method for binocular eyewear displays
US7973786B2 (en) 2007-01-16 2011-07-05 Motorola Solutions, Inc. System and method for managing interaction in a virtual environment
US20090054084A1 (en) 2007-08-24 2009-02-26 Motorola, Inc. Mobile virtual and augmented reality system
GB0820606D0 (en) 2008-11-11 2008-12-17 Patterson Kieran Route guidance and evacuation system
US8732592B2 (en) * 2009-06-08 2014-05-20 Battelle Energy Alliance, Llc Methods and systems relating to an augmented virtuality environment
US20120322568A1 (en) * 2011-06-14 2012-12-20 Aaron Rusell Lindeman Sports simulation device creating the illusion that sports objects interact with real world features
DE102011080339B4 (de) 2011-08-03 2020-03-12 Robert Bosch Gmbh Mobiles Projektionssystem
US8890863B1 (en) * 2011-08-12 2014-11-18 Google Inc. Automatic method for photo texturing geolocated 3-D models from geolocated imagery
US9256983B2 (en) * 2012-06-28 2016-02-09 Here Global B.V. On demand image overlay
US9704361B1 (en) * 2012-08-14 2017-07-11 Amazon Technologies, Inc. Projecting content within an environment
US9135808B2 (en) * 2012-12-18 2015-09-15 James Vincent Petrizzi Systems, devices and methods to communicate public safety information
US20140167954A1 (en) * 2012-12-18 2014-06-19 Jeffrey Douglas Johnson Systems, devices and methods to communicate public safety information
US8825225B1 (en) 2013-02-15 2014-09-02 Disney Enterprises, Inc. Aerial display system with floating projection screens
US9378590B2 (en) 2013-04-23 2016-06-28 Microsoft Technology Licensing, Llc Augmented reality auction platform
US9720519B2 (en) 2014-07-30 2017-08-01 Pramod Kumar Verma Flying user interface
US10332311B2 (en) * 2014-09-29 2019-06-25 Amazon Technologies, Inc. Virtual world generation engine
US20160284256A1 (en) 2015-03-29 2016-09-29 Arthur Wigell Airborne Advertising Platform

Also Published As

Publication number Publication date
WO2018067333A1 (en) 2018-04-12
GB2568620A8 (en) 2019-06-05
GB2568620B (en) 2021-08-25
US10802665B2 (en) 2020-10-13
GB201903041D0 (en) 2019-04-24
US20180095607A1 (en) 2018-04-05
GB2568620A (en) 2019-05-22

Similar Documents

Publication Publication Date Title
DE112017005059T5 (de) System und verfahren zum projizieren graphischer objekte
DE112017007050T5 (de) Informationsverarbeitungsvorrichtung, Informationsverarbeitungsverfahren und Informationsverarbeitungsprogramm
EP3514709B1 (de) Verfahren und vorrichtung zur übertragung und anzeige von nutzereigenen vektorgraphiken mit infopunkten aus einem cloudbasierten cad-archiv auf mobilgeräten, tragbaren oder stationären computern
DE112018004043T5 (de) Übertragung von visuellen daten in echtzeit an einen entfernt befindlichen empfänger
EP1789755B1 (de) Informationspunkt
DE112015005721T5 (de) Elektives paarweises zuordnen einer in einem virtuellen bereich dargestellten anwendung zu einer physischen anzeige
DE102018115849A1 (de) Anzeigesteuersystem, Anzeigesystem, mobiler Körper, Anzeigesteuerverfahren und Speichermedium
DE112013003833T5 (de) Vorrichtung, Verfahren und Computerprogramm zum Steuern der gemeinsamen Nutzung von Sensoren
EP3116737B1 (de) Verfahren und vorrichtung zum bereitstellen einer graphischen nutzerschnittstelle in einem fahrzeug
DE202014010927U1 (de) Referenzpunktidentifizierung aus Punktwolken, die aus geografischen Bilddaten erstellt werden
DE112016004049B4 (de) Fahrassistenzverfahren und Fahrassistenzvorrichtung und diese benutzendes Programm
WO2015028294A1 (de) Überwachungsanlage sowie verfahren zur darstellung eines überwachungsbereichs
DE102018124149A1 (de) System und verfahren zur maskierung von objekten im videoarchiv auf anfrage des nutzers
DE112020002874T5 (de) Szenenattributkommentierung komplexer Straßentypographien
DE102020104415A1 (de) Bewegung in einer umgebung
DE112018006514T5 (de) Verfahren zum Steuern der Anzeige, Vorrichtung zum Steuern der Anzeige und Head-up-Display
WO2013113521A1 (de) Auswertevorrichtung für ein überwachungssystem sowie überwachungssystem mit der auswertevorrichtung
DE112019006107T5 (de) Authoring-Vorrichtung, Authoring-Verfahren und Authoring-Programm
DE102018118422A1 (de) Verfahren und system zur darstellung von daten von einer videokamera
DE102011112617A1 (de) Kooperativer 3D-Arbeitsplatz
DE102004040372A1 (de) Verfahren und Vorrichtung zur Darstellung einer dreidimensionalen Topographie
DE102022100301A1 (de) Systeme und verfahren zur verwendung eines digitalen zwillings zur interaktion mit einem stadtmodell
DE102017007714A1 (de) Verbessertes Bemalen von Objekten durch die Verwendung von Perspektiven oder Transfers in einer digitalen Medienumgebung
DE102018121274B4 (de) Verfahren zum Visualisieren einer Fahrabsicht, Computerprogrammprodukt und Visualisierungssystem
DE102020120462A1 (de) Zeige- und interaktions-steuervorrichtungen für grossformatige tabletop-modelle

Legal Events

Date Code Title Description
R012 Request for examination validly filed