DE112017006503T5 - Verfahren und vorrichtung zum dynamischen geofence-absuchen eines ereignisorts - Google Patents

Verfahren und vorrichtung zum dynamischen geofence-absuchen eines ereignisorts Download PDF

Info

Publication number
DE112017006503T5
DE112017006503T5 DE112017006503.8T DE112017006503T DE112017006503T5 DE 112017006503 T5 DE112017006503 T5 DE 112017006503T5 DE 112017006503 T DE112017006503 T DE 112017006503T DE 112017006503 T5 DE112017006503 T5 DE 112017006503T5
Authority
DE
Germany
Prior art keywords
geofence
user
event location
augmented reality
communication device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE112017006503.8T
Other languages
English (en)
Inventor
Bing Qin Lim
Alfy Merican Ahmad Hambaly
Shijie Hua
Chew Yee Kee
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Motorola Solutions Inc
Original Assignee
Motorola Solutions Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Motorola Solutions Inc filed Critical Motorola Solutions Inc
Publication of DE112017006503T5 publication Critical patent/DE112017006503T5/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/25Integrating or interfacing systems involving database management systems
    • G06F16/252Integrating or interfacing systems involving database management systems between a Database Management System and a front-end application
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • G06F3/012Head tracking input arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G3/00Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes
    • G09G3/001Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background
    • G09G3/003Control arrangements or circuits, of interest only in connection with visual indicators other than cathode-ray tubes using specific devices not provided for in groups G09G3/02 - G09G3/36, e.g. using an intermediate record carrier such as a film slide; Projection systems; Display of non-alphanumerical information, solely or in combination with alphanumerical information, e.g. digital display on projected diapositive as background to produce spatial visual effects

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Computer Hardware Design (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

Ein Ereignisort ist mittels einer tragbaren Kommunikationsvorrichtung und eines Verfahrens durchsuchbar, welches das Anzeigen einer maskierten Augmented-Reality des Ereignisorts auf der Anzeige der tragbaren Kommunikationsvorrichtung vorsieht. Ein mit einem Geofence versehener Bereich wird innerhalb der angezeigten maskierten Augmented-Reality des Ereignisorts angewendet, als Kennzeichnung eines zu durchsuchenden Bereichs für den Benutzer. Beim Durchsuchen des mit einem Geofence versehenen Bereichs wird die Maskierung aus der angezeigten maskierten Augmented-Reality des Ereignisorts entfernt. Die Maskierung wird nur innerhalb des mit einem Geofence versehenen Bereichs, basierend auf der Aufmerksamkeitsspanne des Benutzers für den mit einem Geofence versehenen Bereich, entfernt. Das Entfernen der Maskierung zeigt Bereiche an, die durchsucht wurden.

Description

  • Zusammenhängende Anmeldungen
  • Diese Anmeldung ist verbunden mit dem anhängigen Anmeldedokument CM19101, das als US-Anmeldeseriennummer xx/xxx xxx (nach der Einreichung auszufüllen) eingereicht wurde, und dem anhängigen Anmeldedokument CM19102 US, das als Anmeldeseriennummer xx/xxx xxx (nach der Einreichung auszufüllen) eingereicht wurde, und gemeinsam Motorola Solutions, Inc. zugeordnet sind und sich in deren Besitz befinden.
  • Gebiet der Erfindung
  • Die vorliegende Erfindung betrifft im Allgemeinen Kommunikationssysteme, die die Suche nach Beweismitteln an Ereignisorten erleichtern, und insbesondere eine tragbare elektronische Vorrichtung, die durch die Anwendung und Steuerung eines Geofence eine visuelle Unterscheidung zwischen abgesuchten und nicht abgesuchten Bereichen ermöglicht.
  • Hintergrund
  • Kommunikationssysteme, insbesondere solche, die in Umgebungen der öffentlichen Sicherheit wie zum Beispiel Strafverfolgungsbehörden, Feuerwehr („fire rescue“) und einsatzkritischen Umgebungen eingesetzt werden, werden oft aufgefordert, einen Ereignisort zu untersuchen, sei es der Tatort, der Unfallort oder ein anderer Ereignisort, an denen forensische Analysten und Ermittler beteiligt sind. Es ist nicht ungewöhnlich für zahlreiche Personen, einige mit unterschiedlichen beruflichen Funktionen und Hintergründen, an einem Ereignisort zum Sammeln und Sichern von Beweisen zu erscheinen. Beispielsweise können Tatortermittler, Ersthelfer, Forensikspezialisten nur einige der Personen sein, die an der Durchsuchung und Wiederherstellung eines Ereignisorts beteiligt sind.
  • Obwohl es wichtig ist, Verantwortlichkeiten den entsprechenden Personen zuzuweisen, ist es nicht ungewöhnlich, dass einige Anstrengungen aufgrund von Fehlkommunikation zwischen Personen, die am Tatort ankommen, unnötig dupliziert werden. Für einige Ereignisorte kann es notwendig sein, dass verschiedene Arten von Spezialisten über dasselbe Gebiet gehen und nach unterschiedlichen beweiskräftigen Informationen suchen. Verschiedene Rollen und verschiedene Fachkenntnisse der verschiedenen Benutzer können jedoch zu einer Unsicherheit darüber führen, wie gut ein Gebiet abgesucht wurde.
  • Dementsprechend besteht Bedarf an der Verwaltung und Überwachung der Untersuchung eines Ereignisorts.
  • Figurenliste
  • Die beigefügten Abbildungen, bei denen sich gleiche Bezugszahlen auf identische oder funktional ähnliche Elemente in den einzelnen Ansichten beziehen, sind zusammen mit der folgenden detaillierten Beschreibung einbezogen in die Beschreibung und bilden einen Teil derselben und dienen zum weiteren Veranschaulichen von Ausführungsformen und Konzepten, die die beanspruchte Erfindung beinhalten und erklären verschiedene Prinzipien und Vorteile dieser Ausführungsformen.
    • 1 ist ein Kommunikationssystem ausgebildet und arbeitend in Übereinstimmung mit einigen Ausführungsformen.
    • 2 zeigt eine tragbare Kommunikationsvorrichtung, die eine Augmented-Reality-Szene („Szene mit erweiterter Realität“) mit entferntem augmentiertem Highlight („Hervorhebung“) anzeigt, was festgestellte Aufmerksamkeit des Benutzers angibt, und einen Bereich, der bereits durchsucht wurde, gemäß einigen der Ausführungsformen.
    • 3 zeigt einen Ereignisort vergleichende Ansichten, in denen eine tragbare Kommunikationsvorrichtung eine Augmented-Reality-Szene mit einem Geofence anzeigt, gemäß einigen der Ausführungsformen.
    • 4 zeigt einen Ereignisort vergleichend Ansichten, in denen eine tragbare Kommunikationsvorrichtung eine Augmented-Reality-Szene anzeigt, die mit einem Geofence versehene Kreise für Ermittler verschiedener Seniorität vergleicht, gemäß einigen der Ausführungsformen.
    • 5 zeigt einen Ereignisort, in dem eine tragbare Kommunikationsvorrichtung eine Augmented-Reality-Szene mit verschachtelten mit einem Geofence versehene Kreise anzeigt, gemäß einigen der Ausführungsformen.
    • 6 zeigt einen Vergleich einer tragbaren Kommunikationsvorrichtung, die eine Augmented-Reality-Szene mit ersten und zweiten mit einem Geofence versehene Kreise gemäß unterschiedlichen Aufmerksamkeitsspannen der Benutzer für verschachtelte mit einem Geofence versehene Ausführungsformen anzeigt.
    • 7 ist ein Flussdiagramm eines Verfahrens zum Durchsuchen eines Ereignisorts, gemäß einigen Ausführungsformen.
    • 8 ist ein Flussdiagramm, das ein Verfahren zum Durchsuchen eines Ereignisorts zusammenfasst, gemäß einer verschachtelten mit einem Geofence versehenen Ausführungsform.
  • Fachleute werden erkennen, dass Elemente in den Figuren zum Zwecke der Einfachheit und Klarheit veranschaulicht sind und nicht notwendigerweise maßstabsgetreu gezeichnet sind. Zum Beispiel können die Abmessungen einiger der Elemente in den Figuren im Vergleich zu anderen Elementen übertrieben sein, um dabei zu helfen, das Verständnis von Ausführungsformen der vorliegenden Erfindung zu verbessern. Die Vorrichtungs- und Verfahrenskomponenten wurden dort, wo es angemessen erscheint, durch konventionelle Symbole in den Zeichnungen dargestellt, wobei nur jene spezifischen Einzelheiten gezeigt werden, die für ein Verständnis der Ausführungsformen der vorliegenden Erfindung wesentlich sind, um so die Offenbarung nicht mit Einzelheiten zu verschleiern, die für jene Durchschnittsfachleute ohne weiteres erkennbar sind, die den Vorteil dieser Beschreibung genießen.
  • Detaillierte Beschreibung
  • Kurz gesagt wird hier eine tragbare Kommunikationsvorrichtung und ein Verfahren bereitgestellt, das eine maskierte Augmented-Reality eines Ereignisorts auf einer Anzeige anzeigt. Das Durchsuchen des Ereignisorts wird durch die maskierte Augmented-Reality erleichtert, indem Bereiche der Augmented-Reality-Maskierung basierend auf der Aufmerksamkeitsspanne eines Benutzers auf diesen Bereich als Reaktion auf die Durchsuchung entfernt werden. Ein mit einem Geofence versehener Bereich kann ferner innerhalb der angezeigten maskierten Augmented-Reality des Ereignisorts angewendet werden als Hinweis für den Benutzer auf einen bestimmten zu durchsuchenden Bereich. Beim Durchsuchen des Bereichs innerhalb des Geofence wird die Maskierung entfernt. Mit einem Geofence versehene Bereiche werden auf der Grundlage von Ermittlerprofilen der Benutzer festgelegt. Das Entfernen der Maskierung ist nur innerhalb des mit einem Geofence versehenen Bereichs zulässig, wodurch eine angemessene sorgfältige Durchsuchung gewährleistet ist. Das Entfernen der Maskierung gibt Bereiche an, die durchsucht wurden. Bereiche außerhalb mit einem Geofence versehener Grenzen bleiben maskiert, auch wenn sie durchsucht werden.
  • 1 ist ein Kommunikationssystem 100, ausgebildet und arbeitend in Übereinstimmung mit einigen Ausführungsformen. Das Kommunikationssystem 100 umfasst eine tragbare Kommunikationsvorrichtung 102, wie beispielsweise ein Head-Mounted-Display (HMD) oder eine andere tragbare Anzeigevorrichtung, die in der Lage ist, dem Sichtfeld einer Person eine Augmented-Reality bereitzustellen. Gemäß den Ausführungsformen stellt das Kommunikationssystem 100 eine Augmented-Reality des Ereignisorts bereit, die auf der tragbaren Kommunikationsvorrichtung 102 angezeigt wird, wobei die augmentierte Anzeige entfernbares maskiertes Hervorheben für Suchbereiche bereitstellt. Gemäß weiteren Ausführungsformen kann die tragbare Kommunikationsvorrichtung 102 weiterhin eine mit einem Geofence versehene Suchgrenze innerhalb des maskierten hervorgehobenen Bereichs anzeigen. In Übereinstimmung mit noch weiteren Ausführungsformen kann die mit einem Geofence versehene Suchgrenze weiter als verschachtelte Geofences ausgeführt und dargestellt werden, um die Durchsuchung eines Ereignisorts weiter zu verfeinern.
  • Gemäß den Ausführungsformen umfasst das Kommunikationssystem 100 eine Ortsrekonstruktion 113, eine Positions- und Bewegungsverfolgung 115 und eine Aufmerksamkeitsverfolgung 117, die einem Controller 130 einer tragbaren Kommunikationsvorrichtung 102 eingegeben werden. Die Beschreibung beginnt mit der Ortsrekonstruktion 113, der Positions- und Bewegungsverfolgung 115, und der Aufmerksamkeitsverfolgung 117 und geht dann zu dem Controller 130 über.
  • Ein erster Ereignisort wird unter Verwendung einer Vielzahl von Augmented-Reality-Erzeugungstechniken, wie zum Beispiel 3D-Laserscanning, Echtzeitkinematik (RTK), Drohnen und/oder dergleichen, rekonstruiert 113, welche Kontexteinflussinformation („context factor information“) von dem Ereignisort sammeln können, welche für die Erzeugung einer Augmented-Reality-Anzeige auf einer tragbaren Kommunikationsvorrichtung 102 geeignet sind. Die Rekonstruktion 113 des Ereignisorts wird ferner ermöglicht, durch Eingeben anfänglicher Kontextparameter in die tragbare Kommunikationsvorrichtung 102 von einem Benutzer der Vorrichtung, der eine erste Begehung („walkthrough“) des Ereignisorts durchführt. Die Kontextparameter werden in der KontexteinflussDatenbank 125 gespeichert.
  • Die Positions- und Bewegungsverfolgung 115 berücksichtigt die Position der derzeit verfügbaren Benutzerermittler („user-investigators“) an einem Ereignisort. Verschiedene Benutzerermittler werden über ihre tragbare Kommunikationsvorrichtung verfolgt, wo sie sich innerhalb des Ereignisorts befinden. Verfolgungstechniken wie GPS, Laserscanning, Indoor-Positionsvervolgung („indoor location tracking“), Trägheitssensoren (zum Beispiel Beschleunigungssensor, Gyroskop), Magnetometer, Bakentriangulation („beacon triangulation“), Bildsensor, Infrarotkamera und dergleichen können verwendet werden. Die Positions- und Bewegungsverfolgung kann über ein Bluetooth-Kopplung („Bluetooth pairing“) zwischen der tragbaren Kommunikationsvorrichtung 102 des Benutzerermittlers und dem Werkzeug des Ermittlers vorab zugeordnet werden, wenn ein Werkzeug verwendet wird. Die Position und Orientierung des Werkzeugs des Ermittlers kann über einen Bewegungssensor verfolgt werden, zum Beispiel einen Trägheitssensor, einen Beschleunigungssensor, ein Gyrometer, ein Magnetometer oder sogar über eine Infrarot-Beleuchtungsverfolgung und Bildverarbeitung durch einen Bildsensor, zum Beispiel eine Kamera.
  • Die Aufmerksamkeitsverfolgung 117 führt eine Erkennung einer Aufmerksamkeitsspanne eines Benutzers auf einem Bereich innerhalb des Ereignisorts durch. Gemäß den Ausführungsformen kann die Augmented-Reality-Maskierung als Reaktion auf die Aufmerksamkeitsspanne eines Benutzers entfernt werden. Die Erkennung kann beispielsweise durch eine Kamera an der tragbaren Vorrichtung (zum Beispiel HMD, Body-Cam („body worn camera“)) erfolgen, welche Videoanalysen verwenden kann, um durch eine Taschenlampe beleuchtete Oberflächen oder eine Blickrichtung des Benutzers zu erkennen. Die Erkennung kann durch einen Bewegungssensor an der tragbaren Vorrichtung erfolgen, um auch die Ausrichtung des Kopfes zu erfassen. Für Ausführungsformen, bei denen ein Geofence verwendet wird, kann die mit einem Geofence versehene Grenze verifiziert werden, um sicherzustellen, dass die Benutzeraufmerksamkeit innerhalb der mit einem Geofence versehenen Grenze liegt, bevor eine Augmented-Reality-Maskierung entfernt wird.
  • Gemäß den Ausführungsformen umfasst der Controller 130 eine Suchbereichsberechnungs-Engine und eine Anwendung für eine entfernbare Maskierung auf der Anzeige 116, eine Jobprofilbeurteilungs-Engine 118 und eine Geofencing-Engine 120.
  • Der Controller 130 nimmt den rekonstruierten Ort 113 und bestimmt basierend auf anfänglichen Kontexteinflüssen, die während der Ortsrekonstruktion bereitgestellt werden, welcher Bereich des Ereignisorts durchsucht werden soll, und ergänzt diesen Bereich mit einer entfernbaren Maskierung 116. Die entfernbare Maskierung kann in der Form von abgedunkelten Bereichen, farbcodierten Bereichen mit einer gewissen Opazität oder Bereichen mit einer bestimmten Textur oder einem bestimmten Muster auf der HMD Augmented-Reality-Anzeige erfolgen. Die HMD-Anzeige kann eine Vollbild-Anzeige oder eine Teilbild-Anzeige (eine kleine Anzeige an einer Ecke des HMD wie Google Glass), ein Tablet, ein Handy und dergleichen sein.
  • Die entfernbare Maskierung der Ausführungsformen kann auf andere Arten von Vorrichtungen ausgedehnt werden, wie zum Beispiel Tablets und Smartphones, sowie auf andere tragbare Vorrichtungen, die eine Anzeige, eine Tracking-Fähigkeit, eine Lichtquelle, mit Kamera- und/oder Videoerfassungs-Fähigkeit verfügen. Beispielsweise kann ein Tablet mit einer Kamera Frontansichten eines Ereignisorts erfassen und diese Orte können auf der Anzeige des Tablets angezeigt werden. Die Aufmerksamkeitsspanne des Benutzers wird durch die Ausrichtung des Tablets bestimmt, wobei das Blitzlicht des Tablets als ein Ersatz für das zuvor beschriebene handgeführte taschenlampenartige Licht arbeitet. Gemäß diesen tablet- und mobiltelefonartigen Ausführungsformen kann die Bereichsmaskierung in der zuvor beschriebenen Weise unter Verwendung der Aufmerksamkeitsspanne entfernt werden, während die Maskierung und die entfernte Maskierung auf dem Tablet selbst angezeigt werden. Obwohl diese Vorrichtungen nicht am Kopf montiert sind, wie das HMD, erstreckt sich der Einsatz des entfernbaren Maskierens leicht auch auf diese Vorrichtungen. Die hierin aufgeführten Beispiele gelten daher auch für diese Arten von Vorrichtungen entsprechend den Ausführungsformen.
  • Die Geofencing-Engine 120 empfängt von der Jobprofilbeurteilungs-Engine 118 Eingaben darüber, welche Art von Erfahrung erforderlich ist zum Bearbeiten eines bestimmten Ereignisorts. Die Jobprofilbeurteilungs-Engine 118 kann Feststellungen basierend auf einem Erfahrungslevel treffen, den ein Benutzerermittler für eine Zuordnung oder Art von Ereignis benötigt, und seiner Fähigkeit, den Ort nur unter Verwendung der entfernbaren erweiterten Maskierung zu durchsuchen oder ob weiter fortgefahren werden soll, die erweiterte maskierte Anzeige mit Geofencing 120 zu erweitern.
  • Weiter zur Geofencing-Engine 120, die Geofencing-Engine empfängt Eingaben von zwei Datenbanken, die als Kontextfaktor-Datenbank 125 und Aufmerksamkeitsfaktor-Datenbank 119 bezeichnet werden. Die Kontextfaktor-Datenbank 125 speichert Information betreffend Benutzerermittlerprofile (Benutzerkontext), Ermittlerwerkzeuge (Werkzeugkontext), Beweisattribute 114 (Beweiskontextparameter und Ereignisortkontextparameter) und jegliche Informationen, die eingegeben und gespeichert oder als Teil der Ereignisortrekonstruktion 113 gesammelt wurden und dynamisch hochgeladen oder abgerufen werden können. Die Kontextparameter 125 können, wie bereits erwähnt, während der ersten Begehung und/oder unter Verwendung anderer Ortsrekonstruktionsverfahren bei der Ortsrekonstruktion 113 gesammelt werden. Die Kontexteinflussdatenbank 125 kann Benutzerkontextparameter für eine Vielzahl von verschiedenen Benutzerermittlern speichern, wodurch die tragbare Kommunikationsvorrichtung 102 geteilt werden und für jeden Ermittler individuell angepasst werden kann.
  • Die Kontextfaktordatenbank 125 kann in der tragbaren Kommunikationsvorrichtung 102 sein und die darin enthaltenen Kontextparameter können von dem Controller 130 abgerufen werden, zum Beispiel durch die Geofence-Engine 120. In Übereinstimmung mit einigen Ausführungsformen kann die Geofence-Engine 120 den Kontext des Benutzerermittlers, wie zum Beispiel die Benutzererfahrung, abrufen, um eine Grenzgröße für einen Geofence zu bestimmen. In Übereinstimmung mit einer anderen Ausführungsform kann auch der Werkzeugtypkontext zum Bestimmen einer zweiten verschachtelten mit einem Geofence versehenen Grenze verwendet werden.
  • Die Geofencing-Engine 120 empfängt ferner Eingaben aus der Aufmerksamkeitsfaktor-Datenbank 119, um die Bestimmung des Geofence weiter zu verbessern, wie zum Beispiel basierend auf vergangenen Benutzerfixierungszeiten („user fixation times“). Beispielsweise können längere Suchzeiträume für weniger erfahrene Benutzerermittler notwendig sein, die in der Vergangenheit die tragbare Kommunikationsvorrichtung 102 verwendet haben und diese längeren Zeiträume in der Datenbank 119 gespeichert haben. Eine geeignete mit einem Geofence versehene Grenze kann daher als Teil der Augmented-Reality-Anzeige 122 der tragbaren Kommunikationsvorrichtung 102 angewendet werden.
  • Die Aufmerksamkeitsfaktor-Datenbank 119 erfasst auch eine Aufmerksamkeitsfixierungszeit eines Benutzers, wenn diese Zeit innerhalb einer angemessenen Aufmerksamkeitszeitspanne liegt, um die Entfernung von Maskierung auf der Augmented-Reality-Anzeige 122 zu rechtfertigen. Die tragbare Kommunikationsvorrichtung 102 ist in der Lage, Aufmerksamkeitsspannenschwellenwerte zu verfolgen und mit zunehmender Erfahrung des Benutzers anzupassen, da die Kontextdatenbank 125 auch die neuesten Informationen betreffend den Benutzer aktualisiert. Somit wird eine optimale mit einem Geofence versehene Grenze als Teil der Augmented-Reality 122 auf der Anzeige der tragbaren Kommunikationsvorrichtung 102 angezeigt.
  • Die Anwendung von mit einem Geofence versehenen Grenzen bietet den Vorteil, dass sie Indikatoren für zu durchsuchende Bereiche basierend auf Benutzerprofilen und - erfahrung bereitstellt und die Möglichkeit bietet, basierend auf der Aufmerksamkeitsspanne des Benutzers gegenüber der Benutzererfahrung zu verfolgen, ob ein Bereich ausreichend durchsucht wurde. Durch das dynamische Anpassen der Geofences für jeden Ermittler, wobei Benutzerkontext und -werkzeuge aus den Kontextfaktoren 125 sowie die Priorisierung der Aufmerksamkeitsgewichtungsfaktoren aus der Datenbank 119 eine weitaus umfassendere und sorgfältigere Suche an einem Ereignisort ermöglichen.
  • 2 und die übrigen Figuren zeigen ein „Auge“-Symbol, um einen Blick darzustellen. Die hierin enthaltenen Ausführungsformen verbessern die Fähigkeit des Benutzers, über einen Augenblick hinaus einen Bereich zu durchsuchen, indem sie fokussierte Aufmerksamkeitsbereiche zum Durchsuchen bereitstellt. Zu diesem Zweck können maskierte hervorgehobene und/oder mit einem Geofence versehene Bereiche und/oder Benutzerwerkzeuge in das System integriert werden, um zu bestimmen, welche Bereiche durchsucht werden sollen, die Suche zu fokussieren und zu verifizieren, dass ein Bereich gründlich durchsucht wurde.
  • 2 zeigt einen Ereignisort in den Ansichten 200 und 220, in dem eine tragbare Kommunikationsvorrichtung 202, dargestellt als HMD 204, eine Augmented-Reality-Szene durch eine Anzeige 230 eines maskierten Suchbereichs oder maskierten Pfades 250 anzeigt. Gemäß einigen der Ausführungsformen wird der maskierte Suchbereich oder Suchpfad 250 basierend auf Benutzerkontext, wie Benutzerrolle und/oder -erfahrung, gebildet. Ansicht 200 veranschaulicht ferner Abschnitte mit entfernter Maskierung 204, was angibt, dass Benutzeraufmerksamkeit erkannt wird. In Ansicht 220 gibt die augmentierte Ansicht, wie sie durch die Anzeige 230 gesehen wird, an, dass eine neue Bereichsmaskierung als Reaktion auf die Benutzeraufmerksamkeit entfernt wird 206, und zeigt ferner, dass der zuvor durchsuchte Bereich demaskiert bleibt, dargestellt als unmaskierter Bereich 204. Dieses Demaskieren von augmentierten Highlights macht es einfach, Bereiche zu erkennen, die in der Vergangenheit übersehen worden wären, wie zum Beispiel ein maskierter Bereich 208, während Beweise 210, 212 vom Benutzer notiert, markiert oder dokumentiert werden können und nicht durchsuchte Bereiche 214 maskiert bleiben. So umfasst die tragbare Kommunikationsvorrichtung 202 eine Anzeige 230 zum Anzeigen einer maskierten Augmented-Reality auf einem Suchbereich oder Pfad des Ereignisorts 216, wobei die maskierte Augmented-Reality als Reaktion auf eine benutzerbasierte Suche entfernbar ist.
  • Während der maskierte Suchbereich oder Pfad 250 auf dem Benutzerkontext, wie zum Beispiel der Benutzererfahrung, basiert, können die Auswirkungen des Ereignisortkontextes, wie zum Beispiel Wetter/Regen, ebenfalls berücksichtigt werden, um das Anwenden einer entfernbaren Maskierung auf einen zu durchsuchenden Bereich festzulegen. So kann beispielsweise die Auswirkung auf ein besonders empfindliches Beweisstück, wie zum Beispiel ein Blutspritzer, noch höher sein als normal, wenn sich dieser Blutspritzer auf einem Teppich neben einem offenen Fenster befindet (Ereignisortkontext). Die Empfindlichkeit des Blutspritzers gegenüber Wasser und seine Position in Bezug auf die Wasserquelle (ein zerbrochenes Fenster) würde die Notwendigkeit eines maskierten Suchbereichs oder eines maskierten Suchpfads 250 anzeigen, der den Benutzer so schnell wie möglich in den Bereich in der Nähe dieses Beweises bringt. Daten können schnell aufgenommen werden und/oder ein großer Teil der Beweise gesammelt und von dem Ort entfernt werden und die Maskierung kann entfernt werden, um anzuzeigen, dass das Gebiet von diesem speziellen Benutzerermittler durchsucht wurde. Das Entfernen der Maskierung wird aufgezeichnet und gespeichert, wie zum Beispiel in der Datenbank 119 aus 1, Benutzeridentifikations- und Benutzerfixierungszeiten, wodurch in dem Gesamtsystem Information darüber bereitgestellt wird, wer den Bereich oder den Weg durchsucht hat und wie gut der Bereich oder der Weg 250 durchsucht wurde.
  • 3 zeigt eine tragbare Kommunikationsvorrichtung 302, die einen Vergleich von Augmented-Reality-Ereignisorten 300, 320 mit einem Geofence anzeigt, gemäß einigen der Ausführungsformen.
  • In Ansicht 300 wird das augmentierte Highlight entfernt 304, was angibt, dass die Aufmerksamkeitsspanne des Benutzers 312 innerhalb einer mit einem Geofence versehenen Grenze 308 erkannt wurde. Die Aufmerksamkeitsspanne des Benutzers kann beispielsweise durch die Kopplung des Ermittlerwerkzeugs des Benutzers, in diesem Fall einer Lupe 308 oder einer Taschenlampe mit integriertem Kopplungs-Sensor(en), mit der tragbaren Kommunikationsvorrichtung 302 über eine kurze drahtlose Verbindung, wie beispielsweise eine Bluetooth-Verbindung, eine PAN-Verbindung oder dergleichen, erkannt werden. Eine Kamera, die auf tragbaren Vorrichtungen montiert ist, kann auch verwendet werden, um ein Ermittlerwerkzeug des Benutzers und eine Werkzeugorientierung durch Videoanalyse zu erkennen.
  • In Ansicht 320 wird das augmentierte Highlight nicht entfernt, da der Benutzer 312 der tragbaren Kommunikationsvorrichtung 302 eine Aufmerksamkeitsspanne hat, die auf einen Bereich 310 gerichtet ist, der sich außerhalb der mit einem Geofence versehenen Grenze 308 befindet. Obwohl ein Koppeln/Erkennen der Ermittlerwerkzeuge des Benutzers, der Lupe 308 und/oder der Taschenlampe mit der tragbaren Kommunikationsvorrichtung 302 stattfinden kann, zeigt der Ort, die Positionierung und die Bewegung an, dass die Aufmerksamkeitsspanne des Benutzers außerhalb der mit einem Geofence versehenen Grenze liegt. Somit wird das augmentierte Highlight nicht entfernt, basierend auf der Aufmerksamkeitsspanne des Benutzers, die außerhalb der mit einem Geofence versehenen Grenze liegt.
  • In 3 basiert die Bestimmung der Größe für eine mit einem Geofence versehenen Grenze 308 des einzelnen Benutzers vorzugsweise auf Benutzerkontext, wie zum Beispiel Jobprofil und Erfahrung. In Übereinstimmung mit weiteren Ausführungsformen berücksichtigt die mit einem Geofence versehene Grenze des Benutzers ferner auch Ereignisortkontext, wie zum Beispiel Innen-/Außenbereich, Tageszeit, Art der gesuchten Beweise, um nur einige zu nennen. Für detailliertere Durchsuchungen können zusätzliche mit einem Geofence versehene Grenzen verwendet werden, wie in Verbindung mit 4 beschrieben wird.
  • 4 zeigt eine tragbare Kommunikationsvorrichtung 402, die einen Vergleich von Augmented-Reality-Ereignisorten 400, 420 anzeigt, welche mit einem Geofence versehene Kreise für Ermittler verschiedener Seniorität vergleichen, gemäß einigen der Ausführungsformen.
  • In Ansicht 400 wird das augmentierte Highlight entfernt 404, was angibt, dass eine Aufmerksamkeitsspanne des Benutzers 412 innerhalb einer mit einem Geofence versehenen Grenze 408 erkannt wurde. In Ansicht 420 wird ein größerer Teil des maskierten augmentierten Highlights 424 entfernt, da der Benutzer 422 der tragbaren Kommunikationsvorrichtung 426 eine größere mit einem Geofence versehene Grenze 418 hat, die mit einem erfahreneren, spezialisierten Benutzerprofil verbunden ist, das es ermöglicht, einen größeren Bereich zu durchsuchen. Durch das Bereitstellen der entfernbaren augmentierten Maskierung in Verbindung mit der mit einem Geofence versehenen Grenze auf der HMD-Anzeige, wurde eine gründlichere Vorgehensweise bei der Durchsuchung zur Verfügung gestellt.
  • Wie in 4 zu sehen ist, ist das augmentierte Szenario für den Junior-Helfer 412 („junior responder“) verschieden von der augmentierten Szene für den Senior-Spezialist 422 („senior specialist“). Der Senior-Spezialist 422 hat einen größeren mit einem Geofence versehenen Bereich, in dem ein größerer Bereich der Maskierung entfernt werden kann. Die Anwendung der verschiedenen mit einem Geofence versehenen Grenzen 408, 418, wie sie durch HMD-Vorrichtungen 402, 426 gesehen werden, bietet den Vorteil, dass sie Indikatoren für die zu durchsuchenden Bereiche basierend auf den Benutzerprofilen und -erfahrung bereitstellen. Gemäß weiterer Ausführungsformen können die Geofences 408, 418 auch dynamisch für jeden Einzelnen unter Berücksichtigug des Benutzerkontextes aus den Kontextfaktoren 125, die auf den HMD-Vorrichtungen aktualisiert oder lokal in der Vorrichtung gespeichert werden können, angepasst werden.
  • 5 zeigt einen Ereignisort 500, in dem eine tragbare Kommunikationsvorrichtung 502 eine Augmented-Reality-Szene 504 mit verschachtelten mit einem Geofence versehenen Grenzen 508 und 518 anzeigt, gemäß einigen der Ausführungsformen. In einigen Ausführungsformen stellt der kleinere Geofence 518 dem Benutzer 512 einen Indikator bereit, wohin er seine Aufmerksamkeitsspanne richten soll. Die Bewegungs- und Positionsverfolgung des Benutzerwerkzeugs (Taschenlampe) 525 wird zusammen mit der Beleuchtung durch die Taschenlampe 525 von der tragbaren Kommunikationsvorrichtung verfolgt. Wenn sich die Aufmerksamkeitsspanne des Benutzers innerhalb der mit einem Geofence versehenen Grenze 518 bewegt, wird das maskierte Highlight innerhalb der mit einem Geofence versehenen Grenze 518 entfernt und ein höherer Aufmerksamkeitswert auf diesem Bereich aufgezeichnet, der zu einem späteren Zeitpunkt abgerufen werden kann, oder eine andere Vorrichtung eines Ermittlers (zum Beispiel ein Supervisor) rekonstruiert die Aufmerksamkeits-Heatmap des Benutzers 512 auf seiner Vorrichtung. Wenn sich die Aufmerksamkeitsspanne des Benutzers innerhalb der mit einem Geofence versehenen Grenze 508 bewegt, wird das maskierte Highlight innerhalb der mit einem Geofence versehenen Grenze 508 entfernt und ein niedrigerer Aufmerksamkeitswert auf diesen Bereich (im Vergleich zu dem Geofence 518) aufgezeichnet, der zu einem späteren Zeitpunkt abgerufen werden kann, oder eine andere Vorrichtung eines Ermittlers (zum Beispiel ein Supervisor) rekonstruiert die Aufmerksamkeits-Heatmap des Benutzers 512 auf seiner Vorrichtung.
  • In Übereinstimmung mit einigen Ausführungsformen kann die Verwendung von zwei Geofences vorteilhaft sein, zum Bereitstellen eines Verifizierungsmodus zum Verifizieren der Gründlichkeit einer Suche. Wenn ein Benutzerermittler beispielsweise ein Werkzeug verwendet, wird sein Blick auf dieses Werkzeug gerichtet. Dadurch wird der Geofence des Werkzeugs ein höheres Aufmerksamkeitsgewicht haben (weil die Aufmerksamkeit des Benutzers innerhalb dieses Bereichs detaillierter und fokussierter ist). Wenn die Aufmerksamkeit des Benutzers innerhalb des Geofence des Benutzerkontextes fokussiert ist, hat der Geofence des Kontextes ein geringeres Aufmerksamkeitsgewicht (was geschieht, wenn der Benutzer außerhalb des durch die Taschenlampe beleuchteten Bereichs blickt). Diese Aufmerksamkeitsgewichte können während eines Verifizierungsmodus verwendet werden, in dem zusammen mit der Aufmerksamkeitsfixierungszeit eine Heatmap bestimmt wird, die auf der HMD-Vorrichtung angezeigt werden kann, um zu zeigen, welche Bereiche des Ortes sorgfältig durchsucht wurden und welche nicht. Wenn der Benutzer beispielsweise dazu neigt, außerhalb des Geofence des Werkzeugs und nur auf den Geofence des Benutzerkontextes zu schauen, wird die Heatmap der Benutzeraufmerksamkeit im Verifikationsmodus beispielsweise in einer helleren Farbe angezeigt. Es kann auch ein Supervisor-Modus generiert werden, der dem Verifikationsmodus ähnlich ist, aber Heatmaps für die Gründlichkeit der Suche für mehrere Benutzer anzeigt.
  • 6 zeigt einen Vergleich einer tragbaren Kommunikationsvorrichtung 602, die eine Augmented-Reality-Szene 604 mit ersten und zweiten mit einem Geofence versehenen Kreisen 608 und 618 gemäß einer unterschiedlichen Aufmerksamkeitsspanne des Benutzers für verschachtelte mit einem Geofence versehene Ausführungsformen anzeigt. Es werden das gleiche HMD 602 und der gleiche augmentierte Ereignisort verglichen.
  • In Ansicht 600 bietet ein größerer Geofence 618 dem älteren Senior-Ermittler 622 die Grenze, wohin er seine Aufmerksamkeit richten soll. Die Bewegungs- und Positionsverfolgung eines Werkzeugs (Taschenlampe) 625 zusammen mit der Beleuchtung durch die Taschenlampe wird durch ein drahtloses kurzreichweitiges Koppeln der tragbaren Kommunikationsvorrichtung (HMD) 602 mit dem Werkzeug 625 verfolgt, was es der tragbaren Kommunikationsvorrichtung 602 erlaubt, die Aufmerksamkeitsspanne des Benutzers 622 abzuleiten und das maskierte Highlight zu entfernen, wenn erkannt wird, dass die Aufmerksamkeitsspanne innerhalb der mit einem Geofence versehenen Grenze 608 liegt. Daher wird die Aufmerksamkeitsspanne des Benutzers registriert und die Maskierung aus der augmentierten Anzeige entfernt.
  • In Ansicht 610 hat sich die Benutzeraufmerksamkeitsspanne des Senior-Ermittlers aus der kleineren mit einem Geofence versehenen Grenze 618 bewegt, die durch das Werkzeug (Taschenlampe) gebildet wird, aber seine Aufmerksamkeitsspanne ist innerhalb der größeren mit einem Geofence versehenen Grenze 608 geblieben. Die angewandten Gewichtungsfaktoren können zur Anpassung an die untere Aufmerksamkeitsspanne verwendet werden. Die augmentierte Maskierung kann weiterhin entfernt werden, da der Benutzer eine Aufmerksamkeit innerhalb des größeren Geofence 608 behalten hat. Die Gewichtungsfaktoren können jedoch beispielsweise die Entfernung der Maskierung auf einen kleineren Teil beschränken, bis der Benutzer die Beleuchtung durch die Lampe wieder in die passende Ortsverfolgungsposition zurückbringt. Daher wird die Aufmerksamkeitsspanne des Benutzers registriert und die Maskierung aus der augmentierten Anzeige entfernt. Alternativ kann die Gewichtung so angewendet werden, dass ein anderes Gewicht aufgezeichnet wird, wenn sich die Aufmerksamkeit des Benutzers außerhalb des ersten Geofence und innerhalb des zweiten Geofence befindet. Die Gewichtung kann basierend auf dem Ereignis und der Werkzeuge angepasst werden und auf verschiedene Weisen eingerichtet sein, die für die Art der durchgeführten Suche geeignet sind.
  • In Ansicht 620 ist ein anderer Benutzer 612, der mehr Junior- („more junior“) und weniger erfahren ist, an den Ort gekommen, und das HMD des Benutzers 612 zeigt eine angepasste, kleinere mit einem Geofence versehene Grenze 608 an, da das Benutzerprofil dieser Person einen weniger erfahrenen Ermittler und Juniorrolle anzeigt. Eine weitere verschachtelte mit einem Geofence versehene Grenze 618 wird basierend auf dem Werkzeug (Taschenlampe) 625 gebildet (dies kann die gleiche Taschenlampe oder eine andere Taschenlampe oder ein völlig anderes Werkzeug sein, das mit der tragbaren Vorrichtung 602 gekoppelt werden kann).
  • Wie in Ansicht 620 zu sehen ist, leuchtet der Junior-Benutzer 612 mit dem Licht des Werkzeugs 625 aus der größeren mit einem Geofence versehenen Grenze 608 heraus, und seine Aufmerksamkeitsspanne ist dem Licht gefolgt. Obwohl seine Aufmerksamkeitsspanne innerhalb der kleineren mit einem Geofence versehenen Grenze 618 bleibt, wie sie durch die gekoppelte Vorrichtung 602 und das Werkzeug 625 bestimmt wird, die die Bewegung und Position verfolgen, wird keine Maskierung entfernt, da der kleinere Geofence 618 nicht mehr innerhalb der größeren mit einem Geofence versehenen Grenze 608 verschachtelt ist. So stoppt das Auflösen der verschachtelten mit einem Geofence versehenen Konfiguration das Entfernen der Maskierung gemäß einigen Ausführungsformen. Die verschachtelte, mit einem Geofence versehene Konfiguration stellt den Ermittlern Grenzen bereit, die für jede einzelne Ebene von Seniorität und/oder Erfahrung der Ermittler angemessen sind, wodurch die Suche an einem Ereignisort optimiert wird. Dementsprechend wird, wenn die Aufmerksamkeitsspanne des Benutzers außerhalb der grö-ßeren zweiten mit einem Geofence versehenen Grenze 608 liegt, die Aufmerksamkeitsspanne des Benutzers nicht registriert und es wird keine Maskierung entfernt.
  • In Ansicht 630 wird wieder der eher Senior-Benutzer 622 gezeigt, wobei seine Benutzeraufmerksamkeitsspanne aus seiner größeren mit einem Geofence versehenen Grenze 608 bewegt ist. Auch in diesem Szenario ist das Werkzeug (Taschenlampe) 625 innerhalb der größeren mit einem Geofence versehenen Grenze 608 leuchtend geblieben. In Übereinstimmung mit den Ausführungsformen wird mit der Kopplung des Werkzeugs mit der Positions- und der Bewegungsverfolgung der tragbaren Kommunikationsvorrichtung die Aufmerksamkeitsspanne des Benutzers nicht registriert und es wird keine Maskierung von der augmentierten Anzeige entfernt.
  • Dementsprechend zeigen die Ansichten von 600, 610, 620, 630, dass die Kombination einer angemessenen Aufmerksamkeitsspanne des Benutzers innerhalb eines verschachtelten Geofence, der basierend auf dem Benutzerkontext festgelegt wurde, die Maskierung von einer augmentierten Anzeige entfernt, die gemäß den mit einem Geofence versehenen Ausführungsformen gebildet wurde und funktioniert.
  • 7 ist ein Flussdiagramm eines Verfahrens 700 zum Durchsuchen einer Ereignisstelle gemäß einigen Ausführungsformen. Das Verfahren 700 beginnt mit der Durchführung einer Ortsrekonstruktion bei 702. Die Ortsrekonstruktion kann wie zuvor beschrieben unter Verwendung einer Vielzahl von Augmented-Reality-Erzeugungstechniken durchgeführt werden, basierend auf Kontextdaten, die am Ereignisort gesammelt wurden, entweder über eine Begehung und/oder extern überwacht und, wie zuvor in Verbindung mit 1 beschrieben, auf die Kommunikationsvorrichtung hochgeladen werden.
  • Gemäß den Ausführungsformen wird bei 704 der tragbaren Kommunikationsvorrichtung Benutzerkontext eingegeben. Der Benutzerkontext kann ein Benutzerprofil eines oder mehrerer Benutzer umfassen. Die Benutzerprofile können Benutzererfahrung, Rolle und/oder Expertise und dergleichen umfassen.
  • Gemäß einigen Ausführungsformen fährt das Verfahren 700 fort, indem es eine maskierte Augmented-Reality eines Suchbereichs auf der Anzeige der tragbaren Kommunikationsvorrichtung bei 706 anzeigt. Die maskierte Augmented-Reality kann Hervorhebungen („Highlighting“) umfassen, die von dem HMD (Vollansicht oder Teilansicht), dem Smartphone und dem Tablet erzeugt werden, und ist entfernbar als Reaktion auf das Durchsuchen eines Bereichs mit einer angemessenen Aufmerksamkeitsspanne.
  • Bei 708 wird innerhalb der dargestellten maskierten Augmented-Reality des Suchbereichs eine mit einem Geofence versehene Grenze angelegt. Die mit einem Goefence versehene Grenze zeigt ein zu durchsuchendes Gebiet an und basiert, zumindest anfänglich, auf Benutzerkontext. Zusätzlich zum Benutzerkontext kann die mit einem Geofence versehene Grenze ferner auf einem Werkzeugkontext und/oder einem Ereignisortkontext basieren. Für zusätzliche Geofences, wie zum Beispiel eine verschachtelte Geofence-Konfiguration, kann die äußere mit einem Geofence versehene Grenze auf dem Benutzerkontext und die innere mit einem Geofence versehene Grenze auf dem Werkzeugkontext basieren. Ereignisortparameter können je nach Bedarf auf eine oder beide dieser mit einem Geofence versehenen Grenzen angewendet werden.
  • Wenn der Benutzer mit der Suche beginnt, wird bei 710 bestimmt, ob sich der Benutzer innerhalb eines zugewiesenen Suchpfades/zugeordneten Suchbereichs befindet. Dies ist der Pfad/Bereich, der basierend auf dem Benutzerkontext bestimmt wurde.
  • Für Ausführungsformen, in denen Geofencing angewendet wird, bestimmt eine tragbare Kommunikationsvorrichtung, wenn sich der Benutzer innerhalb des zugewiesenen Pfades/zugeordneten Suchbereichs befindet bei 712, ob die Aufmerksamkeitsspanne des Benutzers innerhalb einer mit einem Geofence versehenen Grenze liegt. Wenn bei 712 die Aufmerksamkeitsspanne des Benutzers innerhalb der mit einem Geofence versehenen Grenze liegt, wird die Maskierung entfernt. Bei 714 bestimmt das System, ob der Bereich des Fokus der Benutzeraufmerksamkeitsspanne das Highlight bereits entfernt hat oder ob das Highlight auf der Augmented-Reality-Anzeige noch maskiert ist. Wurde das Highlight bereits bei einer früheren Suche entfernt (beispielsweise Suche durch den Benutzer 5 Sekunden zuvor und Highlight zu diesem Zeitpunkt entfernt), so ist keine Aktion erforderlich, außer es wird eine Überprüfung gewünscht, ansonsten wird die Durchsuchung als abgeschlossen angesehen bis zur nächsten Ortsrekonstruktion („nest scene reconstruction“) bei 702. Wenn das Highlight bei 714 vorhanden ist, wird das Highlight zu diesem Zeitpunkt entfernt, da dies das erste Mal ist, dass die Aufmerksamkeit des Benutzers auf den Bereich gerichtet ist.
  • Das Entfernen der Maskierung 714 löst bei 715 Aktualisierungen für alle Datenbanken aus, die mit der Aktualisierung der Maskierung der AR-Anzeige, dem Aufzeichnen der Aufmerksamkeitsspanne des Benutzers und der Gewichtungsfaktoren verbunden sind. Somit kann die Suche bei 716 mit aktualisierter Maskierung und Verfolgung fortgesetzt werden.
  • 8 ist ein Flussdiagramm, das ein Verfahren zum Durchsuchen eines Ereignisorts gemäß den verschachtelten mit einem Geofence versehenen Ausführungsformen zusammenfasst. Beginnend bei 802, wo eine maskierte Augmented-Reality des Ereignisorts auf einer Anzeige einer tragbaren Kommunikationsvorrichtung angezeigt wird, gefolgt von 804, wo eine erste mit einem Geofence versehene Grenze auf die angezeigte maskierte Augmented-Reality des Ereignisorts basierend auf dem Benutzerkontext angewendet wird. In einigen Ausführungsformen kann der Benutzerkontext eine Benutzerrolle und/oder eine Benutzererfahrung umfassen. Beispielsweise kann eine erste, externe mit einem Geofence versehene Grenze basierend auf der Erfahrung des Benutzers festgelegt werden, die von einer größeren mit einem Geofence versehenen Grenze für einen erfahrenen Ereignisortermittler bis hin zu einer Einstellung eines kleineren mit einem Geofence versehenen Grenze für einen Junior-Level Ereignisortermittler reicht.
  • Weiter zu 806, die tragbare Kommunikationsvorrichtung sensiert die Präsenz eines Suchwerkzeugs zum Untersuchen des Ereignisorts und beim Erfassen des Vorhandenseins des Werkzeugs, und bestimmt dann bei 808, welcher Typ von Suchwerkzeug sensiert wird. Bei 810 wird eine zweite mit einem Geofence versehene Grenze innerhalb der angezeigten maskierten Augmented-Reality des Ereignisorts angewendet, basierend auf der Art des bei 808 bestimmten Suchwerkzeugs, wodurch bei 812 erste und zweite verschachtelte mit einem Geofence versehene Grenzen als Teil der maskierten Augmented-Reality-Anzeige gebildet werden. Der Werkzeugtyp wird durch die tragbare Kommunikationsvorrichtung bestimmt, und basierend auf dem Werkzeugtyp wird eine vorgegebene mit einem Geofence versehene Grenze angelegt. Die Werkzeugposition kann von der tragbaren Kommunikationsvorrichtung verfolgt werden. Verschiedene Werkzeuge können unterschiedlich große mit einem Geofence versehene Grenzen haben, sollten aber kleiner bleiben als die größere benutzerbasierte mit einem Geofence versehene Grenze, um einen Suchansatz mit verschachtelter Konfiguration („nested configuration search approach“) zu ermöglichen.
  • Das Durchsuchen des Ereignisorts kann bei 814 erfolgen, geleitet von der Anzeige der maskierten Augmented-Reality, die von der tragbaren Kommunikationsvorrichtung bereitgestellt wird. Eine Konzentrationsspanne eines Benutzers, die innerhalb der ersten und/oder zweiten verschachtelten mit einem Geofence versehenen Grenzen fokussiert ist, führt zum Entfernen der Maskierung der angezeigten Augmented-Reality, was angibt, dass der Bereich durchsucht wurde.
  • Gemäß einigen Ausführungsformen kann die Aufmerksamkeitsspanne des Benutzers innerhalb der ersten und zweiten mit einem Geofence versehenen Grenzen gewichtet werden. So kann beispielsweise die größere mit einem Geofence versehene Grenze mit einem ersten Gewichtungsfaktor gewichtet werden, um die Größe des Geofence als Reaktion auf den Benutzerkontext zu variieren, während die zweite kleinere mit einem Geofence versehene Grenze mit einem zweiten Gewichtungsfaktor gewichtet werden kann, um die Größe des zweiten Geofence basierend auf dem Werkzeugkontext (Werkzeugtyp) zu variieren. In einigen Ausführungsformen kann die größere mit einem Geofence versehene Grenze ferner gewichtet werden, um die Größe des Geofence als Reaktion auf Kontextparameter des Ereignisorts zu variieren. Diese Gewichtungsfaktoren überwachen und dokumentieren die Gründlichkeit der Suche, die auf Wunsch auch als Heatmap in der Anzeige während eines Verifikationsmodus angezeigt werden kann.
  • Dementsprechend wurde ein verbesserter Ansatz für das Durchsuchen eines Ereignisorts unter Verwendung einer tragbaren Kommunikationsvorrichtung mit einer Augmented-Reality-Anzeige mit entfernbarer Maskierung bereitgestellt, die durch die Anwendung einer mit einem Geofence versehenen Grenze und/oder verschachtelter mit einem Geofence versehener Grenzen weiter verbessert werden kann.
  • Die verschiedenen Ausführungsformen haben eine tragbare Kommunikationsvorrichtung bereitgestellt, die eine Ansicht des Ereignisorts durch eine Anzeige ermöglicht, ergänzt durch eine entfernbare Maskierung. Die tragbare Kommunikationsvorrichtung kann ferner eine mit einem Geofence versehene Grenze innerhalb der maskierten Anzeige bereitstellen, um eine Suche basierend auf einem Benutzerkontext zu erleichtern, wobei die Entfernung der Augmented-Reality-Maskierung auf diese mit einem Geofence versehene Grenze beschränkt ist.
  • Die tragbare Kommunikationsvorrichtung kann durch die Anwendung verschachtelter mit einem Geofence versehener Grenzen weiter verbessert werden. Diese Grenzen werden basierend auf dem Benutzerkontext (Erfahrung, Rolle) und dem Werkzeugkontext (Werkzeugtyp) festgelegt. Durch die Verfolgung der Aufmerksamkeitsspanne eines Benutzers und der Bewegung des Werkzeugs eines Ermittlers, wie beispielsweise Licht einer Taschenlampe, erfolgt die Entfernung der AR-Maskierung als Reaktion auf die Aufmerksamkeit des Benutzers innerhalb der verschachtelten Grenzen. Mit einem Geofence versehene Grenzen können für verschiedene Benutzerrollen und Erfahrungsniveaus gewichtet werden, so dass einzelne Benutzerermittler effizient arbeiten können. Die gleiche tragbare Vorrichtung kann von verschiedenen Benutzern verwendet werden, da die verschiedenen Kontextparameter des Benutzers in einer Benutzer-Ressourcen-Datenbank des Kommunikationssystems gespeichert werden können.
  • In der vorangehenden Spezifikation sind spezifische Ausführungsformen beschrieben worden. Fachleuten auf dem Gebiet ist jedoch klar, dass verschiedene Modifizierungen und Änderungen vorgenommen werden können, ohne von dem Geist der Erfindung abzuweichen, wie in den Ansprüchen unten dargelegt. Dementsprechend sind die Spezifikation und die Abbildungen in einem eher illustrativen als einem restriktiven Sinne zu verstehen und alle solche Modifikationen sollen in dem Schutzbereich der vorliegenden Lehren enthalten sein.
  • Die Nutzen, Vorteile, Problemlösungen und jedes denkbare Element, das dazu führt, dass irgendein Nutzen, Vorteil oder irgendeine Lösung eintritt oder ausgeprägter wird, sollen nicht als kritische, erforderliche oder essentielle Merkmale oder Elemente eines beliebigen Anspruchs oder aller Ansprüche ausgelegt werden. Die Erfindung wird ausschließlich durch die angehängten Ansprüche definiert, einschließlich jeder beliebigen Änderung, die während der Rechtshängigkeit der vorliegenden Anmeldung vorgenommen wird, und aller Äquivalente solcher Ansprüche, wie veröffentlicht.
  • Darüber hinaus sollen in diesem Dokument relationale Ausdrücke, wie zum Beispiel, erste und zweite, oben und unten, und dergleichen ausschließlich verwendet werden, um eine Entität oder Aktion von einer anderen Entität oder Aktion zu unterscheiden, ohne notwendigerweise irgend eine tatsächliche solche Beziehung oder Reihenfolge zwischen solchen Entitäten oder Aktionen zu erfordern oder zu implizieren. Die Ausdrücke „umfasst“, „umfassend“, „hat“, „habend“, „beinhalten“, „beinhaltend“, „enthalten“, „enthaltend“ oder eine beliebige Variation davon sollen eine nicht-exklusive Einbeziehung abdecken, so dass ein Prozess, Verfahren, Artikel oder eine Vorrichtung, die eine Liste von Elementen umfassen, haben, beinhalten, enthalten, nicht nur solche Elemente beinhalten, sondern andere Elemente beinhalten können, die nicht ausdrücklich aufgeführt werden, oder solchen Prozessen, Verfahren, Artikeln oder Vorrichtungen inhärent sind. Ein Element, das fortfährt mit „umfasst... ein“, „hat... ein“, „beinhaltet... ein“, „enthält... ein“, schließt nicht, ohne weitere Auflagen, die Existenz zusätzlicher identischer Elemente in dem Prozess, Verfahren, Artikel oder der Vorrichtung aus, die das Element umfassen, haben, beinhalten, enthalten. Die Ausdrücke „eine“ und „ein“ werden als eins oder mehr definiert, sofern hierin nichts anderes explizit festgelegt ist. Die Ausdrücke „im Wesentlichen“, „essentiell“, „ungefähr“, „etwa“ oder eine beliebige andere Version davon wurden als „nahe bei sein“ definiert, wie dem Fachmann auf dem Gebiet klar ist, und in einer nicht begrenzenden Ausführungsform wird der Ausdruck definiert, innerhalb von 10 %, in einer anderen Ausführungsform innerhalb von 5 % in einer anderen Ausführungsform innerhalb von 1 % und in einer anderen Ausführungsform innerhalb von 0,5 % zu sein. Der Ausdruck „gekoppelt“, wie er hierin verwendet wird, wird als „verbunden“ definiert, obwohl nicht notwendigerweise direkt und nicht notwendigerweise mechanisch. Eine Vorrichtung oder Struktur, die in einer bestimmten Art und Weise „konfiguriert“ ist, ist mindestens auf diese Art und Weise konfiguriert, kann aber auch auf mindestens eine Art und Weise konfiguriert sein, die nicht aufgeführt ist.
  • Es ist gewünscht, dass einige Ausführungsformen einen oder mehrere generische oder spezialisierte Prozessoren (oder „Verarbeitungsvorrichtungen“) umfassen, wie zum Beispiel Mikroprozessoren, digitale Signalprozessoren, kundenspezifische Prozessoren und freiprogrammierbare Feld-Gate-Arrays (FPGAs) und eindeutige gespeicherte Programmanweisungen (die sowohl Software als auch Firmware umfassen), die den einen oder mehrere Prozessoren steuern, um in Verbindung mit bestimmten Nicht-Prozessor-Schaltungen, einige, die meisten oder alle der Funktionen des Verfahrens und/oder der Vorrichtung, die hierin beschrieben werden, zu implementieren. Alternativ können einige oder alle Funktionen durch eine Zustandsmaschine implementiert werden, die über keine gespeicherten Programmanweisungen verfügt, oder in einer oder mehreren anwendungsspezifischen integrierten Schaltungen (ASICs), in denen jede Funktion oder einige Kombinationen von bestimmten der Funktionen, als kundenspezifische Logik implementiert sind. Selbstverständlich kann eine Kombination der zwei Ansätze verwendet werden.
  • Darüber hinaus kann eine Ausführungsform als ein computerlesbares Speichermedium implementiert sein, das über einen darauf gespeicherten computerlesbaren Code zum Programmieren eines Computers (der zum Beispiel einen Prozessor umfasst) verfügt, um ein hierin beschriebenes und beanspruchtes Verfahren durchzuführen. Beispiele solcher computerlesbaren Speichermedien umfassen, ohne darauf beschränkt zu sein: eine Festplatte, eine CD-ROM, eine optische Speichervorrichtung, eine magnetische Speichervorrichtung, einen ROM (Nur-Lese-Speicher), einen PROM (Programmierbarer Lesespeicher), einen EPROM (Löschbarer Programmierbarer Lesespeicher), einen EEPROM (Elektrisch Löschbarer Programmierbarer Lesespeicher) und einen Flash-Speicher. Weiterhin ist zu erwarten, dass ein Fachmann auf dem Gebiet, ungeachtet möglicher erheblicher Anstrengungen und einer großen Designauswahl, die zum Beispiel durch eine zur Verfügung stehende Zeit, der aktuellen Technologie und ökonomische Überlegungen begründet ist, geleitet durch die hierin offenbarten Konzepte und Prinzipien, ohne Weiteres in der Lage ist solche Softwareanweisungen und Programme und ICs mit minimalem Versuchsaufwand zu erzeugen.
  • Die Zusammenfassung der Offenbarung wird zur Verfügung gestellt, um dem Leser zu erlauben, die Natur der technischen Offenbarung schnell zu erkennen. Es wird mit dem Verständnis eingereicht, dass es nicht verwendet wird, um den Geist oder die Bedeutung der Ansprüche zu interpretieren oder zu begrenzen. Zusätzlich ist der vorangehenden ausführlichen Beschreibung zu entnehmen, dass verschiedene Merkmale in verschiedenen Ausführungsformen zusammengruppiert werden, um die Offenbarung zu straffen. Dieses Offenbarungsverfahren soll nicht als ein Reflektieren einer Intention interpretiert werden, dass die beanspruchten Ausführungsformen mehr Merkmale erfordern, als ausdrücklich in jedem Anspruch vorgetragen werden. Vielmehr liegt, wie aus den folgenden Ansprüchen hervorgeht, ein erfinderischer Gegenstand in weniger als allen Merkmalen einer einzelnen offenbarten Ausführungsform vor. Somit werden die folgenden Ansprüche hierdurch in die ausführliche Beschreibung integriert, wobei jeder Anspruch für sich alleine als ein getrennt beanspruchter Gegenstand steht.

Claims (25)

  1. Verfahren zum Durchsuchen eines Ereignisorts, umfassend: das Anzeigen einer maskierten Augmented-Reality des Ereignisorts auf einer Anzeige einer tragbaren Kommunikationsvorrichtung; das Anwenden einer mit einem Geofence versehenen Grenze in der angezeigten maskierten Augmented-Reality des Ereignisorts, wobei die mit einem Geofence versehene Grenze einen zu durchsuchenden Bereich anzeigt; das Durchsuchen des Ereignisbereichs; und das Entfernen einer Maskierung aus der angezeigten maskierten Augmented-Reality des Ereignisorts, wobei die Maskierung nur innerhalb der mit einem Geofence versehenen Grenze entfernt wird, basierend auf der Aufmerksamkeitsspanne des Benutzers innerhalb der mit einem Geofence versehenen Grenze, wobei das Entfernen der Maskierung Bereiche angibt, die durchsucht wurden.
  2. Verfahren nach Anspruch 1, ferner umfassend: das Bewegen zu einem anderen Bereich des Ereignisorts, wobei als Reaktion darauf die mit einem Geofence versehene Grenze bewegt und mit einem neuen entfernbaren maskierten Highlight aktualisiert wird.
  3. Verfahren nach Anspruch 1, wobei das Anwenden einer mit einem Geofence versehenen Grenze innerhalb der angezeigten maskierten Augmented-Reality des Ereignisorts auf Benutzerkontext basiert.
  4. Verfahren nach Anspruch 1, wobei das Anwenden einer mit einem Geofence versehenen Grenze innerhalb der angezeigten maskierten Augmented-Reality des Ereignisorts auf Benutzerkontext und Ereignisstellenkontext basiert.
  5. Verfahren nach Anspruch 4, ferner umfassend: das Anpassen einer Größe der mit einem Geofence versehenen Grenze basierend auf dem Benutzerkontext, wobei die Größe der mit einem Geofence versehenen Grenze für einen erfahrenen Benutzer größer eingestellt ist, und die Größe der mit einem Geofence versehenen Grenze für einen weniger erfahrenen Benutzer kleiner eingestellt ist.
  6. Verfahren nach Anspruch 4, wobei das Entfernen der Maskierung auf der Benutzeraufmerksamkeitsspanne innerhalb der mit einem Geofence versehenen Grenze basiert.
  7. Verfahren nach Anspruch 1, wobei das Anwenden einer mit einem Geofence versehenen Grenze innerhalb der angezeigten maskierten Augmented-Reality des Ereignisorts umfasst: das Anwenden verschachtelter mit einem Geofence versehener Grenzen innerhalb der angezeigten maskierten Augmented-Reality des Ereignisorts, wobei die verschachtelten mit einem Geofence versehenen Grenzen einstellbar bemessen sind für Suchbereiche mit höherer und niedrigerer Priorität basierend auf Benutzerkontext und mindestens einem von Werkzeugkontext und Vorfallszenenkontext.
  8. Verfahren nach Anspruch 1, wobei das Anwenden einer mit einem Geofence versehenen Grenze innerhalb der angezeigten maskierten Augmented-Reality des Ereignisorts umfasst: das Anwenden verschachtelter mit einem Geofence versehener Grenzen innerhalb der angezeigten maskierten Augmented-Reality des Ereignisorts, wobei die verschachtelten mit einem Geofence versehenen Grenzen eine erste größere mit einem Geofence versehene Suchgrenze basierend auf Benutzerkontext und Ereignisortkontext haben und eine zweite kleinere mit einem Geofence versehene Suchgrenze basierend auf Werkzeugkontext haben.
  9. Verfahren nach Anspruch 1, worin die tragbare Kommunikationsvorrichtung eine Head-Mounted-Display (HMD) umfasst.
  10. Verfahren zum Durchsuchen eines Ereignisorts, umfassend: das Anzeigen einer maskierten Augmented-Reality des Ereignisorts auf einer Anzeige einer tragbaren Kommunikationsvorrichtung; das Anwenden einer ersten mit einem Geofence versehenen Grenze auf die angezeigte maskierte Augmented-Reality des Ereignisorts basierend auf Benutzerkontext; das Sensieren, durch die tragbare Kommunikationsvorrichtung, einer Präsenz eines Suchwerkzeugs zum Untersuchen des Ereignisorts; das Bestimmen, welche Art von Suchwerkzeug sensiert wird; und das Anwenden einer zweiten mit einem Geofence versehenen Grenze auf die angezeigte maskierte Augmented-Reality des Ereignisorts basierend auf der Art des bestimmten Suchwerkzeugs, wodurch erste und zweite verschachtelte mit einem Geofence versehene Grenzen für das Suchen innerhalb der maskierten Augmented-Reality-Anzeige gebildet werden.
  11. Verfahren nach Anspruch 10, wobei das Verfahren ferner umfasst: das Entfernen von Maskierung aus der auf der tragbaren Kommunikationsvorrichtung angezeigten maskierten Augmented-Reality des Ereignisorts als Reaktion darauf, dass Benutzeraufmerksamkeit innerhalb der ersten und zweiten verschachtelten mit einem Geofence versehenen Grenzen bewegt wird.
  12. Verfahren nach Anspruch 10, wobei der Benutzerkontext eine Benutzerrolle und/oder eine Benutzererfahrung umfasst.
  13. Verfahren nach Anspruch 12, worin die Benutzererfahrung und die Benutzerrolle eines aus Folgenden umfasst: einen erfahreneren Ereignisortermittler; und einen Junior-Ereignisortermittler.
  14. Verfahren nach Anspruch 12, wobei das Entfernen von Maskierung aus der angezeigten maskierten augmentierten Grenze basiert auf: einer Benutzeraufmerksamkeitsspanne innerhalb des ersten oder zweiten verschachtelten Geofence.
  15. Verfahren nach Anspruch 10, ferner umfassend: das Anwenden eines ersten Gewichtungsfaktors auf die erste mit einem Geofence versehene Grenze; und das Anwenden eines zweiten Gewichtungsfaktors auf die zweite mit einem Geofence versehene Grenze; und wobei der erste und der zweite Gewichtungsfaktor eine Verifikation der Suche ermöglicht.
  16. Tragbare Kommunikationsvorrichtung, umfassend: eine Anzeige zum Anzeigen: einer maskierte Augmented-Reality eines Suchbereichs oder -pfades eines Ereignisorts; und der maskierten Augmented-Reality des Suchbereichs oder -pfades des Ereignisorts, die als Reaktion auf eine benutzerbasierte Suche entfernbar ist.
  17. Tragbare Kommunikationsvorrichtung nach Anspruch 16, worin das Entfernen der Maskierung basiert auf: einer Benutzeraufmerksamkeit auf die maskierte Augmented-Reality.
  18. Tragbare Kommunikationsvorrichtung nach Anspruch 16, wobei die Anzeige ferner umfasst: eine mit einem Geofence versehene Grenze, die innerhalb der maskierten Augmented-Reality angewendet wird.
  19. Tragbare Kommunikationsvorrichtung nach Anspruch 18, worin das Entfernen der Maskierung basiert auf: Aufmerksamkeit des Benutzers auf die maskierte Augmented Reality.
  20. Tragbare Kommunikationsvorrichtung nach Anspruch 18, worin die mit einem Geofence versehene Grenze in ihrer Größe basierend auf Benutzererfahrung und Ereignisortkontext einstellbar ist.
  21. Kommunikationssystem nach Anspruch 16, wobei die tragbare Kommunikationsvorrichtung umfasst: ein Head-Mounted-Display (HMD).
  22. Tragbare Kommunikationsvorrichtung nach Anspruch 18, die ferner eine weitere mit einem Geofence versehene Grenze umfasst, die innerhalb der maskierten Augmented-Reality des Suchbereichs oder des Suchpfades des Ereignisorts angezeigt wird, und erste und zweite verschachtelte mit einem Geofence versehene Grenzen gebildet werden, wobei die zweite mit einem Geofence versehene Grenze innerhalb der ersten mit einem Geofence versehenen Grenze verschachtelt ist.
  23. Tragbare Kommunikationsvorrichtung nach Anspruch 21, wobei jede der ersten und zweiten mit einem Geofence versehenen Grenzen einen damit verbundenen Gewichtungsfaktor aufweist.
  24. Tragbare Kommunikationsvorrichtung nach Anspruch 21, wobei: die erste mit einem Geofence versehene Grenze eine größere Größe als die zweite mit einem Geofence versehene Grenze aufweist, wobei die erste mit einem Geofence versehene Grenze einen vorbestimmten Suchbereich basierend auf Benutzerkontext bereitstellt; und die zweite mit einem Geofence versehene Grenze, die innerhalb der ersten mit einem Geofence versehenen Grenze verschachtelt ist, basierend auf der tragbaren Kommunikationsvorrichtung, die ein Untersuchungswerkzeug erfasst, eine kleinere Größe aufweist.
  25. Tragbare Kommunikationsvorrichtung nach Anspruch 21, wobei: die erste mit einem Geofence versehene Grenze eine größere Größe als die zweite mit einem Geofence versehene Grenze aufweist, wobei die erste mit einem Geofence versehene Grenze einen vorbestimmten Suchbereich basierend auf Benutzerkontext und Ereignisortkontext bereitstellt; und die zweite mit einem Geofence versehene Grenze, die innerhalb der ersten mit einem Geofence versehenen Grenze verschachtelt ist, basierend auf Werkzeugkontext eine kleinere Größe aufweist.
DE112017006503.8T 2016-12-24 2017-12-13 Verfahren und vorrichtung zum dynamischen geofence-absuchen eines ereignisorts Pending DE112017006503T5 (de)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/390,470 US10127705B2 (en) 2016-12-24 2016-12-24 Method and apparatus for dynamic geofence searching of an incident scene
US15/390,470 2016-12-24
PCT/US2017/066070 WO2018118572A1 (en) 2016-12-24 2017-12-13 Method and apparatus for dynamic geofence searching of an incident scene

Publications (1)

Publication Number Publication Date
DE112017006503T5 true DE112017006503T5 (de) 2020-04-09

Family

ID=61017988

Family Applications (1)

Application Number Title Priority Date Filing Date
DE112017006503.8T Pending DE112017006503T5 (de) 2016-12-24 2017-12-13 Verfahren und vorrichtung zum dynamischen geofence-absuchen eines ereignisorts

Country Status (6)

Country Link
US (1) US10127705B2 (de)
AU (1) AU2017382703B2 (de)
CA (1) CA3048139C (de)
DE (1) DE112017006503T5 (de)
GB (1) GB2572709B (de)
WO (1) WO2018118572A1 (de)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10810773B2 (en) * 2017-06-14 2020-10-20 Dell Products, L.P. Headset display control based upon a user's pupil state
US11694287B2 (en) * 2018-05-18 2023-07-04 Edst, Llc Intelligent property management system
US12003585B2 (en) 2018-06-08 2024-06-04 Vale Group Llc Session-based information exchange
US11195336B2 (en) 2018-06-08 2021-12-07 Vulcan Inc. Framework for augmented reality applications
US10996831B2 (en) 2018-06-29 2021-05-04 Vulcan Inc. Augmented reality cursors
US10810432B2 (en) 2018-08-02 2020-10-20 Motorola Solutions, Inc. Methods and systems for differentiating one or more objects in a video
JP7093418B2 (ja) * 2018-09-20 2022-06-29 富士フイルム株式会社 情報処理装置、情報処理システム、情報処理方法、及びプログラム
US11381710B2 (en) 2019-09-13 2022-07-05 International Business Machines Corporation Contextual masking of objects in social photographs
US11050827B1 (en) 2019-12-04 2021-06-29 Motorola Solutions, Inc. Method and device for identifying suspicious object movements based on historical received signal strength indication information associated with internet-of-things devices
US11922689B2 (en) * 2021-02-19 2024-03-05 Motorola Solutions, Inc. Device and method for augmenting images of an incident scene with object description
US20220398302A1 (en) * 2021-06-10 2022-12-15 Trivver, Inc. Secure wearable lens apparatus
US11436810B1 (en) 2021-09-23 2022-09-06 International Business Machines Corporation Selectively pausing physical movement in a virtual environment

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8965460B1 (en) * 2004-01-30 2015-02-24 Ip Holdings, Inc. Image and augmented reality based networks using mobile devices and intelligent electronic glasses
US7451030B2 (en) 2005-02-04 2008-11-11 Novariant, Inc. System and method for interactive selection and determination of agricultural vehicle guide paths offset from each other with varying curvature along their length
US20090171961A1 (en) 2007-12-28 2009-07-02 Jason Fredrickson Workflow collaboration in a forensic investigations system
US8998083B2 (en) 2009-07-17 2015-04-07 Primary Marking Systems, Inc. Systems and methods for the tracking of evidence
EP2544082A4 (de) * 2010-03-05 2013-10-30 Fujitsu Ltd Bildanzeigesystem, informationsverarbeitungsvorrichtung, anzeigevorrichtung und bildanzeigeverfahren
US8510166B2 (en) 2011-05-11 2013-08-13 Google Inc. Gaze tracking system
US8558759B1 (en) 2011-07-08 2013-10-15 Google Inc. Hand gestures to signify what is important
US8407142B1 (en) 2011-09-23 2013-03-26 Bank Of America Corporation Managing a universal payment account
US9345957B2 (en) * 2011-09-30 2016-05-24 Microsoft Technology Licensing, Llc Enhancing a sport using an augmented reality display
US20130314398A1 (en) * 2012-05-24 2013-11-28 Infinicorp Llc Augmented reality using state plane coordinates
US9142038B2 (en) * 2012-11-06 2015-09-22 Ripple Inc Rendering a digital element
US9235870B2 (en) 2012-12-05 2016-01-12 Scenedoc Inc. System and method for documenting evidence
US20140160162A1 (en) * 2012-12-12 2014-06-12 Dhanushan Balachandreswaran Surface projection device for augmented reality
US9996150B2 (en) * 2012-12-19 2018-06-12 Qualcomm Incorporated Enabling augmented reality using eye gaze tracking
US20140267411A1 (en) * 2013-03-15 2014-09-18 Elwha Llc Indicating observation or visibility patterns in augmented reality systems
US9430990B2 (en) * 2013-08-30 2016-08-30 International Business Machines Corporation Presenting a data in a graphical overlay
US9552062B2 (en) * 2014-09-05 2017-01-24 Echostar Uk Holdings Limited Gaze-based security
US20160080155A1 (en) * 2014-09-12 2016-03-17 Peeqsee, Inc. Systems and Methods for Controlling the Distribution, Processing, and Revealing of Hidden Portions of Images
WO2016187352A1 (en) * 2015-05-18 2016-11-24 Daqri, Llc Threat identification system

Also Published As

Publication number Publication date
CA3048139C (en) 2022-05-10
US10127705B2 (en) 2018-11-13
GB201908851D0 (en) 2019-08-07
CA3048139A1 (en) 2018-06-28
GB2572709B (en) 2022-04-06
WO2018118572A1 (en) 2018-06-28
AU2017382703B2 (en) 2021-01-07
AU2017382703A1 (en) 2019-07-11
US20180182142A1 (en) 2018-06-28
GB2572709A (en) 2019-10-09

Similar Documents

Publication Publication Date Title
DE112017006503T5 (de) Verfahren und vorrichtung zum dynamischen geofence-absuchen eines ereignisorts
DE202012013403U1 (de) Erfassen und Verarbeiten adaptiver Bilder mit Bildanalyse-Rückmeldung
DE112017006487T5 (de) Verfahren und vorrichtung zum erzeugen eines suchmusters für einen ereignisort
EP3058556B1 (de) Verfahren und vorrichtung zur automatisierten waldbrandfrüherkennung mittels optischer detektion von rauchwolken
DE102017010210A1 (de) Bild-Matting mittels tiefem Lernen
DE112017006448T5 (de) System und Verfahren zum Anzeigen von interessierenden Objekten an einem Ereignisort
DE112016005412T5 (de) Überwachungsvorrichtung, Überwachungssystem und Überwachungsverfahren
DE112017007246T5 (de) Bildanalysevorrichtung, bildanalyseverfahren und bildanalyseprogramm
DE202014010927U1 (de) Referenzpunktidentifizierung aus Punktwolken, die aus geografischen Bilddaten erstellt werden
DE202014010935U1 (de) Aktualisierungen von 3D-Modellen mithilfe von Crowd-Sourcing-basiertem Videomaterial
DE102020103118A1 (de) Menschliche aktivität-erkennung mittels thermischer daten und flugzeitsensordaten
DE102012216191A1 (de) Authentifizierungssystem
DE202014010837U1 (de) Identifizieren einer mit einem Funknetzzugangspunkt assoziierten Entität
EP2691934B1 (de) Phantombilddatenbank (3d)
DE102014211692A1 (de) Anhängeridentifizierung
DE202011110874U1 (de) System zur Bestimmung von Gebäudenummern
DE102020105168A1 (de) Ermöglichen automatischer messungen
DE112019000958T5 (de) Arbeitssitz-angabesystem und arbeitssitz-angabeverfahren
DE112013005195T5 (de) Verfahren und Vorrichtung zur Auswahl eines Videoanalyse-Algorithmus, basierend auf historischen Ereignisdaten
DE112016001039T5 (de) Vorrichtung und Verfahren zur Extraktion eines interessierenden Bereichs
DE112010006067T5 (de) Kartenanzeigevorrichtung und Navigationsvorrichtung
DE102009054000A1 (de) Gerät zur bildlichen Aufnahme und Darstellung von Objekten, insbesondere Digitalfernglas, Digitalkamera oder Digitalvideokamera
DE202016007836U1 (de) Systeme zur Erleichterung der Übermittlung von Benutzerbildern von Standorten
WO2015028294A1 (de) Überwachungsanlage sowie verfahren zur darstellung eines überwachungsbereichs
DE112016005479T5 (de) Datenanalysesystem

Legal Events

Date Code Title Description
R012 Request for examination validly filed