-
Die Erfindung betrifft ein mobiles Handgerät zur Ausrichtung eines Sensors, einen optoelektronischen Sensor zur Erfassung von Objekten in einem Überwachungsbereich sowie ein Verfahren zur Ausrichtung eines Sensors zur Erfassung mit Hilfe eines Handgeräts nach den Oberbegriffen von Anspruch 1, Anspruch 7 und Anspruch 13.
-
Viele optoelektronische Sensoren senden einen Lichtstrahl aus und werten das von einem Objekt in ihrem Überwachungsbereich zurückgeworfene eigene Sendelicht aus. Solche Sensoren bedürfen häufig einer recht genauen Ausrichtung, bei welcher der Lichtfleck, den das Sendelicht auf dem Objekt erzeugt, in eine für die Aufgabe des Sensors geeignete Position gebracht wird. Beispielsweise wird auf diese Weise eine Reflexionslichtschranke auf ihren Reflektor oder eine Datenlichtschranke auf ihr Gegenstück, bei einem Lichtgitter der Sendestab mit dem Empfängerstab ausgerichtet, bei einem Entfernungstaster das zu vermessende Objekt angetastet oder die Überwachungsebene eines Laserscanners eingestellt.
-
Solange das Sendelicht einen gut sichtbaren Lichtfleck hinterlässt, ist die Ausrichtung relativ einfach mit dem Auge zu bewerkstelligen. Das ist aber aus zwei Gründen oft nicht gegeben: Die Intensität des Lichtflecks genügt nicht unbedingt, um ihn auch aus größerer Entfernung noch gut zu erkennen, und vor allem nutzen viele Sensoren nicht sichtbares Licht beispielsweise im Infrarot- oder Ultraviolettbereich.
-
Deshalb sind im Stand der Technik zahlreiche Ausrichthilfen bekannt. Bei einer herkömmlichen Lösung zeigt der Sensor den Empfangspegel an und gibt nach Möglichkeit mit einem positionssensitiven Lichtempfänger einen Hinweis, in welche Richtung der Sensor für eine bessere Ausrichtung gedreht werden sollte. Bei aktiver Gegenstelle, wie in einem Lichtgitter oder einer Datenlichtschranke, kann diese eine Rückmeldung über die empfangene Intensität geben. Andere Lösungen suchen die Sichtbarkeit des Lichtflecks zu stärken, etwa indem ein zusätzlicher Pilotsender mit sichtbarem Licht in paralleler Abstrahlrichtung zu dem eigenen Lichtsender oder ein optisches Fadenkreuz vorgesehen wird. Denkbar ist weiterhin, von einer festen Abstrahlrichtung auszugehen und den Sensor unabhängig vom tatsächlichen Lichtfleck auszurichten. Dazu kann eine Zielhilfe an dem Sensor über Kimme und Korn oder die Verwendung einer Wasserwaage dienen.
-
Viele dieser Lösungen müssen speziell für den jeweiligen Sensortyp zugeschnitten werden. Das erfordert Aufwand für die Entwicklung und Herstellung der Sensoren. Dennoch bleibt die Nutzerfreundlichkeit begrenzt.
-
Von Mobilfunkgeräten ist bekannt, mit der eigenen Kamera Bilder in der sogenannten augmented reality darzustellen. Dabei werden dem Livebild zusätzliche Informationen überblendet. Derartige Anwendungen markieren beispielsweise die Sonnenbahn an beliebig wählbaren Tagen im Jahr für die Wohnungsbesichtigung oder die Planung einer Photovoltaikanlage. Für die Ausrichtung von Sensoren sind solche Anwendungen nicht gedacht und ungeeignet.
-
Bekannte Kameras zeigen überdies während der Bildersuche wählbare Fokusbereiche an, die dazu zum Teil durch einen Entfernungssensor ausgemessen werden. Das dient aber allenfalls der Ausrichtung der Kamera selbst und hilft in keiner Weise dabei, einen externen optoelektronischen Sensor auszurichten.
-
Es ist daher Aufgabe der Erfindung, die Ausrichtung eines optoelektronischen Sensors zu verbessern.
-
Diese Aufgabe wird durch ein mobiles Handgerät zur Ausrichtung eines Sensors, einen optoelektronischen Sensor zur Erfassung von Objekten in einem Überwachungsbereich sowie ein Verfahren zur Ausrichtung eines Sensors zur Erfassung mit Hilfe eines Handgeräts nach Anspruch 1, Anspruch 7 und Anspruch 13 gelöst. Dabei geht die Erfindung von dem Grundgedanken aus, für die Ausrichtung benötigte Auswertungen und Anzeigen von dem Sensor an ein mobiles Handgerät auszulagern. Dazu umfasst die Erfindung einerseits ein mobiles Handgerät, welches in der Lage ist, ein Sichtbereichsbild des Sensors und eine Position des Lichtflecks in dem Sichtbereichsbild von einem Sensor zu empfangen und auf dieser Basis die Ausrichtung in einem Überlagerungsbild des Sichtbereichs und einer Zielanzeige der Position eines von dem Sensor erzeugten Lichtflecks zu visualisieren. Andererseits wird ein zugehöriger Sensor angegeben, welcher sein Sichtbereichsbild und die Position des Lichtflecks innerhalb des Sichtbereichsbildes für ein mobiles Handgerät bereitstellt. Unter einem mobilen Handgerät soll hier ein tragbarer Computer im weitesten Sinne, wie ein Notebook oder ein Tablet und insbesondere ein Mobilfunkgerät beziehungsweise Smartphone verstanden werden.
-
Die Erfindung hat den Vorteil, dass die Ausrichtung eines Sensors erheblich erleichtert und durch eine besonders intuitive, nutzerfreundliche universelle Ausrichthilfe unterstützt wird, welche keine besonderen Kenntnisse eines speziellen Sensors voraussetzt. Ein hoher Bedienkomfort, eine große Rechenleistung und eine hochauflösende Anzeige werden nicht durch den Sensor, sondern durch das Handgerät bereitgestellt. Zugriff auf ein solches Handgerät in jeweils aktueller Hardware ist fast immer unabhängig von dem Sensor gegeben. Während die Sensoren hinsichtlich ihrer Rechenleistung und Visualisierung äußerst einfach und kostengünstig und in dieser Form auch unverändert über viele Jahre im Einsatz bleiben können, veraltet die Ausrichtung dennoch nicht, so dass der Benutzer einfach, schnell und angenehm arbeiten kann, ohne die Geräte jemals als veraltet zu empfinden. Der Benutzer kann die Ausrichtung sogar mit dem vertrauten eigenen Gerät vornehmen, etwa seinem Smartphone, und muss sich gar nicht auf fremde Technik einlassen. Es entsteht eine ideale Synergie mit den Fortschritten in der mobilen Consumerelektronik, der von der Entwicklung des Sensors entkoppelt genutzt werden kann.
-
Das Handgerät weist bevorzugt einen eigenen Bildsensor zur Aufnahme eines zusätzlichen Sichtbereichsbildes des Überwachungsbereichs auf, wobei die Fusionseinheit dafür ausgebildet ist, das Überlagerungsbild auch basierend auf dem zusätzlichen Sichtbereichsbild zu erzeugen. Das Handgerät nutzt also seine eigene Kamera zur Aufnahme des eigenen Sichtbereichs. Diese Kamera ist meist ohnehin vorhanden, leistungsstark und hochauflösend, so dass der Sensor kein für den Benutzer gutes Sichtbereichsbild zu liefern braucht und somit schon mit einem vergleichsweise leistungsschwachen und daher kostengünstigen Bildsensor auskommt. Denn das Sichtbereichsbild des Sensors wird lediglich genutzt, um die Position des Lichtflecks in dem zusätzlichen Sichtbereichsbild der eigenen Kamera des Handgeräts abzugleichen, und gegebenenfalls noch um die Bildqualität des zusätzlichen Sichtbereichsbilds etwa durch Füllen von Lücken oder eine Plausibilisierung von Bildbereichen zu erhöhen.
-
Auch eine möglicherweise mit gezeigte Bildinformation des Lichtflecks selbst entstammt dem Sichtbereichsbild des Sensors, sofern der Bildsensor des Handgeräts für die Wellenlänge des Lichtflecks nicht empfindlich ist. Das Handgerät sollte für die Aufnahme des zusätzlichen Sichtbereichs eine in etwa gleiche Perspektive einnehmen wie der Sensor. Dabei verbleibende perspektivische Unterschiede rechnet die Fusionseinheit aber vorzugsweise heraus, so dass hier keine übertriebenen Genauigkeitsanforderungen an den Benutzer gestellt sind.
-
Die Fusionseinheit ist bevorzugt dafür ausgebildet, das Sichtbereichsbild des Sensors und das zusätzliche Sichtbereichsbild des eigenen Bildsensors miteinander in Übereinstimmung zu bringen, um die Position des Lichtflecks in dem zusätzlichen Sichtbereichsbild zu bestimmen. Im einfachsten Fall wird dazu angenommen, dass die Bildbereiche des Sichtbereichsbildes des Sensors und des zusätzlichen Sichtbereichsbildes des eigenen Bildsensors des Handgeräts einander entsprechen, so dass die Zielanzeige einfach an der gleichen Position dem zusätzlichen Sichtbereichsbild überlagert wird, welche der Sensor auch für sein eigenes Sichtbereichsbild bestimmt hat.
-
Deutlich robuster ist eine Registrierung der beiden Sichtbereichsbilder, indem also durch Operationen wie Verschieben, Verdrehen und Reskalieren das Sichtbereichsbild des Sensors in das zusätzliche Sichtbereichsbild des Bildsensors des Handgeräts eingepasst wird. Dies gelingt beispielsweise durch Korrelation der beiden Sichtbereichsbilder, die sich statt auf die gesamten Bilder auch auf ausgewählte Bildmerkmale oder interessierende Bereiche (ROI, region of interest) beschränken kann. Danach ist die Operation bekannt, welche die Perspektive des Sensors auf diejenige des Handgeräts transformiert, und diese Transformationsregel wird genutzt, um die Zielanzeige an der richtigen Position in das zusätzliche Sichtbereichsbild einzublenden.
-
Sofern der Bildsensor des Handgeräts für die Wellenlänge des Lichtflecks empfindlich ist, kann versucht werden, den Lichtfleck direkt durch Bildverarbeitung zu lokalisieren. Die dabei bestimmte Position des Lichtflecks kann auch als Ausgangspunkt beziehungsweise zur Plausibilisierung bei der Registrierung der beiden Sichtbereichsbilder genutzt werden.
-
Das Handgerät weist bevorzugt einen Lage- und/oder Beschleunigungssensor auf, wobei die Fusionseinheit dafür ausgebildet ist, eine Orientierungs- und/oder Positionsänderung des Handgeräts zu bestimmen und bei der Fusionierung der Zielanzeige in das Überlagerungsbild zu berücksichtigen. Derartige Sensoren gehören für viele höherwertige Mobilfunkgeräte zur Ausstattung. Es ist damit möglich, auf Basis eines anfänglichen Positions- und Orientierungsabgleichs zwischen Sensor und Handgerät die Bewegungen des Handgeräts zu aufzuintegrieren und damit Wissen über die aktuelle Perspektive des Handgeräts gegenüber dem Sensor zu gewinnen. Dadurch kann die Position des Lichtflecks auf die aktuelle Position und Orientierung des Handgeräts umgerechnet werden.
-
Das Handgerät weist bevorzugt einen Positionssensor auf, wobei die Fusionseinheit dafür ausgebildet ist, eine von dem Positionssensor bestimmte Position des Handgeräts bei der Fusionierung der Zielanzeige in das Überlagerungsbild zu berücksichtigen. Die Erfassung der Position erfolgt beispielsweise durch GPS, Galilei oder ein vergleichbares, möglicherweise auch proprietäres System für außen oder innen. Soweit der Positionssensor keine Orientierung erfasst, kann ein Lagesensor hinzugenommen werden. Bei bekannter Position und Orientierung des Sensors, die auch durch ein Einlernen während eines physischen Kontakts zwischen Sensor und Handgerät durch den Positionssensor bestimmt werden kann, ist die erfasste aktuelle Position eine weitere Alternative, um die Zielanzeige in dem Überlagerungsbild an die richtige Position zu bringen.
-
Eine Bildfusion durch Korrelation, die Bestimmung des Weges zwischen Sensor und Handgerät durch einen Lage- und/oder Beschleunigungssensor sowie die Bestimmung der aktuellen Position des Handgeräts durch einen Positionssensor sind drei unterschiedliche Möglichkeiten, die Perspektiven des Sensors und des Handgeräts für eine korrekte Zielanzeige in dem Überlagerungsbild ineinander zu überführen. Diese Möglichkeiten können auch miteinander kombiniert werden, um genauere Ergebnisse zu erhalten oder Fehler aufzudecken
-
Die Fusionseinheit ist bevorzugt dafür ausgebildet, das Überlagerungsbild auf die Perspektive des Sensors zurückzurechnen. Hierbei wird das qualitativ hochwertigere zusätzliche Sichtbereichsbild von einem Bildsensor des Handgeräts angezeigt, aber so, als wäre es aus der Perspektive des Sensors aufgenommen. Die perspektivischen Unterschiede sind beispielsweise mit einer der im letzten Absatz zusammengefassten Vorgehensweisen bestimmt. Die Perspektiven von Sensor und Handgerät dürfen hierfür aber nicht zu unterschiedlich sein, weil sonst nicht genug geeignete Bildinformation zur Verfügung steht. Es ist aber zumindest möglich, ein auf die Position des Lichtflecks zentriertes Überlagerungsbild mit dem Sichtbereichsbild des Sensors anzuzeigen, das je nach Perspektive des Handgeräts mit Bildinformationen des Bildsensors des Handgeräts aufgebessert wird.
-
Der erfindungsgemäße Sensor zur Erfassung von Objekten in einem Überwachungsbereich erzeugt mit seinem Lichtsender bei Auftreffen auf ein Objekt vorzugsweise einen Lichtfleck mit Sendelicht außerhalb des sichtbaren Spektrums oder mit so geringer Ausdehnung beziehungsweise Intensität, dass der Lichtfleck mit dem menschlichen Auge nicht oder kaum erkennbar ist. Ansonsten könnte man direkt den Lichtfleck selbst für die Ausrichtung nutzen. Der Sensor nimmt ein Sichtbereichsbild auf, bestimmt oder kennt die Position des Lichtflecks bezüglich des eigenen Sichtbereichsbildes und gibt Sichtbereichsbild und Position zur Verwendung in einem erfindungsgemäßen Handgerät aus. Bei dem Sensor handelt es sich beispielsweise um ein einstrahliges System, wie einen Entfernungstaster oder eine Lichtschranke, insbesondere Datenlichtschranke. Denkbar sind aber auch andere Sensoren, etwa Laserscanner oder Lichtgitter. Der Sensor benötigt für die Ausrichtung nur eine geringe Hardwareausstattung ohne eigene Anzeigetreiber, hochwertige Anzeige oder hochauflösenden Bildsensor und so gut wie keine Rechenkapazitäten, da alle komplexeren Auswertungen in dem Handgerät erfolgen können. Selbstverständlich soll dadurch das Vorhandensein solcher Hardwareausstattung auch des Sensors nicht ausgeschlossen werden.
-
Die Lichtfleck-Positionsbestimmungseinheit weist bevorzugt einen Speicher auf, um darin die Position des Lichtflecks vorab abzulegen. Der Sensor kennt damit die Ausrichtung des Lichtsenders zu sich selbst und damit auch gegenüber dem eigenen Bildsensor zur Aufnahme des Sichtbereichsbildes. Diese eigene Ausrichtung kann einfach durch ein Toleranzmodell festgelegt werden, worin letztlich unterstellt wird, dass der Bautyp des Sensors die eigene Ausrichtung festlegt. Möchte man die dabei auftretenden Toleranzen genauer in den Griff bekommen, so ist auch ein anfängliches Einlernen während der Justage der Sensorkomponenten im Verlauf der Herstellung oder bei der Endprüfung möglich. Hier sind definierte Umgebungsbedingungen und standardisierte Verfahren durch Fachpersonal gegeben, so dass es auf einfache und intuitive Vorgehensweisen weniger ankommt. Die durch die Erfindung adressierte Ausrichtung dagegen betrifft vorzugsweise nicht den Sensor in sich, sondern gegenüber seiner Umgebung in der Anwendung.
-
Die Lichtfleck-Positionsbestimmungseinheit ist bevorzugt dafür ausgebildet, die Position des Lichtflecks mittels Bildverarbeitung zu bestimmen. Der Sensor ist, um seine Objekterfassungsaufgabe erfüllen zu können, zwangsläufig auch bei Sendelicht außerhalb des sichtbaren Spektrums in der Lage, den Lichtfleck zu erfassen. Allerdings muss dafür nicht notwendig der Bildsensor zur Aufnahme des Sichtbereichsbildes verwendet werden. Ist aber dieser Bildsensor für den Lichtfleck sensitiv, so kann aus dem Sichtbereichsbild durch Bildverarbeitung auch die als Ausgabegröße an das Handgerät erforderliche Position des Lichtflecks für die sensoreigene Perspektive, also gegenüber dem Sichtbereichsbild des Sensors bestimmt werden.
-
Sofern der Sensor distanzmessend ausgelegt ist, können die gespeicherten, eingelernten oder bestimmten Positionen des Lichtflecks auch noch eine Abhängigkeit vom jeweiligen Objektabstand aufweisen. Es wird also keine einzelne Position, sondern eine abstandsabhängige Funktion bereitgestellt.
-
Der Sensor weist bevorzugt eine Vorverarbeitungseinheit auf, um das Sichtbereichsbild für die Ausgabe an der Schnittstelle aufzubereiten. Dies erfordert dann einige interne Rechenkapazität, hilft aber dafür, die benötigte Bandbreite zu reduzieren. Beispiele für eine derartige Vorverarbeitung sind Komprimierung, Binarisierung, Beschränkung auf interessierende Bereiche, insbesondere mit dem Lichtfleck oder markanten Objekten oder vermutlich von dem Fusionsalgorithmus des Handgeräts wiedererkennbare Bildmerkmale beziehungsweise Objektkanten.
-
In vorteilhafter Weiterbildung ist eine Anordnung zur Ausrichtung eines erfindungsgemäßen optoelektronischen Sensors mit einem erfindungsgemäßen mobilen Handgerät vorgesehen. Dabei sind die Schnittstellen des Sensors und des Handgeräts vorzugsweise drahtlos. Dazu kommen praktisch alle bekannten und zukünftig eingesetzten Standards in Frage, wie Bluetooth, 3G, LTE, WLAN, IR und andere. Mobile Handgeräte sind meist ohnehin mit einer Vielzahl derartiger Schnittstellen ausgerüstet, so dass für den Sensor eine geeignete Auswahl getroffen werden kann.
-
Das erfindungsgemäße Verfahren kann auf ähnliche Weise durch weitere Merkmale ausgestaltet werden und zeigt dabei ähnliche Vorteile. Derartige weitere Merkmale sind beispielhaft, aber nicht abschließend, in den sich an die unabhängigen Ansprüche anschließenden Unteransprüchen beschrieben.
-
Die Erfindung wird nachstehend auch hinsichtlich weiterer Vorteile und Merkmale unter Bezugnahme auf die beigefügte Zeichnung anhand von Ausführungsbeispielen erläutert. Die Figuren der Zeichnung zeigen in:
-
1 eine Übersichtsdarstellung eines Sensors und eines Handgeräts, mit dessen Hilfe der Sensor ausgerichtet wird;
-
2 ein Beispiel für ein auf dem Handgerät gemäß 1 angezeigtes Überlagerungsbild des Sichtbereichs des Sensors und einer Zielanzeige von dessen Lichtfleck; und
-
3 und 4 weitere Beispiele von auf dem Handgerät angezeigten Überlagerungsbildern.
-
1 zeigt eine Übersichtdarstellung eines Sensors 10 und eines Handgeräts 100, mit dessen Hilfe der Sensor 10 ausgerichtet wird. Bei dem dargestellten Sensor 10 handelt es sich um ein Lasermessgerät in Form eines einstrahligen Entfernungstasters nach dem Lichtlaufzeitprinzip. Dieser Typ Sensor ist aber rein beispielhaft zu verstehen, denn die erfindungsgemäße Ausrichtung hängt nicht von dem konkreten Sensorprinzip oder -aufbau ab. Anstelle des Entfernungstasters kommen also auch andere Sensoren in Frage, von denen einleitend einige genannt wurden, insbesondere Entfernungstaster nach dem Triangulationsprinzip, Lichtschranken, Datenlichtschranken, Laserscanner oder Lichtgitter.
-
Der Sensor 10 sendet mittels einer Lichtquelle 12, beispielsweise einer Laserdiode oder einer LED, über eine Sendeoptik 14 einen Sendelichtstrahl 16 in einen Überwachungsbereich 18 aus. In vielen Fällen nutzt der Sensor 10 eine für das menschliche Auge unsichtbare Wellenlänge, so dass ein bei Auftreffen auf ein Objekt 20 entstehender Lichtfleck 22 mit bloßem Auge nicht erkennbar ist. Das an dem Objekt 20 remittierte Licht fällt über eine Empfangsoptik 24 auf einen Lichtempfänger 26. Dabei erscheint der Versatz zwischen der optischen Achse des Lichtsenders 12 und des Lichtempfängers 26 darstellungsbedingt relativ groß, spielt aber in der realen Anwendung kaum eine Rolle. Zudem sind auch andere bekannte Anordnungsprinzipien von Lichtsender 12 und Lichtempfänger 26 denkbar, etwa eine Autokollimationsanordnung mit einem Teilerspiegel.
-
Der Sensor umfasst weiterhin eine Steuerungs- und Auswertungseinheit 28, welche mit dem Lichtsender 12 und dem Lichtempfänger 26 verbunden ist. Ein von dem Lichtempfänger 26 erzeugtes Empfangssignal wird der Auswertungseinheit 28 zugeführt, die daraus in an sich bekannter Weise durch Bestimmen der Lichtlaufzeit zwischen Aussenden des Sendelichtstrahls 16 und Registrieren des remittierten Lichts den Abstand des Objekts 20 bestimmt. Auch andere Auswertungen sind möglich, etwa die Erzeugung eines binären Objektfeststellungssignals. Das Ergebnis der Auswertung stellt die Auswertungseinheit 28 an einem Ausgang 30 bereit.
-
Die beschriebene Sensorfunktion basiert darauf, dass der Sensor 10 auf den gewünschten Überwachungsbereich 18 ausgerichtet ist. Beispielsweise soll der Sendelichtstrahl 16 einen nicht dargestellten Reflektor treffen, solange kein Objekt in dem Überwachungsbereich 18 vorhanden ist.
-
Um die Ausrichtung zu unterstützen, gibt der Sensor 10 mittels der Auswertungseinheit 28 an einer vorzugsweise drahtlosen Schnittstelle 32 ein Sichtbereichsbild des Überwachungsbereichs 18 aus. Dieses Sichtbereichsbild wird von dem als Bildsensor ausgebildeten Lichtempfänger 26 erzeugt. Alternativ verfügt der Sensor 10 über zwei separate Lichtempfänger, nämlich den Bildsensor zur Aufnahme des Sichtbereichsbildes und den Lichtempfänger für die Objekterfassung.
-
Als weitere Information gibt die Auswertungseinheit 28 eine Position des Lichtflecks innerhalb des Sichtbereichsbildes an der Schnittstelle 32 aus. Dazu weist die Auswertungseinheit eine Lichtfleck-Positionsbestimmung 34 auf. Dabei handelt es sich im einfachsten Fall lediglich um einen Speicher für eine vom Bautyp des Sensors 10 abhängige Lichtfleckposition, die auch für den individuellen Sensor 10 angenommen wird. Alternativ wird die Lichtfleckposition im Rahmen der Herstellung oder Endprüfung in einem Einlernvorgang abgespeichert, oder sie wird durch Bildverarbeitung aus dem Sichtbereichsbild bestimmt. Zusätzlich zu der Position kann die Lichtfleck-Positionsbestimmung auch dessen Form oder Größe bestimmen und ausgeben.
-
Das Handgerät 100, beispielsweise ein Smartphone, umfasst als sichtbare Bauteile beispielhaft zwei Bedientasten 102 sowie eine Anzeige 104. Ein Prozessor 106 wertet die Eingaben an den Bedientasten 102 aus und erzeugt die notwendigen Daten für die Anzeige 104. Über eine drahtlose Schnittstelle 108 können das Sichtbereichsbild und die Lichtfleckposition des Sensors 10 empfangen werden. Optional sind an dem Handgerät 100 eigene Sensoren vorgesehen. Dazu gehört eine eigene Kamera 110 sowie ein Lage-, Bewegungs- und/oder Positionssensor 112. Elemente des Handgeräts 100, die sich im Inneren oder auf der Rückseite befinden, sind durch gestrichelte Linien dargestellt.
-
Eine Fusionseinheit 114 fügt Informationen des Sensors 10 und in einigen Ausführungsformen zusätzlich Informationen der eigenen Sensoren 110, 112 zu einem Überlagerungsbild des Sichtbereichs des Sensors 10 mit dem Objekt 20 und einer Zielanzeige 116 zusammen. Dieses Überlagerungsbild wird auf der Anzeige 104 dargestellt, um dem Benutzer die momentane Ausrichtung anhand der Position des Lichtflecks 22 des Sensors 10 zu visualisieren.
-
Je nach Ausstattung des Handgeräts 100, der Qualität des von dem Sensor 10 gelieferten Sichtbereichsbildes und Genauigkeit der Lichtfleckposition sind verschiedene Ausführungsformen denkbar, die im Folgenden anhand von auf der Anzeige 104 dargestellten beispielhaften Überlagerungsbildern erläutert werden. Dabei wird als Objekt 20 jeweils ein Reflektor gezeigt, wobei dies nur der Illustration dient und die Erfindung in keiner Weise auf dieses Beispiel beschränken soll.
-
2 zeigt die Anzeige für eine Ausführungsform, in welcher das Handgerät 100 lediglich als Anzeige des Sensors 10 verwendet wird. Die Lichtfleck-Positionsbestimmung 34 bestimmt einen Vertrauensbereich für die Lichtfleckposition über ein Toleranzmodell, welches die internen Toleranzen der optischen Achsen zwischen Lichtsender 12 und Lichtempfänger 26 sowie, sofern für den Lichtempfänger 26 zwei Bauteile vorgesehen sind, auch zwischen Bildsensor und Lichtempfänger berücksichtigt. Das Toleranzmodell kann zusätzlich abstandskorrigiert werden. Der Sensor 10 kennt demnach die Lichtfleckposition unabhängig von einer Messung. Die Fusionseinheit überlagert dem Sichtbereichsbild des Sensors 10 eine Zielanzeige, hier in Form eines Kreises, welche die Position des Lichtflecks und den Vertrauensbereich visualisiert.
-
3 zeigt die Anzeige für eine ähnliche Ausführungsform, in der aber die Lichtfleckposition genauer bekannt und deshalb mit einer präziseren Zielanzeige hervorgehoben ist. Anstelle eines Toleranzmodells kann nämlich die Position, Form und Größe des Lichtflecks 22 auch bei der Justage während der Herstellung oder in einer Endprüfung mit dem Sichtbereichsbild abgeglichen werden. Beispielsweise wird der Sensor 10 darauf kalibriert, dass der Lichtfleck in einer bestimmten Entfernung, etwa von 20 m, in dem Sichtbereichsbild zentriert ist. Als weitere Alternative wird der Lichtfleck von der Lichtfleck-Positionsbestimmung 34 mittels Bildverarbeitung in dem Sichtbereichsbild lokalisiert. Dazu muss das Sichtbereichsbild das Spektrum des Lichtflecks 22 überhaupt erkennen können und zudem hinreichenden Kontrast aufweisen. Die Lichtfleckposition ist in allen diesen Fällen genauer bekannt als nur in einem durch ein Toleranzmodell vorhergesagten Vertrauensbereich.
-
4 zeigt die Anzeige für ein verbessertes Überlagerungsbild. Dazu wird nicht unmittelbar das Sichtbereichsbild des Sensors 10 angezeigt, sondern das in aller Regel qualitativ wesentlich hochwertigere und besser aufgelöste Sichtbereichsbild der eigenen Kamera 110 des Handgeräts 100. Die Fusionseinheit 114 bestimmt durch Korrelation ein Fusionsbild aus dem Sichtbereichsbild des Sensors 10 und dem eigenen Sichtbereichsbild, passt also die beiden Bilder ineinander. Daraus bestimmt sich eine Transformationsvorschrift, durch welche die von dem Sensor 10 gelieferte Lichtfleckposition bezüglich dessen Sichtbereichsbild in eine Lichtfleckposition bezüglich des Sichtbereichsbildes des Handgeräts 100 umgerechnet werden kann. 4 zeigt mit einem gestrichelten Rechteck 118 die so gefundene Umrandung des Sichtbereichsbildes des Sensors 10 innerhalb des Sichtbereichsbildes des Handgeräts 100. Damit die Korrelation gelingen kann, müssen die Sichtbereichsbilder genügend überlappende Bildbereiche und nach Möglichkeit auch einen wenigstens einigermaßen übereinstimmenden Blickwinkel aufweisen.
-
Auf Grundlage der Transformationsvorschrift blendet die Fusionseinheit 114 die Zielanzeige 116 an der richtigen Position in das eigene Sichtbereichsbild des Handgeräts 114 ein. Zusätzlich können Bildinformationen aus dem Sichtbereichsbild des Sensors 10 in das Überlagerungsbild übernommen werden, beispielsweise der Lichtfleck 22 selbst, weil die Kamera 110 des Handgeräts 100 für dessen Wellenlänge möglicherweise gar nicht empfindlich ist.
-
Um die Korrelation vorzubereiten und um den Bandbreitenbedarf der Übertragung an den Schnittstellen 32, 108 zu reduzieren, kann bereits sensorseitig eine Vorverarbeitung vorgenommen werden. Dazu wird beispielsweise das Sichtbereichsbild des Sensors 10 von der Auswertungseinheit 28 komprimiert, binarisiert, eine Kanten- oder sonstige Bildmerkmalsdetektion durchgeführt oder interessierende Bereiche definiert. Die Korrelation wird dann auf diese für die Bestimmung der Transformationsvorschrift wesentlichen Informationen beschränkt.
-
Die Korrelation der beiden Bilder stellt eine Möglichkeit dar, den unterschiedlichen Blickwinkel von Sensor 10 und Handgerät 100 zu kompensieren. Alternativ oder zusätzlich können weitere Informationen des Handgeräts 100 herangezogen werden, um ein noch robusteres System zu erhalten.
-
Dazu werden für eine anfängliche Referenzierung Handgerät 100 und Sensor 10 in eine definierte Position zueinander gebracht, beispielsweise das Handgerät 100 an den Sensor 10 angelegt. Diese Position wird als Nullposition definiert beziehungsweise in dem Handgerät eingelernt. Eine anschließende Bewegung des Handgeräts 100 wird über Integration der jeweiligen Lageänderung und/oder Beschleunigung verfolgt, die mit dem Lage- und/oder Beschleunigungssensor 110 bestimmt werden. Dem Handgerät bleibt auf diese Weise weiterhin die aktuelle Position bezüglich des Sensors 10 bekannt, und die geänderte Perspektive kann bei der Erzeugung des Überlagerungsbildes berücksichtigt werden. Alternativ zu einer solchen relativen Positionsbestimmung wird ein absoluter Positionssensor 110 verwendet, etwa basierend auf Systemen wie GPS oder Galileo. Anhand einer solchen Position im Vergleich zur Anfangsposition ist ebenfalls die relative Position und Orientierung des Handgeräts 100 gegenüber dem Sensor 10 bestimmt, und die geänderte Perspektive kann in die Fusion des Überlagerungsbildes einfließen.
-
Für den Benutzer angenehm ist, wenn das Überlagerungsbild ständig aktualisiert wird, also eine Art Livefilm möglichst ohne Latenz angezeigt wird. Denkbar ist aber auch ein Snapshotbetrieb ohne rechenintensive Echtzeitverarbeitung. Auch das hat Vorteile, denn es reduziert den Bedarf an Rechenleistung, verhindert Ruckeln und Verwackeln, gibt dem Benutzer die Möglichkeit, das Handgerät vor sich abzulegen und beide Hände für eine Neuausrichtung des Sensors frei zu haben und verhindert Bandbreitenengpässe an den Schnittstellen 32, 108.
-
Durch die Entkopplung von Anzeige 104 und Sensor 10 wird prinzipiell auch ermöglicht, einen unzugänglichen Sensor 10 auszurichten, indem über das Handgerät Aktuatoren des Sensors 10 oder einer Halterung angesteuert werden, um dessen Orientierung zu verändern.