DE102012111345A1 - Mobiles Handgerät zur Ausrichtung eines Sensors - Google Patents

Mobiles Handgerät zur Ausrichtung eines Sensors Download PDF

Info

Publication number
DE102012111345A1
DE102012111345A1 DE201210111345 DE102012111345A DE102012111345A1 DE 102012111345 A1 DE102012111345 A1 DE 102012111345A1 DE 201210111345 DE201210111345 DE 201210111345 DE 102012111345 A DE102012111345 A DE 102012111345A DE 102012111345 A1 DE102012111345 A1 DE 102012111345A1
Authority
DE
Germany
Prior art keywords
sensor
image
handset
view image
light spot
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE201210111345
Other languages
English (en)
Other versions
DE102012111345B4 (de
Inventor
Reinhard Heizmann
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sick AG
Original Assignee
Sick AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sick AG filed Critical Sick AG
Priority to DE102012111345.9A priority Critical patent/DE102012111345B4/de
Priority to JP2013238752A priority patent/JP5749319B2/ja
Publication of DE102012111345A1 publication Critical patent/DE102012111345A1/de
Application granted granted Critical
Publication of DE102012111345B4 publication Critical patent/DE102012111345B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/04Systems determining the presence of a target
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/003Transmission of data between radar, sonar or lidar systems and remote stations
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/497Means for monitoring or calibrating
    • G01S7/4972Alignment of sensor
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/51Display arrangements
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01VGEOPHYSICS; GRAVITATIONAL MEASUREMENTS; DETECTING MASSES OR OBJECTS; TAGS
    • G01V8/00Prospecting or detecting by optical means
    • G01V8/10Detecting, e.g. by using light barriers
    • G01V8/12Detecting, e.g. by using light barriers using one transmitter and one receiver
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/42Simultaneous measurement of distance and other co-ordinates

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Life Sciences & Earth Sciences (AREA)
  • Geophysics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Telephone Function (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Es wird ein Handgerät (100), ein Sensor (10) und ein Verfahren zur Ausrichtung eines Sensors (10) zur Erfassung von Objekten (20) in einem Überwachungsbereich (18) angegeben, bei dem auf einem Handgerät (100) ein die momentane Ausrichtung darstellendes Überlagerungsbild angezeigt wird, das zumindest einen Teil des Überwachungsbereichs (18) und eine Zielanzeige (116) einer Position eines von dem Sensor (10) erzeugten Lichtflecks (22) darstellt. Dabei nimmt der Sensor (10) ein Sichtbereichsbild des Überwachungsbereichs (18) auf, bestimmt die Position des Lichtflecks (22) in dem Sichtbereichsbild und überträgt das Sichtbereichsbild und die Position an das Handgerät (100). Das Handgerät (100) erzeugt das Überlagerungsbild basierend auf dem Sichtbereichsbild und der Position und zeigt es an.

Description

  • Die Erfindung betrifft ein mobiles Handgerät zur Ausrichtung eines Sensors, einen optoelektronischen Sensor zur Erfassung von Objekten in einem Überwachungsbereich sowie ein Verfahren zur Ausrichtung eines Sensors zur Erfassung mit Hilfe eines Handgeräts nach den Oberbegriffen von Anspruch 1, Anspruch 7 und Anspruch 13.
  • Viele optoelektronische Sensoren senden einen Lichtstrahl aus und werten das von einem Objekt in ihrem Überwachungsbereich zurückgeworfene eigene Sendelicht aus. Solche Sensoren bedürfen häufig einer recht genauen Ausrichtung, bei welcher der Lichtfleck, den das Sendelicht auf dem Objekt erzeugt, in eine für die Aufgabe des Sensors geeignete Position gebracht wird. Beispielsweise wird auf diese Weise eine Reflexionslichtschranke auf ihren Reflektor oder eine Datenlichtschranke auf ihr Gegenstück, bei einem Lichtgitter der Sendestab mit dem Empfängerstab ausgerichtet, bei einem Entfernungstaster das zu vermessende Objekt angetastet oder die Überwachungsebene eines Laserscanners eingestellt.
  • Solange das Sendelicht einen gut sichtbaren Lichtfleck hinterlässt, ist die Ausrichtung relativ einfach mit dem Auge zu bewerkstelligen. Das ist aber aus zwei Gründen oft nicht gegeben: Die Intensität des Lichtflecks genügt nicht unbedingt, um ihn auch aus größerer Entfernung noch gut zu erkennen, und vor allem nutzen viele Sensoren nicht sichtbares Licht beispielsweise im Infrarot- oder Ultraviolettbereich.
  • Deshalb sind im Stand der Technik zahlreiche Ausrichthilfen bekannt. Bei einer herkömmlichen Lösung zeigt der Sensor den Empfangspegel an und gibt nach Möglichkeit mit einem positionssensitiven Lichtempfänger einen Hinweis, in welche Richtung der Sensor für eine bessere Ausrichtung gedreht werden sollte. Bei aktiver Gegenstelle, wie in einem Lichtgitter oder einer Datenlichtschranke, kann diese eine Rückmeldung über die empfangene Intensität geben. Andere Lösungen suchen die Sichtbarkeit des Lichtflecks zu stärken, etwa indem ein zusätzlicher Pilotsender mit sichtbarem Licht in paralleler Abstrahlrichtung zu dem eigenen Lichtsender oder ein optisches Fadenkreuz vorgesehen wird. Denkbar ist weiterhin, von einer festen Abstrahlrichtung auszugehen und den Sensor unabhängig vom tatsächlichen Lichtfleck auszurichten. Dazu kann eine Zielhilfe an dem Sensor über Kimme und Korn oder die Verwendung einer Wasserwaage dienen.
  • Viele dieser Lösungen müssen speziell für den jeweiligen Sensortyp zugeschnitten werden. Das erfordert Aufwand für die Entwicklung und Herstellung der Sensoren. Dennoch bleibt die Nutzerfreundlichkeit begrenzt.
  • Von Mobilfunkgeräten ist bekannt, mit der eigenen Kamera Bilder in der sogenannten augmented reality darzustellen. Dabei werden dem Livebild zusätzliche Informationen überblendet. Derartige Anwendungen markieren beispielsweise die Sonnenbahn an beliebig wählbaren Tagen im Jahr für die Wohnungsbesichtigung oder die Planung einer Photovoltaikanlage. Für die Ausrichtung von Sensoren sind solche Anwendungen nicht gedacht und ungeeignet.
  • Bekannte Kameras zeigen überdies während der Bildersuche wählbare Fokusbereiche an, die dazu zum Teil durch einen Entfernungssensor ausgemessen werden. Das dient aber allenfalls der Ausrichtung der Kamera selbst und hilft in keiner Weise dabei, einen externen optoelektronischen Sensor auszurichten.
  • Es ist daher Aufgabe der Erfindung, die Ausrichtung eines optoelektronischen Sensors zu verbessern.
  • Diese Aufgabe wird durch ein mobiles Handgerät zur Ausrichtung eines Sensors, einen optoelektronischen Sensor zur Erfassung von Objekten in einem Überwachungsbereich sowie ein Verfahren zur Ausrichtung eines Sensors zur Erfassung mit Hilfe eines Handgeräts nach Anspruch 1, Anspruch 7 und Anspruch 13 gelöst. Dabei geht die Erfindung von dem Grundgedanken aus, für die Ausrichtung benötigte Auswertungen und Anzeigen von dem Sensor an ein mobiles Handgerät auszulagern. Dazu umfasst die Erfindung einerseits ein mobiles Handgerät, welches in der Lage ist, ein Sichtbereichsbild des Sensors und eine Position des Lichtflecks in dem Sichtbereichsbild von einem Sensor zu empfangen und auf dieser Basis die Ausrichtung in einem Überlagerungsbild des Sichtbereichs und einer Zielanzeige der Position eines von dem Sensor erzeugten Lichtflecks zu visualisieren. Andererseits wird ein zugehöriger Sensor angegeben, welcher sein Sichtbereichsbild und die Position des Lichtflecks innerhalb des Sichtbereichsbildes für ein mobiles Handgerät bereitstellt. Unter einem mobilen Handgerät soll hier ein tragbarer Computer im weitesten Sinne, wie ein Notebook oder ein Tablet und insbesondere ein Mobilfunkgerät beziehungsweise Smartphone verstanden werden.
  • Die Erfindung hat den Vorteil, dass die Ausrichtung eines Sensors erheblich erleichtert und durch eine besonders intuitive, nutzerfreundliche universelle Ausrichthilfe unterstützt wird, welche keine besonderen Kenntnisse eines speziellen Sensors voraussetzt. Ein hoher Bedienkomfort, eine große Rechenleistung und eine hochauflösende Anzeige werden nicht durch den Sensor, sondern durch das Handgerät bereitgestellt. Zugriff auf ein solches Handgerät in jeweils aktueller Hardware ist fast immer unabhängig von dem Sensor gegeben. Während die Sensoren hinsichtlich ihrer Rechenleistung und Visualisierung äußerst einfach und kostengünstig und in dieser Form auch unverändert über viele Jahre im Einsatz bleiben können, veraltet die Ausrichtung dennoch nicht, so dass der Benutzer einfach, schnell und angenehm arbeiten kann, ohne die Geräte jemals als veraltet zu empfinden. Der Benutzer kann die Ausrichtung sogar mit dem vertrauten eigenen Gerät vornehmen, etwa seinem Smartphone, und muss sich gar nicht auf fremde Technik einlassen. Es entsteht eine ideale Synergie mit den Fortschritten in der mobilen Consumerelektronik, der von der Entwicklung des Sensors entkoppelt genutzt werden kann.
  • Das Handgerät weist bevorzugt einen eigenen Bildsensor zur Aufnahme eines zusätzlichen Sichtbereichsbildes des Überwachungsbereichs auf, wobei die Fusionseinheit dafür ausgebildet ist, das Überlagerungsbild auch basierend auf dem zusätzlichen Sichtbereichsbild zu erzeugen. Das Handgerät nutzt also seine eigene Kamera zur Aufnahme des eigenen Sichtbereichs. Diese Kamera ist meist ohnehin vorhanden, leistungsstark und hochauflösend, so dass der Sensor kein für den Benutzer gutes Sichtbereichsbild zu liefern braucht und somit schon mit einem vergleichsweise leistungsschwachen und daher kostengünstigen Bildsensor auskommt. Denn das Sichtbereichsbild des Sensors wird lediglich genutzt, um die Position des Lichtflecks in dem zusätzlichen Sichtbereichsbild der eigenen Kamera des Handgeräts abzugleichen, und gegebenenfalls noch um die Bildqualität des zusätzlichen Sichtbereichsbilds etwa durch Füllen von Lücken oder eine Plausibilisierung von Bildbereichen zu erhöhen.
  • Auch eine möglicherweise mit gezeigte Bildinformation des Lichtflecks selbst entstammt dem Sichtbereichsbild des Sensors, sofern der Bildsensor des Handgeräts für die Wellenlänge des Lichtflecks nicht empfindlich ist. Das Handgerät sollte für die Aufnahme des zusätzlichen Sichtbereichs eine in etwa gleiche Perspektive einnehmen wie der Sensor. Dabei verbleibende perspektivische Unterschiede rechnet die Fusionseinheit aber vorzugsweise heraus, so dass hier keine übertriebenen Genauigkeitsanforderungen an den Benutzer gestellt sind.
  • Die Fusionseinheit ist bevorzugt dafür ausgebildet, das Sichtbereichsbild des Sensors und das zusätzliche Sichtbereichsbild des eigenen Bildsensors miteinander in Übereinstimmung zu bringen, um die Position des Lichtflecks in dem zusätzlichen Sichtbereichsbild zu bestimmen. Im einfachsten Fall wird dazu angenommen, dass die Bildbereiche des Sichtbereichsbildes des Sensors und des zusätzlichen Sichtbereichsbildes des eigenen Bildsensors des Handgeräts einander entsprechen, so dass die Zielanzeige einfach an der gleichen Position dem zusätzlichen Sichtbereichsbild überlagert wird, welche der Sensor auch für sein eigenes Sichtbereichsbild bestimmt hat.
  • Deutlich robuster ist eine Registrierung der beiden Sichtbereichsbilder, indem also durch Operationen wie Verschieben, Verdrehen und Reskalieren das Sichtbereichsbild des Sensors in das zusätzliche Sichtbereichsbild des Bildsensors des Handgeräts eingepasst wird. Dies gelingt beispielsweise durch Korrelation der beiden Sichtbereichsbilder, die sich statt auf die gesamten Bilder auch auf ausgewählte Bildmerkmale oder interessierende Bereiche (ROI, region of interest) beschränken kann. Danach ist die Operation bekannt, welche die Perspektive des Sensors auf diejenige des Handgeräts transformiert, und diese Transformationsregel wird genutzt, um die Zielanzeige an der richtigen Position in das zusätzliche Sichtbereichsbild einzublenden.
  • Sofern der Bildsensor des Handgeräts für die Wellenlänge des Lichtflecks empfindlich ist, kann versucht werden, den Lichtfleck direkt durch Bildverarbeitung zu lokalisieren. Die dabei bestimmte Position des Lichtflecks kann auch als Ausgangspunkt beziehungsweise zur Plausibilisierung bei der Registrierung der beiden Sichtbereichsbilder genutzt werden.
  • Das Handgerät weist bevorzugt einen Lage- und/oder Beschleunigungssensor auf, wobei die Fusionseinheit dafür ausgebildet ist, eine Orientierungs- und/oder Positionsänderung des Handgeräts zu bestimmen und bei der Fusionierung der Zielanzeige in das Überlagerungsbild zu berücksichtigen. Derartige Sensoren gehören für viele höherwertige Mobilfunkgeräte zur Ausstattung. Es ist damit möglich, auf Basis eines anfänglichen Positions- und Orientierungsabgleichs zwischen Sensor und Handgerät die Bewegungen des Handgeräts zu aufzuintegrieren und damit Wissen über die aktuelle Perspektive des Handgeräts gegenüber dem Sensor zu gewinnen. Dadurch kann die Position des Lichtflecks auf die aktuelle Position und Orientierung des Handgeräts umgerechnet werden.
  • Das Handgerät weist bevorzugt einen Positionssensor auf, wobei die Fusionseinheit dafür ausgebildet ist, eine von dem Positionssensor bestimmte Position des Handgeräts bei der Fusionierung der Zielanzeige in das Überlagerungsbild zu berücksichtigen. Die Erfassung der Position erfolgt beispielsweise durch GPS, Galilei oder ein vergleichbares, möglicherweise auch proprietäres System für außen oder innen. Soweit der Positionssensor keine Orientierung erfasst, kann ein Lagesensor hinzugenommen werden. Bei bekannter Position und Orientierung des Sensors, die auch durch ein Einlernen während eines physischen Kontakts zwischen Sensor und Handgerät durch den Positionssensor bestimmt werden kann, ist die erfasste aktuelle Position eine weitere Alternative, um die Zielanzeige in dem Überlagerungsbild an die richtige Position zu bringen.
  • Eine Bildfusion durch Korrelation, die Bestimmung des Weges zwischen Sensor und Handgerät durch einen Lage- und/oder Beschleunigungssensor sowie die Bestimmung der aktuellen Position des Handgeräts durch einen Positionssensor sind drei unterschiedliche Möglichkeiten, die Perspektiven des Sensors und des Handgeräts für eine korrekte Zielanzeige in dem Überlagerungsbild ineinander zu überführen. Diese Möglichkeiten können auch miteinander kombiniert werden, um genauere Ergebnisse zu erhalten oder Fehler aufzudecken
  • Die Fusionseinheit ist bevorzugt dafür ausgebildet, das Überlagerungsbild auf die Perspektive des Sensors zurückzurechnen. Hierbei wird das qualitativ hochwertigere zusätzliche Sichtbereichsbild von einem Bildsensor des Handgeräts angezeigt, aber so, als wäre es aus der Perspektive des Sensors aufgenommen. Die perspektivischen Unterschiede sind beispielsweise mit einer der im letzten Absatz zusammengefassten Vorgehensweisen bestimmt. Die Perspektiven von Sensor und Handgerät dürfen hierfür aber nicht zu unterschiedlich sein, weil sonst nicht genug geeignete Bildinformation zur Verfügung steht. Es ist aber zumindest möglich, ein auf die Position des Lichtflecks zentriertes Überlagerungsbild mit dem Sichtbereichsbild des Sensors anzuzeigen, das je nach Perspektive des Handgeräts mit Bildinformationen des Bildsensors des Handgeräts aufgebessert wird.
  • Der erfindungsgemäße Sensor zur Erfassung von Objekten in einem Überwachungsbereich erzeugt mit seinem Lichtsender bei Auftreffen auf ein Objekt vorzugsweise einen Lichtfleck mit Sendelicht außerhalb des sichtbaren Spektrums oder mit so geringer Ausdehnung beziehungsweise Intensität, dass der Lichtfleck mit dem menschlichen Auge nicht oder kaum erkennbar ist. Ansonsten könnte man direkt den Lichtfleck selbst für die Ausrichtung nutzen. Der Sensor nimmt ein Sichtbereichsbild auf, bestimmt oder kennt die Position des Lichtflecks bezüglich des eigenen Sichtbereichsbildes und gibt Sichtbereichsbild und Position zur Verwendung in einem erfindungsgemäßen Handgerät aus. Bei dem Sensor handelt es sich beispielsweise um ein einstrahliges System, wie einen Entfernungstaster oder eine Lichtschranke, insbesondere Datenlichtschranke. Denkbar sind aber auch andere Sensoren, etwa Laserscanner oder Lichtgitter. Der Sensor benötigt für die Ausrichtung nur eine geringe Hardwareausstattung ohne eigene Anzeigetreiber, hochwertige Anzeige oder hochauflösenden Bildsensor und so gut wie keine Rechenkapazitäten, da alle komplexeren Auswertungen in dem Handgerät erfolgen können. Selbstverständlich soll dadurch das Vorhandensein solcher Hardwareausstattung auch des Sensors nicht ausgeschlossen werden.
  • Die Lichtfleck-Positionsbestimmungseinheit weist bevorzugt einen Speicher auf, um darin die Position des Lichtflecks vorab abzulegen. Der Sensor kennt damit die Ausrichtung des Lichtsenders zu sich selbst und damit auch gegenüber dem eigenen Bildsensor zur Aufnahme des Sichtbereichsbildes. Diese eigene Ausrichtung kann einfach durch ein Toleranzmodell festgelegt werden, worin letztlich unterstellt wird, dass der Bautyp des Sensors die eigene Ausrichtung festlegt. Möchte man die dabei auftretenden Toleranzen genauer in den Griff bekommen, so ist auch ein anfängliches Einlernen während der Justage der Sensorkomponenten im Verlauf der Herstellung oder bei der Endprüfung möglich. Hier sind definierte Umgebungsbedingungen und standardisierte Verfahren durch Fachpersonal gegeben, so dass es auf einfache und intuitive Vorgehensweisen weniger ankommt. Die durch die Erfindung adressierte Ausrichtung dagegen betrifft vorzugsweise nicht den Sensor in sich, sondern gegenüber seiner Umgebung in der Anwendung.
  • Die Lichtfleck-Positionsbestimmungseinheit ist bevorzugt dafür ausgebildet, die Position des Lichtflecks mittels Bildverarbeitung zu bestimmen. Der Sensor ist, um seine Objekterfassungsaufgabe erfüllen zu können, zwangsläufig auch bei Sendelicht außerhalb des sichtbaren Spektrums in der Lage, den Lichtfleck zu erfassen. Allerdings muss dafür nicht notwendig der Bildsensor zur Aufnahme des Sichtbereichsbildes verwendet werden. Ist aber dieser Bildsensor für den Lichtfleck sensitiv, so kann aus dem Sichtbereichsbild durch Bildverarbeitung auch die als Ausgabegröße an das Handgerät erforderliche Position des Lichtflecks für die sensoreigene Perspektive, also gegenüber dem Sichtbereichsbild des Sensors bestimmt werden.
  • Sofern der Sensor distanzmessend ausgelegt ist, können die gespeicherten, eingelernten oder bestimmten Positionen des Lichtflecks auch noch eine Abhängigkeit vom jeweiligen Objektabstand aufweisen. Es wird also keine einzelne Position, sondern eine abstandsabhängige Funktion bereitgestellt.
  • Der Sensor weist bevorzugt eine Vorverarbeitungseinheit auf, um das Sichtbereichsbild für die Ausgabe an der Schnittstelle aufzubereiten. Dies erfordert dann einige interne Rechenkapazität, hilft aber dafür, die benötigte Bandbreite zu reduzieren. Beispiele für eine derartige Vorverarbeitung sind Komprimierung, Binarisierung, Beschränkung auf interessierende Bereiche, insbesondere mit dem Lichtfleck oder markanten Objekten oder vermutlich von dem Fusionsalgorithmus des Handgeräts wiedererkennbare Bildmerkmale beziehungsweise Objektkanten.
  • In vorteilhafter Weiterbildung ist eine Anordnung zur Ausrichtung eines erfindungsgemäßen optoelektronischen Sensors mit einem erfindungsgemäßen mobilen Handgerät vorgesehen. Dabei sind die Schnittstellen des Sensors und des Handgeräts vorzugsweise drahtlos. Dazu kommen praktisch alle bekannten und zukünftig eingesetzten Standards in Frage, wie Bluetooth, 3G, LTE, WLAN, IR und andere. Mobile Handgeräte sind meist ohnehin mit einer Vielzahl derartiger Schnittstellen ausgerüstet, so dass für den Sensor eine geeignete Auswahl getroffen werden kann.
  • Das erfindungsgemäße Verfahren kann auf ähnliche Weise durch weitere Merkmale ausgestaltet werden und zeigt dabei ähnliche Vorteile. Derartige weitere Merkmale sind beispielhaft, aber nicht abschließend, in den sich an die unabhängigen Ansprüche anschließenden Unteransprüchen beschrieben.
  • Die Erfindung wird nachstehend auch hinsichtlich weiterer Vorteile und Merkmale unter Bezugnahme auf die beigefügte Zeichnung anhand von Ausführungsbeispielen erläutert. Die Figuren der Zeichnung zeigen in:
  • 1 eine Übersichtsdarstellung eines Sensors und eines Handgeräts, mit dessen Hilfe der Sensor ausgerichtet wird;
  • 2 ein Beispiel für ein auf dem Handgerät gemäß 1 angezeigtes Überlagerungsbild des Sichtbereichs des Sensors und einer Zielanzeige von dessen Lichtfleck; und
  • 3 und 4 weitere Beispiele von auf dem Handgerät angezeigten Überlagerungsbildern.
  • 1 zeigt eine Übersichtdarstellung eines Sensors 10 und eines Handgeräts 100, mit dessen Hilfe der Sensor 10 ausgerichtet wird. Bei dem dargestellten Sensor 10 handelt es sich um ein Lasermessgerät in Form eines einstrahligen Entfernungstasters nach dem Lichtlaufzeitprinzip. Dieser Typ Sensor ist aber rein beispielhaft zu verstehen, denn die erfindungsgemäße Ausrichtung hängt nicht von dem konkreten Sensorprinzip oder -aufbau ab. Anstelle des Entfernungstasters kommen also auch andere Sensoren in Frage, von denen einleitend einige genannt wurden, insbesondere Entfernungstaster nach dem Triangulationsprinzip, Lichtschranken, Datenlichtschranken, Laserscanner oder Lichtgitter.
  • Der Sensor 10 sendet mittels einer Lichtquelle 12, beispielsweise einer Laserdiode oder einer LED, über eine Sendeoptik 14 einen Sendelichtstrahl 16 in einen Überwachungsbereich 18 aus. In vielen Fällen nutzt der Sensor 10 eine für das menschliche Auge unsichtbare Wellenlänge, so dass ein bei Auftreffen auf ein Objekt 20 entstehender Lichtfleck 22 mit bloßem Auge nicht erkennbar ist. Das an dem Objekt 20 remittierte Licht fällt über eine Empfangsoptik 24 auf einen Lichtempfänger 26. Dabei erscheint der Versatz zwischen der optischen Achse des Lichtsenders 12 und des Lichtempfängers 26 darstellungsbedingt relativ groß, spielt aber in der realen Anwendung kaum eine Rolle. Zudem sind auch andere bekannte Anordnungsprinzipien von Lichtsender 12 und Lichtempfänger 26 denkbar, etwa eine Autokollimationsanordnung mit einem Teilerspiegel.
  • Der Sensor umfasst weiterhin eine Steuerungs- und Auswertungseinheit 28, welche mit dem Lichtsender 12 und dem Lichtempfänger 26 verbunden ist. Ein von dem Lichtempfänger 26 erzeugtes Empfangssignal wird der Auswertungseinheit 28 zugeführt, die daraus in an sich bekannter Weise durch Bestimmen der Lichtlaufzeit zwischen Aussenden des Sendelichtstrahls 16 und Registrieren des remittierten Lichts den Abstand des Objekts 20 bestimmt. Auch andere Auswertungen sind möglich, etwa die Erzeugung eines binären Objektfeststellungssignals. Das Ergebnis der Auswertung stellt die Auswertungseinheit 28 an einem Ausgang 30 bereit.
  • Die beschriebene Sensorfunktion basiert darauf, dass der Sensor 10 auf den gewünschten Überwachungsbereich 18 ausgerichtet ist. Beispielsweise soll der Sendelichtstrahl 16 einen nicht dargestellten Reflektor treffen, solange kein Objekt in dem Überwachungsbereich 18 vorhanden ist.
  • Um die Ausrichtung zu unterstützen, gibt der Sensor 10 mittels der Auswertungseinheit 28 an einer vorzugsweise drahtlosen Schnittstelle 32 ein Sichtbereichsbild des Überwachungsbereichs 18 aus. Dieses Sichtbereichsbild wird von dem als Bildsensor ausgebildeten Lichtempfänger 26 erzeugt. Alternativ verfügt der Sensor 10 über zwei separate Lichtempfänger, nämlich den Bildsensor zur Aufnahme des Sichtbereichsbildes und den Lichtempfänger für die Objekterfassung.
  • Als weitere Information gibt die Auswertungseinheit 28 eine Position des Lichtflecks innerhalb des Sichtbereichsbildes an der Schnittstelle 32 aus. Dazu weist die Auswertungseinheit eine Lichtfleck-Positionsbestimmung 34 auf. Dabei handelt es sich im einfachsten Fall lediglich um einen Speicher für eine vom Bautyp des Sensors 10 abhängige Lichtfleckposition, die auch für den individuellen Sensor 10 angenommen wird. Alternativ wird die Lichtfleckposition im Rahmen der Herstellung oder Endprüfung in einem Einlernvorgang abgespeichert, oder sie wird durch Bildverarbeitung aus dem Sichtbereichsbild bestimmt. Zusätzlich zu der Position kann die Lichtfleck-Positionsbestimmung auch dessen Form oder Größe bestimmen und ausgeben.
  • Das Handgerät 100, beispielsweise ein Smartphone, umfasst als sichtbare Bauteile beispielhaft zwei Bedientasten 102 sowie eine Anzeige 104. Ein Prozessor 106 wertet die Eingaben an den Bedientasten 102 aus und erzeugt die notwendigen Daten für die Anzeige 104. Über eine drahtlose Schnittstelle 108 können das Sichtbereichsbild und die Lichtfleckposition des Sensors 10 empfangen werden. Optional sind an dem Handgerät 100 eigene Sensoren vorgesehen. Dazu gehört eine eigene Kamera 110 sowie ein Lage-, Bewegungs- und/oder Positionssensor 112. Elemente des Handgeräts 100, die sich im Inneren oder auf der Rückseite befinden, sind durch gestrichelte Linien dargestellt.
  • Eine Fusionseinheit 114 fügt Informationen des Sensors 10 und in einigen Ausführungsformen zusätzlich Informationen der eigenen Sensoren 110, 112 zu einem Überlagerungsbild des Sichtbereichs des Sensors 10 mit dem Objekt 20 und einer Zielanzeige 116 zusammen. Dieses Überlagerungsbild wird auf der Anzeige 104 dargestellt, um dem Benutzer die momentane Ausrichtung anhand der Position des Lichtflecks 22 des Sensors 10 zu visualisieren.
  • Je nach Ausstattung des Handgeräts 100, der Qualität des von dem Sensor 10 gelieferten Sichtbereichsbildes und Genauigkeit der Lichtfleckposition sind verschiedene Ausführungsformen denkbar, die im Folgenden anhand von auf der Anzeige 104 dargestellten beispielhaften Überlagerungsbildern erläutert werden. Dabei wird als Objekt 20 jeweils ein Reflektor gezeigt, wobei dies nur der Illustration dient und die Erfindung in keiner Weise auf dieses Beispiel beschränken soll.
  • 2 zeigt die Anzeige für eine Ausführungsform, in welcher das Handgerät 100 lediglich als Anzeige des Sensors 10 verwendet wird. Die Lichtfleck-Positionsbestimmung 34 bestimmt einen Vertrauensbereich für die Lichtfleckposition über ein Toleranzmodell, welches die internen Toleranzen der optischen Achsen zwischen Lichtsender 12 und Lichtempfänger 26 sowie, sofern für den Lichtempfänger 26 zwei Bauteile vorgesehen sind, auch zwischen Bildsensor und Lichtempfänger berücksichtigt. Das Toleranzmodell kann zusätzlich abstandskorrigiert werden. Der Sensor 10 kennt demnach die Lichtfleckposition unabhängig von einer Messung. Die Fusionseinheit überlagert dem Sichtbereichsbild des Sensors 10 eine Zielanzeige, hier in Form eines Kreises, welche die Position des Lichtflecks und den Vertrauensbereich visualisiert.
  • 3 zeigt die Anzeige für eine ähnliche Ausführungsform, in der aber die Lichtfleckposition genauer bekannt und deshalb mit einer präziseren Zielanzeige hervorgehoben ist. Anstelle eines Toleranzmodells kann nämlich die Position, Form und Größe des Lichtflecks 22 auch bei der Justage während der Herstellung oder in einer Endprüfung mit dem Sichtbereichsbild abgeglichen werden. Beispielsweise wird der Sensor 10 darauf kalibriert, dass der Lichtfleck in einer bestimmten Entfernung, etwa von 20 m, in dem Sichtbereichsbild zentriert ist. Als weitere Alternative wird der Lichtfleck von der Lichtfleck-Positionsbestimmung 34 mittels Bildverarbeitung in dem Sichtbereichsbild lokalisiert. Dazu muss das Sichtbereichsbild das Spektrum des Lichtflecks 22 überhaupt erkennen können und zudem hinreichenden Kontrast aufweisen. Die Lichtfleckposition ist in allen diesen Fällen genauer bekannt als nur in einem durch ein Toleranzmodell vorhergesagten Vertrauensbereich.
  • 4 zeigt die Anzeige für ein verbessertes Überlagerungsbild. Dazu wird nicht unmittelbar das Sichtbereichsbild des Sensors 10 angezeigt, sondern das in aller Regel qualitativ wesentlich hochwertigere und besser aufgelöste Sichtbereichsbild der eigenen Kamera 110 des Handgeräts 100. Die Fusionseinheit 114 bestimmt durch Korrelation ein Fusionsbild aus dem Sichtbereichsbild des Sensors 10 und dem eigenen Sichtbereichsbild, passt also die beiden Bilder ineinander. Daraus bestimmt sich eine Transformationsvorschrift, durch welche die von dem Sensor 10 gelieferte Lichtfleckposition bezüglich dessen Sichtbereichsbild in eine Lichtfleckposition bezüglich des Sichtbereichsbildes des Handgeräts 100 umgerechnet werden kann. 4 zeigt mit einem gestrichelten Rechteck 118 die so gefundene Umrandung des Sichtbereichsbildes des Sensors 10 innerhalb des Sichtbereichsbildes des Handgeräts 100. Damit die Korrelation gelingen kann, müssen die Sichtbereichsbilder genügend überlappende Bildbereiche und nach Möglichkeit auch einen wenigstens einigermaßen übereinstimmenden Blickwinkel aufweisen.
  • Auf Grundlage der Transformationsvorschrift blendet die Fusionseinheit 114 die Zielanzeige 116 an der richtigen Position in das eigene Sichtbereichsbild des Handgeräts 114 ein. Zusätzlich können Bildinformationen aus dem Sichtbereichsbild des Sensors 10 in das Überlagerungsbild übernommen werden, beispielsweise der Lichtfleck 22 selbst, weil die Kamera 110 des Handgeräts 100 für dessen Wellenlänge möglicherweise gar nicht empfindlich ist.
  • Um die Korrelation vorzubereiten und um den Bandbreitenbedarf der Übertragung an den Schnittstellen 32, 108 zu reduzieren, kann bereits sensorseitig eine Vorverarbeitung vorgenommen werden. Dazu wird beispielsweise das Sichtbereichsbild des Sensors 10 von der Auswertungseinheit 28 komprimiert, binarisiert, eine Kanten- oder sonstige Bildmerkmalsdetektion durchgeführt oder interessierende Bereiche definiert. Die Korrelation wird dann auf diese für die Bestimmung der Transformationsvorschrift wesentlichen Informationen beschränkt.
  • Die Korrelation der beiden Bilder stellt eine Möglichkeit dar, den unterschiedlichen Blickwinkel von Sensor 10 und Handgerät 100 zu kompensieren. Alternativ oder zusätzlich können weitere Informationen des Handgeräts 100 herangezogen werden, um ein noch robusteres System zu erhalten.
  • Dazu werden für eine anfängliche Referenzierung Handgerät 100 und Sensor 10 in eine definierte Position zueinander gebracht, beispielsweise das Handgerät 100 an den Sensor 10 angelegt. Diese Position wird als Nullposition definiert beziehungsweise in dem Handgerät eingelernt. Eine anschließende Bewegung des Handgeräts 100 wird über Integration der jeweiligen Lageänderung und/oder Beschleunigung verfolgt, die mit dem Lage- und/oder Beschleunigungssensor 110 bestimmt werden. Dem Handgerät bleibt auf diese Weise weiterhin die aktuelle Position bezüglich des Sensors 10 bekannt, und die geänderte Perspektive kann bei der Erzeugung des Überlagerungsbildes berücksichtigt werden. Alternativ zu einer solchen relativen Positionsbestimmung wird ein absoluter Positionssensor 110 verwendet, etwa basierend auf Systemen wie GPS oder Galileo. Anhand einer solchen Position im Vergleich zur Anfangsposition ist ebenfalls die relative Position und Orientierung des Handgeräts 100 gegenüber dem Sensor 10 bestimmt, und die geänderte Perspektive kann in die Fusion des Überlagerungsbildes einfließen.
  • Für den Benutzer angenehm ist, wenn das Überlagerungsbild ständig aktualisiert wird, also eine Art Livefilm möglichst ohne Latenz angezeigt wird. Denkbar ist aber auch ein Snapshotbetrieb ohne rechenintensive Echtzeitverarbeitung. Auch das hat Vorteile, denn es reduziert den Bedarf an Rechenleistung, verhindert Ruckeln und Verwackeln, gibt dem Benutzer die Möglichkeit, das Handgerät vor sich abzulegen und beide Hände für eine Neuausrichtung des Sensors frei zu haben und verhindert Bandbreitenengpässe an den Schnittstellen 32, 108.
  • Durch die Entkopplung von Anzeige 104 und Sensor 10 wird prinzipiell auch ermöglicht, einen unzugänglichen Sensor 10 auszurichten, indem über das Handgerät Aktuatoren des Sensors 10 oder einer Halterung angesteuert werden, um dessen Orientierung zu verändern.

Claims (15)

  1. Mobiles Handgerät (100) zur Ausrichtung eines Sensors (10) mit einer Anzeige (104) zur Darstellung eines die momentane Ausrichtung darstellenden Überlagerungsbildes, das auf einem Sichtbereichsbild eines Überwachungsbereichs (18) des Sensors (10) und einer Zielanzeige (116) einer Position eines von dem Sensor (10) erzeugten Lichtflecks (22) basiert, dadurch gekennzeichnet, dass das Handgerät (100) eine Schnittstelle (108), um von dem zu dem Handgerät (100) externen Sensor (10) das Sichtbereichsbild sowie Informationen über die Position des Lichtflecks (22) in dem Sichtbereichsbild zu empfangen, und eine Fusionseinheit (114) zum Erzeugen des Überlagerungsbildes aufweist.
  2. Handgerät (100) nach Anspruch 1, das einen eigenen Bildsensor (110) zur Aufnahme eines zusätzlichen Sichtbereichsbildes des Überwachungsbereichs (18) aufweist und wobei die Fusionseinheit (114) dafür ausgebildet ist, das Überlagerungsbild auch basierend auf dem zusätzlichen Sichtbereichsbild zu erzeugen.
  3. Handgerät (100) nach Anspruch 2, wobei die Fusionseinheit (114) dafür ausgebildet ist, das Sichtbereichsbild des Sensors (10) und das zusätzliche Sichtbereichsbild des eigenen Bildsensors (110) miteinander in Übereinstimmung zu bringen, um die Position des Lichtflecks (22) in dem zusätzlichen Sichtbereichsbild zu bestimmen.
  4. Handgerät (100) nach einem der vorhergehenden Ansprüche, das einen Lage- und/oder Beschleunigungssensor (112) aufweist und wobei die Fusionseinheit (114) dafür ausgebildet ist, eine Orientierungs- und/oder Positionsänderung des Handgeräts (100) zu bestimmen und bei der Fusionierung der Zielanzeige (116) in das Überlagerungsbild zu berücksichtigen.
  5. Handgerät (100) nach einem der vorhergehenden Ansprüche, das einen Positionssensor (112) aufweist und wobei die Fusionseinheit (114) dafür ausgebildet ist, eine von dem Positionssensor (112) bestimmte Position des Handgeräts (100) bei der Fusionierung der Zielanzeige (116) in das Überlagerungsbild zu berücksichtigen.
  6. Handgerät (100) nach einem der vorhergehenden Ansprüche, wobei die Fusionseinheit (114) dafür ausgebildet ist, das Überlagerungsbild auf die Perspektive des Sensors (10) zurückzurechnen.
  7. Optoelektronischer Sensor (10) zur Erfassung von Objekten (20) in einem Überwachungsbereich (18), mit einem Lichtsender (12) zum Aussenden eines Lichtsignals (16), welches bei Auftreffen auf ein Objekt (20) einen Lichtfleck (22) erzeugt, mit einem Bildsensor (26) zur Aufnahme eines Sichtbereichsbildes von zumindest einem Teil des Überwachungsbereichs (18) und mit einer Lichtfleck-Positionsbestimmungseinheit (34) zum Bestimmen einer Position des Lichtflecks (22) in dem Sichtbereichsbild, dadurch gekennzeichnet, dass der Sensor (10) eine Schnittstelle (32) zur Ausgabe des Sichtbereichsbildes und der Position des Lichtflecks (22) aufweist.
  8. Sensor (10) nach Anspruch 7, wobei die Lichtfleck-Positionsbestimmungseinheit (34) einen Speicher aufweist, um darin die Position des Lichtflecks (22) vorab abzulegen.
  9. Sensor (10) nach Anspruch 6 oder 7, wobei die Lichtfleck-Positionsbestimmungseinheit (34) dafür ausgebildet ist, die Position des Lichtflecks (22) mittels Bildverarbeitung zu bestimmen.
  10. Sensor (10) nach einem der Ansprüche 7 bis 9, der eine Vorverarbeitungseinheit (28) aufweist, um das Sichtbereichsbild für die Ausgabe an der Schnittstelle (32) aufzubereiten.
  11. Anordnung zur Ausrichtung eines optoelektronischen Sensors (10) nach einem der Ansprüche 7 bis 10 mit einem mobilen Handgerät (100) nach einem der Ansprüche 1 bis 6.
  12. Anordnung nach Anspruch 11, wobei die Schnittstelle (32) des Sensors (10) und die Schnittstelle (108) des Handgeräts (100) drahtlose Schnittstellen (32, 108) sind.
  13. Verfahren zur Ausrichtung eines Sensors (10) zur Erfassung von Objekten (20) in einem Überwachungsbereich (18), bei dem auf einem Handgerät (100) ein die momentane Ausrichtung darstellendes Überlagerungsbild angezeigt wird, das zumindest einen Teil des Überwachungsbereichs (18) und eine Zielanzeige (116) einer Position eines von dem Sensor (10) erzeugten Lichtflecks (22) darstellt, dadurch gekennzeichnet, dass der Sensor (10) ein Sichtbereichsbild des Überwachungsbereichs (18) aufnimmt, die Position des Lichtflecks (22) in dem Sichtbereichsbild bestimmt und das Sichtbereichsbild und die Position an das Handgerät (100) überträgt und dass das Handgerät (100) das Überlagerungsbild basierend auf dem Sichtbereichsbild und der Position erzeugt und anzeigt.
  14. Verfahren nach Anspruch 13, wobei das Handgerät (100) ein zusätzliches Sichtbereichsbild des Überwachungsbereichs (18) aufnimmt, das Sichtbereichsbild des Sensors (10) und das zusätzliche Sichtbereichsbild miteinander in Übereinstimmung bringt, um die Position des Lichtflecks (22) in dem zusätzlichen Sichtbereichsbild zu bestimmen, und als Überlagerungsbild das zusätzliche Sichtbereichsbild überlagert mit der Zielanzeige (116) anzeigt.
  15. Verfahren nach Anspruch 13 oder 14, wobei das Handgerät (100) zu einem ersten Zeitpunkt in eine bekannte Position und Orientierung zu dem Sensor (10) gebracht wird und anhand von Daten eines Lage-, Beschleunigungs- und/oder Positionssensors (112) die Position und Orientierung bezüglich des Sensors (10) zu einem zweiten Zeitpunkt bestimmt, um die durch Bewegungen des Handgeräts (100) zwischen dem ersten Zeitpunkt und dem zweiten Zeitpunkt verursachten perspektivischen Änderungen bei der Fusionierung der Zielanzeige (116) in das Überlagerungsbild zu berücksichtigen.
DE102012111345.9A 2012-11-23 2012-11-23 Mobiles Handgerät zur Ausrichtung eines Sensors Active DE102012111345B4 (de)

Priority Applications (2)

Application Number Priority Date Filing Date Title
DE102012111345.9A DE102012111345B4 (de) 2012-11-23 2012-11-23 Mobiles Handgerät zur Ausrichtung eines Sensors
JP2013238752A JP5749319B2 (ja) 2012-11-23 2013-11-19 センサの位置合わせ用携帯端末機

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102012111345.9A DE102012111345B4 (de) 2012-11-23 2012-11-23 Mobiles Handgerät zur Ausrichtung eines Sensors

Publications (2)

Publication Number Publication Date
DE102012111345A1 true DE102012111345A1 (de) 2014-05-28
DE102012111345B4 DE102012111345B4 (de) 2019-03-28

Family

ID=50678862

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102012111345.9A Active DE102012111345B4 (de) 2012-11-23 2012-11-23 Mobiles Handgerät zur Ausrichtung eines Sensors

Country Status (2)

Country Link
JP (1) JP5749319B2 (de)
DE (1) DE102012111345B4 (de)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2985636A1 (de) * 2014-08-11 2016-02-17 Leuze electronic GmbH + Co KG Verfahren zum Ausrichten einer Sensoreinrichtung
DE102019110674A1 (de) * 2019-04-25 2020-10-29 Carl Zeiss Optotechnik GmbH Verfahren zur Bereitstellung eines visuellen Feedbacks
CN112097637A (zh) * 2019-06-18 2020-12-18 株式会社三丰 测量设备
DE102019122736A1 (de) * 2019-08-23 2021-02-25 Sick Ag System und Ausrichtverfahren mit einem System
DE202020106491U1 (de) 2020-11-12 2022-02-16 Sick Ag Visualisieren eines Schutzfeldes
DE102020129823A1 (de) 2020-11-12 2022-05-12 Sick Ag Visualisieren eines Schutzfeldes
DE202021105534U1 (de) 2021-10-13 2022-08-24 Leuze Electronic Gmbh + Co. Kg Sensoranordnung

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021021869A1 (en) * 2019-07-30 2021-02-04 Brain Corporation Systems and methods for calibrating nonvisible light emitting sensors using alignment targets

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004036145A1 (de) * 2002-10-12 2004-04-29 Leica Geosystems Ag Elektronische anzeige- und steuervorrichtung für ein messgerät
EP1947377A1 (de) * 2007-01-10 2008-07-23 Sick Ag Optoelektronischer Scanner

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0356094U (de) * 1989-09-19 1991-05-29

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2004036145A1 (de) * 2002-10-12 2004-04-29 Leica Geosystems Ag Elektronische anzeige- und steuervorrichtung für ein messgerät
EP1947377A1 (de) * 2007-01-10 2008-07-23 Sick Ag Optoelektronischer Scanner

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2985636A1 (de) * 2014-08-11 2016-02-17 Leuze electronic GmbH + Co KG Verfahren zum Ausrichten einer Sensoreinrichtung
CN105372719A (zh) * 2014-08-11 2016-03-02 洛伊策电子两合公司 用于对准传感器***的方法
US9503184B2 (en) 2014-08-11 2016-11-22 Leuze Electronic Gmbh + Co. Kg Method for aligning a sensor device
DE102019110674A1 (de) * 2019-04-25 2020-10-29 Carl Zeiss Optotechnik GmbH Verfahren zur Bereitstellung eines visuellen Feedbacks
CN112097637A (zh) * 2019-06-18 2020-12-18 株式会社三丰 测量设备
DE102019122736A1 (de) * 2019-08-23 2021-02-25 Sick Ag System und Ausrichtverfahren mit einem System
DE202020106491U1 (de) 2020-11-12 2022-02-16 Sick Ag Visualisieren eines Schutzfeldes
DE102020129823A1 (de) 2020-11-12 2022-05-12 Sick Ag Visualisieren eines Schutzfeldes
EP4000815A1 (de) 2020-11-12 2022-05-25 Sick Ag Visualisieren eines schutzfeldes
DE102020129823B4 (de) 2020-11-12 2022-07-07 Sick Ag Visualisieren eines Schutzfeldes
DE202021105534U1 (de) 2021-10-13 2022-08-24 Leuze Electronic Gmbh + Co. Kg Sensoranordnung

Also Published As

Publication number Publication date
JP5749319B2 (ja) 2015-07-15
DE102012111345B4 (de) 2019-03-28
JP2014107867A (ja) 2014-06-09

Similar Documents

Publication Publication Date Title
DE102012111345B4 (de) Mobiles Handgerät zur Ausrichtung eines Sensors
EP2669707B1 (de) Verfahren und handhaltbares Entfernungsmessgerät zur indirekten Entfernungsmessung mittels bildgestützter Winkelbestimmungsfunktion
EP1606581B1 (de) VERFAHREN UND VORRICHTUNG ZUR BILDVERARBEITUNG IN EINEM GEODÄTISCHEN MESSGER T
EP1549909B1 (de) Elektronische anzeige- und steuervorrichtung für ein messgerät
EP2918972B1 (de) Verfahren und handhaltbares Entfernungsmessgerät zum Erzeugen eines Raummodells
DE102013110581B4 (de) Verfahren zum optischen Abtasten und Vermessen einer Umgebung und Vorrichtung hierzu
EP2044573B1 (de) Überwachungskamera, verfahren zur kalibrierung der überwachungskamera sowie verwendung der überwachungskamera
DE19528465C2 (de) Verfahren und Vorrichtung zur schnellen Erfassung der Lage einer Zielmarke
EP3479141B1 (de) Verfahren zum betrieb eines laserentfernungsmessgeräts
EP3410064B1 (de) Inspektionskameraeinheit, verfahren zur inspektion von innenräumen sowie sensoreinheit
DE112014007227T5 (de) Verwendung von zweidimensionalen Kamerabildern zur Beschleunigung der Registrierung von Dreidimensionalen Scans
DE112015004396T5 (de) Augmented-reality-kamera zur verwendung mit 3d-metrologie-ausrüstung zum erzeugen von 3d-bildern aus 2d-kamerabildern
DE112014003227T5 (de) Dredimensionales Messgerät mit dreidimensionaler Übersichtskamera
DE112012007096B4 (de) Trackereinheit und Verfahren in einer Trackereinheit
DE10308525A1 (de) Vermessungssystem
EP2433837A1 (de) Optisches Instrument und Verfahren zur optischen Überwachung der Umgebung sich langsam bewegender Fahrzeuge
DE102016200877A1 (de) System zum Messen einer dreidimensionalen Position
EP3679402B1 (de) Verfahren zum betrieb eines laserentfernungsmessgeräts
DE102006006001B3 (de) Verfahren und Anordnung zum Einblenden ortsbezogener Informationen in eine visuelle Darstellung oder Ansicht einer Szene
DE112018005351T5 (de) Verfahren und vorrichtung zum dimensionieren eines objekts unter verwendungvon nahbereichs-vorrichtungen
WO2014118386A1 (de) Vermessungsanordnung und verfahren zur vermessung
EP1314960A1 (de) Elektronische Anzeige- und Steuervorrichtung für ein Messgerät
DE102007032471A1 (de) Verfahren und Vorrichtung zur Bestimmung der Lage eines Kamerasystems relativ zu einem Objekt
DE102017200303A1 (de) Digitale kartierung von strassenmarkierungen
DE102019201134B4 (de) Verfahren, Computerprogramm mit Instruktionen und System zum Einmessen einer Augmented-Reality-Brille und Augmented-Reality-Brille zur Verwendung in einem Kraftfahrzeug

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R020 Patent grant now final