WO2002031455A1 - Erfassung von phase und amplitude elektromagnetischer wellen - Google Patents

Erfassung von phase und amplitude elektromagnetischer wellen Download PDF

Info

Publication number
WO2002031455A1
WO2002031455A1 PCT/DE2000/003549 DE0003549W WO0231455A1 WO 2002031455 A1 WO2002031455 A1 WO 2002031455A1 DE 0003549 W DE0003549 W DE 0003549W WO 0231455 A1 WO0231455 A1 WO 0231455A1
Authority
WO
WIPO (PCT)
Prior art keywords
sensitive
pixels
phase
intensity
sensitive pixels
Prior art date
Application number
PCT/DE2000/003549
Other languages
English (en)
French (fr)
Inventor
Klaus Hartman
Rudolf Schwarte
Original Assignee
S-Tec Gmbh
Aicoss Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by S-Tec Gmbh, Aicoss Gmbh filed Critical S-Tec Gmbh
Priority to CA002424139A priority Critical patent/CA2424139C/en
Priority to PCT/DE2000/003549 priority patent/WO2002031455A1/de
Priority to US10/398,537 priority patent/US7238927B1/en
Publication of WO2002031455A1 publication Critical patent/WO2002031455A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01JMEASUREMENT OF INTENSITY, VELOCITY, SPECTRAL CONTENT, POLARISATION, PHASE OR PULSE CHARACTERISTICS OF INFRARED, VISIBLE OR ULTRAVIOLET LIGHT; COLORIMETRY; RADIATION PYROMETRY
    • G01J9/00Measuring optical phase difference; Determining degree of coherence; Measuring optical wavelength
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging

Definitions

  • the present invention relates to a device for detecting electromagnetic waves, in particular also the phase and amplitude of electromagnetic waves.
  • the present invention is based on the object of creating a method and a device for detecting the phase and amplitude of electromagnetic waves which are as inexpensive as possible and also enable a relatively high resolution.
  • this object is achieved in that, in addition to phase-sensitive pixels which make it possible to determine the distance, conventional, light-sensitive pixels are also used, the essential image resolution and possibly also the image colors being determined by the simpler conventional pixels, while the additional removal - or depth information for all pixels can be obtained from the or the closest phase-sensitive pixels.
  • a light-sensitive receiver unit has at least two different types of receiving elements (pixels), one type of pixel detecting the intensity of the electromagnetic radiation and the other type of pixel detecting phase information.
  • the method and the device according to the present invention advantageously have a few further features which are explained below and which can be implemented essentially independently of one another, provided that they do not depend directly on one another.
  • phase-sensitive pixels are not only phase-sensitive, but are of course also sensitive to intensity, but the phase information obtained from these pixels essentially depends on the conversion into corresponding image information, while image brightness and spectrum essentially result from the signals that are derived from the intensity-sensitive pixels.
  • the phase-sensitive and the intensity-sensitive pixels can be arranged together in the same plane or, in the case of a so-called line camera, in a row or line, but they can also be arranged next to or behind one another.
  • the phase-sensitive and the intensity-sensitive pixels can be arranged separately from one another on different components (semiconductor chips) by the incident light, for. B. divided over a beam splitter and on the one hand directed to a component with phase-sensitive pixels and on the other hand to a component with intensity-sensitive pixels.
  • the phase information and the intensity information can then be processed and evaluated separately, a uniform “3D image” being composed of this information, which contains both the phase information or runtime information (corresponding to the spatial depth) and the intensity information (corresponding to the local image brightness, optionally spectrally resolved).
  • the phase-sensitive pixels can also be arranged spatially behind the intensity-sensitive pixels, in particular if they are sensitive to different spectral ranges, the sensitivity maximum of the phase-sensitive pixels in particular also being able to be outside the visible range. Different reception technologies can also be used.
  • the evaluation modules can also be designed differently accordingly. When spatially separating pixels that are sensitive to phase and intensity, it is, of course, important to ensure the exact spatial and temporal coordination of the pixels that are phase and intensity sensitive to one another with respect to the detected object areas.
  • phase and intensity information recorded independently of one another can also be used mutually to supplement or improve the other information.
  • Gaps between pixels of one type can either be by interpolation or by additional information obtained from the other pixel type is supplemented or filled out
  • phase-sensitive pixels have a different spectral sensitivity than the intensity-sensitive pixels, it is also recommended that the beam splitter, if any, is divided according to the spectrum.
  • phase or transit time information is expediently obtained by using modulated signals, in particular electromagnetic signals, while unmodulated signals can also be used for the evaluation for the intensity information.
  • phase or transit time information is also assigned to those non-phase-sensitive pixels that are in the vicinity of the phase-sensitive pixels, it being also possible to interpolate the area between two closest phase-sensitive pixels.
  • the assignment of intensity-sensitive to phase-sensitive pixels can be fixed or can be variable.
  • lighting elements are used which emit a modulated radiation and which apply a modulated radiation to a scene to be recorded with the different pixels, wherein, as already mentioned, the additional use of normal lighting or natural lighting is also possible at the same time is.
  • LEDs, laser diodes or a mixture of both can be used as the lighting element.
  • These lighting elements should preferably be arranged around a recording lens. They are controlled, regulated and monitored by an appropriate electronic module.
  • FIG. 1a shows a line element with different pixels for intensity and phase detection
  • 1b shows an arrangement of phase-sensitive pixels in the radiation direction next to or behind intensity-sensitive pixels and with a spectral filter or control arranged in between,
  • FIG. 1c shows an arrangement of phase-sensitive pixels in the radiation direction behind intensity-sensitive pixels
  • FIG. 2 shows an arrangement of a plurality of pixel lines, the lines for “identity detection” alternating with lines for “phase detection”,
  • FIG. 2a shows schematically an area or matrix arrangement for two different pixel types
  • FIG. 2b shows an arrangement analogous to FIG. 1b
  • FIG. 3 is a schematic representation of the working principle of the device according to the invention.
  • Figure 4 shows the combination of two line elements, one of which is sensitive to intensity and the other phase sensitive.
  • the light-sensitive sensor for example of a line scan camera, can be seen in FIG. 1a.
  • the sensor 1 consists of a series of intensity-sensitive pixels 2, which is occasionally interrupted by individual phase-sensitive pixels 3.
  • This light-sensitive line which is often also referred to as a “line camera” because it forms the core element of a line camera, takes on appropriate optics and with the aid of appropriate evaluation electronics, images of objects being scanned perpendicular to the arrangement of the pixels over the surface of an object or the area occupied by an image scene.
  • the majority of the pixels are formed by the intensity-sensitive pixels 2
  • the phase-sensitive pixels 3, which are generally also somewhat larger than the light-sensitive pixels 2, are only occasionally and, if possible, inserted at equal intervals from one another into the row of pixels 2.
  • the number of phase-sensitive pixels in the devices according to the invention is Considerably smaller than the number of only light-sensitive pixels.
  • Line 1b shows an arrangement of a line camera with two lines (1 ', 1 ").
  • Line 1' consists of intensity-sensitive pixels and line 1" consists of phase-sensitive pixels.
  • Each line can be defined individually in the dimension and the number of pixels. The size of the two lines is appropriately adapted to one another for practical applications.
  • the incident radiation which contains intensity and phase information, is brought to the two lines via a beam splitter (4).
  • An arrangement of the respective pixels on lines 1 ′ and 1 ′′ can be achieved by arranging the beam division.
  • TFA Thin film on ASIC
  • These thin-film image sensors which are generally intensity- and spectrally sensitive pixels, can be applied to an opto-ASIC with phase-sensitive pixels 1 ′′, and the sensor layer V applied to these phase-sensitive pixels 1 ′ can remain transparent at the points which the radiation is to strike the phase-sensitive or phase-sensitive and intensity-sensitive pixels 1 ".
  • the individual pixels of the TFA layer can also have different spectral sensitivities and can preferably be combined in groups to form three or four pixels each with different spectral sensitivities.
  • 1c shows an arrangement 1 'of intensity-sensitive pixels in the radiation direction (corresponding to the two double arrows) in front of a row or layer 1 "of phase-sensitive pixels, the layer 1' at least for the radiation to which the layer 1" is sensitive, is transparent. Analogously, one could also reverse the beam path if the layer 1 "is correspondingly transparent to the radiation which is to be received by the layer 1 '.
  • a special feature of the light-sensitive sensor shown in FIG. 2a as an array arrangement is the integration of different pixels.
  • pixels are integrated on a semiconductor chip, which preferably can detect phase information (3) and pixels which preferably contain intensity information (type 2).
  • the radiation (1) that reaches the receiver module contains both phase and intensity information.
  • the parallel detection of phase and intensity information is achieved by using a module (4) for dividing the incident radiation (1).
  • the pixels are placed in an array arrangement on the receiver module 2.
  • the pixels for phase detection (3) are also placed in an array arrangement on the other receiving module.
  • a beam splitter (1) which can also perform spectral separation, for example, assigns portions of the backscattered radiation (light) to the respective receiving modules (2, 3).
  • the receiving unit 2 forms a light-sensitive sensor, which preferably has at least one intensity-sensitive pixel.
  • the light-sensitive sensor 3 has at least one phase-sensitive pixel with which a phase or transit time can be determined.
  • the scene mapping or assignment to the receiving modules and the respective pixels is defined in a fixed or variable manner.
  • the module 4 preferably processes information from the receiver module 2.
  • the data supplied by the receiver module 3 and by the processing module 5 assigned to 3 can be used.
  • the module 5 preferably processes information from the receiver module 3.
  • the data from the modules 2 and 4 can be used to improve the evaluation.
  • the parallel processing of the individual data with access to the raw data and the preprocessed data, the merging of the individual data in the sense of a data fusion and the provision of the different data at one interface are implemented by the module 6.
  • FIG. 4 shows an arrangement with a beam splitter (1), which can also be selected equally in a filter arrangement.
  • the incident radiation is directed by the beam splitter (1) to at least two receiver units (2, 3).
  • the receiver 2 is defined as a 2D pixel arrangement with at least one pixel for recording and evaluating intensity information.
  • the receiver 3 is designed as an SD pixel arrangement with at least one pixel for the preferred phase t runtime detection and measurement.
  • the pixels of the receivers (2, 3) are assigned to one another in a defined manner so that an illustrated scene point (scene voxel) can be assigned to the respective pixel on 2 and 3.
  • the lighting modules (5) emit modulated light or constant light, which acts on the scene (7).
  • the radiation (8) then backscattered from there passes via the beam splitter (1) to the receiver modules (2, 3).
  • the radiation from external lighting (6), which likewise emits modulated or unmodulated light or the natural ambient light (9) can be regarded as ambient light.
  • the lighting 5, which is assigned to the receiver module, can, for example, be arranged around the optics, with control and possibly the supply of a controlled variable by the evaluation module (4).
  • the lighting modules (5) can e.g. with one or more laser diodes / LEDs or a combination of both.
  • the evaluation module (4) processes the signals from 2 and 3 and forms an interface to provide the data.

Landscapes

  • Physics & Mathematics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Electromagnetism (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Spectrometry And Color Measurement (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Light Receiving Elements (AREA)

Abstract

Die vorliegende Erfindung betrifft eine Vorrichtung zum Erfassen elektromagnetischer Wellen, insbesondere auch der Phase und Amplitude elektromagnetischer Wellen, mit Hilfe von Elementen, die auf einfallende elektromagnetische Wellen empfindlich reagieren. Um ein Verfahren und eine Vorrichtung zum Erfassen von Phase und Amplitude elektromagnetischer Wellen zu schaffen, welche möglichst kostengünstig sind und auch eine relativ hohe Auflösung ermöglichen, wird erfindungsgemäß vorgeschlagen, daß die Vorrichtung zwei verschiedene Pixelarten aufweist, von denen eine Pixelart im wesentlichen nur intensitätsempfindlich ist und die andere Pixelart im wesentlichen phasenempfindlich ist, wobei dementsprechend in dem Verfahren zwei verschiedene Pixelarten verwendet werden, von denen die eine im wesentlichen auf die Intensität eingestrahlter elektromagnetischer Wellen reagiert, während die andere Pixelart phasenempfindlich ist.

Description

Erfassung von Phase und Amplitude elektromagnetischer Wellen
Die vorliegende Erfindung betrifft eine Vorrichtung zum Erfassen elektromagnetischer Wellen, ins- besondere auch der Phase und Amplitude elektromagnetischer Wellen.
Entsprechende Vorrichtungen und Verfahren sind im Prinzip bereits bekannt. Zum einen gibt es schon seit längerem auf dem Markt digitale Bilderfassungseinrichtungen, die im wesentlichen aus einer lichtempfindlichen Matrix oder auch einer lichtempfindlichen Zeile einzelner Elemente beste- hen, z. B. CCD-Platten, die durch Lichteinfall elektrisch geladen werden, wobei die Ladungen pixelweise ausgelesen werden und ein Maß für die innerhalb einer bestimmten Belichtungszeit auftreffende elektromagnetische Strahlung darstellen. Weiterhin sind auch sogenannte PMD-Pixel bereits bekannt, d.h. lichtempfindliche Bauteile oder Pixel, welche neben der Amplitude auch die Phase elektromagnetischer Wellen erfassen können. Diese eignen sich neben der reinen Bilderfas- sung auch zur Erfassung der Entfernung des Gegenstandes, von welchem die elektromagnetische Strahlung ausgeht.
Allerdings sind diese PMD-Elemente relativ teuer und beanspruchen mitunter auch mehr Platz als die Pixel herkömmlicher CCD- oder CMOS-Sensoren. Der vorliegenden Erfindung liegt vor dem Hintergrund dieses Standes der Technik die Aufgabe zugrunde, ein Verfahren und eine Vorrichtung zum Erfassen von Phase und Amplitude elektromagnetischer Wellen zu schaffen, welche möglichst kostengünstig sind und auch eine relativ hohe Auflösung ermöglichen.
Hinsichtlich des Verfahrens wird diese Aufgabe dadurch gelöst, daß neben phasenempfindlichen Pixeln, welche eine Entfernungsbestimmung ermöglichen, auch herkömmliche, lichtempfindliche Pixel verwendet werden , wobei die wesentliche Bildauflösung und gegebenenfalls auch die Bildfarben durch die einfacheren herkömmlichen Pixel bestimmt werden, während die zusätzliche Ent- femungs- oder Tiefeninformation für alle Pixel aus dem oder den jeweils nächstliegenden Phasenempfindlichen Pixeln gewonnen werden.
Hinsichtlich der Vorrichtung wird die der Erfindung zugrundeliegende Aufgabe dadurch gelöst, daß eine lichtempfindliche Empfängereinheit mindestens zwei verschiedene Arten von Empfangselementen (Pixel) aufweist, wobei die eine Pixelart die Intensität der elektromagnetischen Strahlung erfaßt und die andere Pixelart eine Phaseninformation erfaßt. Das Verfahren und die Vorrichtung gemäß der vorliegenden Erfindung weisen mit Vorteil einige weitere Merkmale auf, die nachstehend erläutert werden und die im wesentlichen unabhängig voneinander verwirklicht werden können, soweit sie nicht unmittelbar voneinander abhängen.
Es versteht sich, daß die sogenannten phasenempfindlichen Pixel nicht nur phasenempfindlich sind, sondern selbstverständlich auch intensitätsempfindlich sind, wobei es jedoch zur Umsetzung in entsprechende Bildinformationen im wesentlichen auf die aus diesen Pixeln gewonnenen Phaseninformationen ankommt, während Bildhelligkeit und Spektrum sich im wesentlichen aus den Signalen ergeben, die aus den intensitätsempfindlichen Pixeln abgeleitet werden. Die phasenempfindlichen und die intensitätsempfindlichen Pixel können sowohl gemeinsam in derselben Ebene bzw. im Fall einer sogenannten Zeilenkamera in einer Reihe bzw. Zeile angeordnet sein, sie können jedoch auch neben- oder hintereinander angeordnet werden.
So können beispielsweise die phasenempfindlichen und die intensitätsempfindlichen Pixel getrennt voneinander auf verschiedenen Bauteilen (Halbleiterchips) angeordnet sein, indem das einfallende Licht z. B. über einen Strahlteiler aufgeteilt und einerseits auf ein Bauteil mit phasenempfindlichen Pixeln und andererseits auf ein Bauteil mit intensitätsempfindlichen Pixeln geleitet wird. Die Phaseninformation und die Intensitätsinformation können dann getrennt verarbeitet und ausgewertet werden, wobei aus diesen Informationen ein einheitliches "3D-Bild" zusammengesetzt wird, welches sowohl die Phaseninformation bzw. Laufzeitinformation (entsprechend der räumlichen Tiefe) als auch die Intensitätsinformation (entsprechend der lokalen Bildhelligkeit, gegebenenfalls spektral aufgelöst ) enthält.
Dabei können die phasenempfindlichen Pixel auch räumlich hinter den intensitätsempfindlichen Pixeln angeordnet sein, insbesondere, wenn sie jeweils auf unterschiedliche Spektralbreiche empfindlich sind, wobei das Empfindlichkeitsmaximum der phasenempfindlichen Pixel insbesondere auch außerhalb des sichtbaren Bereiches liegen kann. Dabei können auch unterschiedliche Empfangstechnologien verwendet werden. Auch die Auswertemodule können entsprechend unter- schiedlich ausgelegt sein. Bei der räumlichen Trennung von phasen- und intensitätsempfindlichen Pixeln ist selbstverständlich auf die exakte räumliche und zeitliche Koordination der hinsichtlich der erfaßten Objektbereiche einander entsprechenden phasen- bzw. intensitätsempfindlichen Pixel zu achten.
Die unabhängig voneinander erfassten Phasen- und Intensitätsinformationen können auch wechselseitig für eine Ergänzung bzw. Verbesserung der jeweils anderen Information verwendet werden.
Lücken zwischen Pixeln der einen Art können entweder durch Interpolation oder durch zusätzlich aus der jeweils anderen Pixelart gewonnene Information ergänzt bzw. ausgefüllt werden
Wenn die phasenempfindlichen Pixel eine andere spektrale Empfindlichkeit haben als die intensitätsempfindlichen Pixel, so empfiehlt es sich auch, daß der gegebenenfalls vorgesehene Strahltei- ler eine entsprechende Aufteilung nach dem Spektrum vornimmt.
Zweckmäßigerweise erhält man die Phasen bzw. Laufzeitinformation dadurch, daß man modulierte Signale, insbesondere elektromagnetische Signale, verwendet, während für die Intensitätsinformation auch unmodulierte Signale für die Auswertung verwendet werden können.
Die Phasen- oder Laufzeitinformationen werden dabei auch denjenigen nicht phasen-empfindlichen Pixeln zugeordnet, die sich in der Nachbarschaft der phasenempfindlichen Pixel befinden, wobei der Bereich zwischen zwei jeweils nächstliegenden Phasenempfindlichen Pixeln auch interpoliert werden kann. Die Zuordnung von intensitätsempfindlichen zu phasenempfindlichen Pixeln kann dabei festgelegt sein oder auch variabel erfolgen.
In der bevorzugten Ausführungsform werden Beleuchtungselemente verwendet, die eine modulierte Strahlung abgeben und die eine mit den verschiedenen Pixeln zu erfassende Szene mit dieser modulierten Strahlung beaufschlagen, wobei, wie bereits erwähnt, auch die zusätzliche Verwen- dung einer normalen Beleuchtung oder auch natürliche Beleuchtung gleichzeitig möglich ist. Als Beleuchtungselement können LEDs, Laserdioden oder eine Mischung von beiden verwendet werden. Diese Beleuchtungselemente sollten vorzugsweise um eine Aufnahmeoptik herum angeordnet sein. Sie werden von einem entsprechenden Elektronikmodul angesteuert, geregelt und überwacht.
Weitere Vorteile und Merkmale ergeben sich aus der folgenden Beschreibung mit einer Auflistung von Merkmalen, die gegebenenfalls auch Merkmale von abhängigen Ansprüchen sein können.
In den beiliegenden Figuren sind schematisch Einrichtungen dargestellt, welche Ausführungsformen der erfindungsgemäßen Vorrichtung verkörpern und anhand welcher auch die entsprechen- den Verfahrensweisen darstellbar sind. Es zeigen:
Figur 1a ein Zeilenelement mit unterschiedlichen Pixeln zur Intensitäts- und Phasendetek- tion,
Figur 1b eine Anordnung von phasenempfindlichen Pixeln in Strahlungsrichtung neben oder hinter intensitätsempfindlichen Pixeln und mit einem dazwischen angeordneten Spektralfilter bzw. -teuer,
Figur 1c eine Anordnung von phasenempfindlichen Pixeln in Strahlungsrichtung hinter intensitätsempfindlichen Pixeln, Figur 2 eine Anordnung mehrerer Pixelzeilen, wobei die Zeilen zur „Identitätsdetektion" mit Zeilen der „Phasendetektion" abwechseln,
Figur 2a schematisch eine Flächen- bzw. Matrixanordnung für zwei verschiedene Pixeltypen,
Figur 2b eine Anordnung analog zu Figur 1b,
Figur 3 eine schematische Darstellung des Arbeitsprinzips der erfindungsgemäßen Vorrichtung und
Figur 4 die Kombination zweier Zeilenelemente, von denen eines intensitäts- und das andere phasenempfindlich ist.
Man erkennt in Figur 1a den lichtempfindlichen Sensor beispielsweise einer Zeilenkamera. Der Sensor 1 besteht aus einer Reihe von intensitätsempfindlichen Pixeln 2, die gelegentlich unterbrochen ist von einzelnen phasenempfindlichen Pixeln 3. Diese lichtempfindliche Zeile, die oft auch als „Zeilenkamera" bezeichnet wird, da sie das Kernelement einer Zeilenkamera bildet, nimmt über eine entsprechende Optik und mit Hilfe einer entsprechenden Auswertelektronik Bilder von Gegenständen auf, wobei über die Oberfläche eines Gegenstandes bzw. den Flächenbereich, der von einer Bildszene in Anspruch genommen wird, senkrecht zur Anordnung der Pixel hinweg gescannt wird. Die Mehrzahl der Pixel wird gebildet von den intensitätsempfindlichen Pixeln 2. Die phasenempfindlichen Pixel 3, die im allgemeinen auch etwas größer sind als die lichtempfindlichen Pixel 2, sind nur gelegentlich und nach Möglichkeit in jeweils gleichen Abständen untereinander in die Reihe der Pixel 2 eingeschoben. Im allgemeinen ist die Zahl der phasenempfindlichen Pixel bei den erfindungsgemäßen Vorrichtungen wesentlich kleiner als die Zahl der nur lichtempfindlichen Pixel.
In Figur 1 b erkennt man eine Anordnung einer Zeilenkamera mit zwei Zeilen (1 ', 1 "). Die Zeile 1 ' besteht aus intensitätsempfindlichen Pixeln und die Zeile 1" besteht aus phasenempfindlichen Pixeln. Jedes Zeile kann für sich in der Dimension und der Anzahl der Pixel definiert werden. Für praktische Anwendungen werden die beiden Zeilen in ihrer Größe sinnvollerweise einander angepaßt. Die einfallende Strahlung, die Intensitäts- und Phaseninformationen enthält, wird über einen Strahlteiler (4) auf die beiden Zeilen gebracht. Durch die Anordnung der Strahlaufteilung kann eine Zuordnung der jeweiligen Pixel auf Zeile 1' und 1" erreicht werden.
Denkbar ist insbesondere auch die Verwendung von TFA (Thin film on ASIC)-Bildsensoren. Diese Dünnfilm-Bildsensoren, die im allgemeinen intensitäts- und spektralempfindliche Pixel sind, kann man auf ein Opto-ASIC mit phasenempfindlichen Pixeln 1" aufbringen und die so auf die- sen phasenempfindlichen Pixeln 1' aufgebrachte Sensorschicht V kann an den Stellen transparent bleiben, an denen die Strahlung auf die phasenempfindlichen bzw. phasen- und intensitätsempfindlichen Pixel 1" auftreffen soll. Dabei können auch die einzelnen Pixel der TFA-Schicht unterschiedliche spektrale Empfindlichkeiten aufweisen und vorzugsweise gruppenweise zu drei oder vier Pixeln jeweils unterschiedlicher spektraler Empfindlichkeit zusammengefaßt sein.
In Figur 1c erkennt man eine Anordnung 1' von intensitätsempfindlichen Pixeln in Strahlungsrichtung (entsprechend den beiden Doppelpfeilen) vor einer Reihe oder Lage 1" aus phasenempfindlichen Pixeln, wobei die Lage 1' zumindest für die Strahlung, für welche die Lage 1" empfindlich ist, transparent ist. Analog könnte man den Strahlengang auch umkehren, wenn die Lage 1" entsprechend transparent für die Strahlung ist, welche durch die Lage 1' empfangen werden soll.
Der in Figur 2a beispielsweise als Arrayanordnung dargestellte lichtempfindliche Sensor weist als Besonderheit die Integration verschiedener Pixel auf. Insbesondere werden auf einem Halbleiterchip Pixel integriert, die vorzugsweise Phaseninformationen (3) und Pixel die vorzugsweise Intensitätsinformationen (Typ 2) detektieren können. Die Strahlung (1), die auf das Empfängermo- dul gelangt, enthält sowohl Phasen- als auch Intensitätsinformationen.
In Figur 2b wird die parallele Detektion von Phasen- und Intensitätsinformationen dadurch gelöst, das ein Modul (4) zur Aufteilung der einfallenden Strahlung (1) verwendet wird. Zur Detektion der Intensitätsinformationen werden die Pixel in einer Arrayanordnung auf dem Empfängermodul 2 plaziert. Die Pixel zur Phasendetektion (3) sind ebenfalls in einer Arrayanordnung auf dem anderen Empfangsmodul plaziert.
Unter der Annahme, daß in Figur 3 die Szene (10) mit einer modulierten Strahlung (8) und ebenfalls von einer natürlichen Strahlung (9) beaufschlagt und von dort jeweils zurückgestreut (9, 8) wird, ist ein mögliches Auswerteverfahren dargestellt, welches als kompaktes Gesamtmodul (7) realisiert werden kann.
Ein Strahlteiler (1), der beispielsweise auch eine spektrale Trennung vornehmen kann, ordnet Anteile der rückgestreuten Strahlung (Licht) den jeweiligen Empfangsmodulen (2,3) zu. Die Emp- fangseinheit 2 bildet einen lichtempfindlichen Sensor, der vorzugsweise mindestens ein intensitätsempfindliches Pixel aufweist. Dagegen weist der lichtempfindliche Sensor 3 mindestens ein phasenempfindliches Pixel auf mit dem eine Phase bzw. Laufzeit bestimmt werden kann. Die Szenenabbildung bzw. Zuordnung zu den Empfangsmodulen und den jeweiligen Pixeln ist in bestimmter Weise fix oder variabel definiert.
Das Modul 4 verarbeitet vorzugsweise Informationen des Empfängermoduls 2. Zur Verbesserung der Auswertung können die Daten, die vom Empfängermodul 3 und von dem 3 zugeordneten Verarbeitungsmodul 5 geliefert werden, herangezogen werden. Dabei steht der Vorteil einer definierten Zuordnung der unterschiedlichen Pixel auf beiden Empfangsmodulen zueinander und die synchrone Erfassung von Intensitätsinformationen und Phasen- bzw. Laufzeitinformationen im Vordergrund.
Das Modul 5 verarbeitet vorzugsweise Informationen des Empfängermoduls 3. Auch hier können die Daten von den Modulen 2 und 4 zur Verbesserung der Auswertung herangezogen werden.
Die parallele Verarbeitung der Einzeldaten mit Zugriff auf die Rohdaten und die vorverarbeiteten Daten, die Zusammenführung der Einzeldaten im Sinne eine Datenfusion und die Bereitstellung der unterschiedlichen Daten an einer Schnittstelle wir durch das Modul 6 realisiert.
In der Figur 4 ist eine Anordnung mit einem Strahlteiler (1) zu sehen, der auch in einer Filteranordnung gleichermaßen gewählt werden kann. Die einfallende Strahlung wird wie bei der Beschreibung zu Figur 3 von dem Strahlteiler (1) auf mindestens zwei Empfängereinheiten (2,3) gelenkt. Der Empfänger 2 ist als 2D-Pixelanordnung mit mindestens einem Pixel zur Erfassung und Auswertung von Intensitätsinformationen definiert. Der Empfänger 3 ist als SD- Pixelanordnung mit mindestens einem Pixel zur vorzugsweisen Phasen-tLaufzeiterfassung, -messung konzipiert.
Die Pixel der Empfänger (2,3) sind in definierter Weise so einander zugeordnet, daß ein abgebil- deter Szenenpunkt (Szenenvoxel) dem jeweiligen Pixel auf 2 und 3 zuordenbar ist.
Die Beleuchtungsmodule (5) geben moduliertes Licht oder auch Gleichlicht ab, welches die Szene (7) beaufschlagt. Die dann von dort rückgestreute Strahlung (8) gelangt über den Strahlteiler (1) zu den Emfängermodulen (2,3). Als Umgebungslicht kann die Strahlung einer externen Be- leuchtung (6), die ebenfalls moduliertes oder unmoduliertes Licht abgibt oder das natürliche Umgebungslicht (9) angesehen werden.
Die Beleuchtung 5, die dem Empfängermodul zugeordnet ist, kann z,B, um die Optik herum angeordnet werden wobei sich eine Ansteuerung und ggf. die Zuführung einer Regelgröße von dem Auswertemodul (4) anbietet. Die Beleuchtungsmodule (5) können z.B. mit einer oder mehreren Laserdioden/LEDs oder einer Kombination von beiden realisiert werden.
Das Auswertemodul (4) verarbeitet die Signale von 2 und 3 und bildet eine Schnittstelle um die Daten bereitzustellen.

Claims

P a t e n t a n s p r ü c h e
1. Verfahren zur Erfassung von Bildinformationen mit Hilfe lichtempfindlicher Empfangselemente (Pixel), dadurch gekennzeichnet, daß zwei verschiedene Pixelarten verwendet werden, von denen die eine im wesentlichen auf die Intensität eingestrahlter elektromagnetischer Wellen reagiert, während die andere Pixelart phasenempfindlich ist.
2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die beiden verschiedenen Pixelarten in derselben Ebene oder Reihe von Pixeln angeordnet werden.
3. Verfahren nach Anspruch 1, dadurch gekennzeichnet, daß die phasenempfindlichen Pixel, bezogen auf die Lichteinstrahlrichtung, hinter den intensitätsempfindlichen Pixeln an- geordnet werden.
4. Verfahren nach Anspruch 1 , dadurch gekennzeichnet, daß die phasenempfindlichen Pixel und die intensitätsempfindlichen Pixel räumlich voneinander getrennt angeordnet werden und das einfallende Licht durch einen Strahlteiler geteilt wird, wobei die entsprechenden Anteile getrennt auf die phasenempfindlichen und die intensitätsempfindlichen Pixel geleitet werden.
5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, daß ein eindeutige räumliche Zuordnung der einzelnen phasenempfindlichen Pixel zu den intensitätsempfindlichen Pixeln oder Gruppen von diesen intensitätsempfindlichen Pixeln erfolgt.
6. Verfahren nach Anspruch 4 oder 5, dadurch gekennzeichnet, daß der Strahlteiler ein spektraler Strahlteiler ist, durch welchen das einfallende Licht in mindestens zwei verschiedene spektrale Anteile aufgeteilt wird.
7. Verfahren nach einem der Ansprüche 1 bis 5, dadurch gekennzeichnet, daß das von einem aus phasen- und intensitätsempfindlichen Pixeln bestehenden Bildsensor empfangene Licht reflektierte Anteile enthält, die von der Beleuchtung durch eine modulierte Lichtquelle herrühren.
8. Vorrichtung zum Erfassen elektromagnetischer Wellen mit Hilfe von Elementen, die auf einfallende elektromagnetische Wellen empfindlich reagieren, dadurch gekennzeichnet, daß die Vorrichtung zwei verschiedene Pixelarten aufweist, von denen eine Pixelart im we- sentlichen nur intensitätsempfindlich ist und die andere Pixelart im wesentlichen phasenempfindlich ist.
9. Vorrichtung nach Anspruch 8, dadurch gekennzeichnet, daß die verschiedenen Pixelarten in derselben Ebene bzw. Reihe an Pixeln angeordnet sind.
10. Vorrichtung nach Anspruch 8, dadurch gekennzeichnet, daß die phasenempfindlichen Pixeln hinter den intensitätsempfindlichen Pixeln angeordnet sind, wobei die intensitätsempfindlichen Pixel mindestens für eine Wellenlänge transparent sind, welche hinsichtlich Pha- se und Intensität von den phasenempfindlichen Pixeln erfaßbar ist.
11. Vorrichtung nach Anspruch 8, dadurch gekennzeichnet, daß die phasenempfindlichen und die intensitätsempfindlichen Pixel räumlich voneinander getrennt angeordnet sind, wobei das von den Pixeln aufzunehmende Licht durch einen Strahlteiler geteilt und getrennt auf die phasenempfindlichen und die intensitätsempfindlichen Pixel leitet.
12. Vorrichtung nach Anspruch 11, wobei der Strahlteiler die Eigenschaften einer abbildenden Optik hat und wobei phasenempfindliche Pixel eindeutig entsprechenden intensitätsempfindlichen Pixeln zugeordnet werden können, welche jeweils durch den Strahlteiler aufge- teiltes Licht empfangen, das von demselben Ort und aus derselben Richtung auf den
Strahlteiler aufgetroffen ist.
13. Vorrichtung nach einem der Ansprüche 8 bis 12, dadurch gekennzeichnet, daß eine modulierbare Beleuchtungseinrichtung vorgesehen ist, welche Licht in einem von den phasen- empfindlichen Pixeln erfaßbaren Spektralbereich aussendet.
PCT/DE2000/003549 2000-10-09 2000-10-09 Erfassung von phase und amplitude elektromagnetischer wellen WO2002031455A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
CA002424139A CA2424139C (en) 2000-10-09 2000-10-09 Sensing the phase and amplitude of electromagnetic waves
PCT/DE2000/003549 WO2002031455A1 (de) 2000-10-09 2000-10-09 Erfassung von phase und amplitude elektromagnetischer wellen
US10/398,537 US7238927B1 (en) 2000-10-09 2000-10-09 Detection of the phase and amplitude of electromagnetic waves

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/DE2000/003549 WO2002031455A1 (de) 2000-10-09 2000-10-09 Erfassung von phase und amplitude elektromagnetischer wellen

Publications (1)

Publication Number Publication Date
WO2002031455A1 true WO2002031455A1 (de) 2002-04-18

Family

ID=5647970

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/DE2000/003549 WO2002031455A1 (de) 2000-10-09 2000-10-09 Erfassung von phase und amplitude elektromagnetischer wellen

Country Status (3)

Country Link
US (1) US7238927B1 (de)
CA (1) CA2424139C (de)
WO (1) WO2002031455A1 (de)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1953568A1 (de) 2007-01-29 2008-08-06 Robert Bosch Gmbh Imager-Halbleiterbauelement, Kamerasystem und Verfahren zum Erstellen eines Bildes
DE102013109020A1 (de) * 2013-08-21 2015-02-26 Pmdtechnologies Gmbh Streulichtreferenzpixel
CN111930052A (zh) * 2020-09-17 2020-11-13 中兴通讯股份有限公司 智能面板、智能面板的控制方法以及通信***

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU2003250051A1 (en) * 2002-07-16 2004-02-02 Stmicroelectronics Nv Tfa image sensor with stability-optimized photodiode

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5157451A (en) * 1991-04-01 1992-10-20 John Taboada Laser imaging and ranging system using two cameras
DE4439298A1 (de) * 1994-11-07 1996-06-13 Rudolf Prof Dr Ing Schwarte 3D-Kamera nach Laufzeitverfahren
DE19821974A1 (de) * 1998-05-18 1999-11-25 Rudolf Schwarte Vorrichtung und Verfahren zur Erfassung von Phase und Amplitude elektromagnetischer Wellen

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4939369A (en) * 1988-10-04 1990-07-03 Loral Fairchild Corporation Imaging and tracking sensor designed with a sandwich structure
CN1131741A (zh) * 1995-03-22 1996-09-25 载歌公司 光学间隙测量装置和方法
US5598261A (en) * 1995-07-07 1997-01-28 Lockheed Missiles & Space Company, Inc. Wavefront sensor for a scanning imager
HU227654B1 (en) 1996-09-05 2011-10-28 Rudolf Schwarte Method and device for determining the phase- and/or amplitude data of an electromagnetic wave

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5157451A (en) * 1991-04-01 1992-10-20 John Taboada Laser imaging and ranging system using two cameras
DE4439298A1 (de) * 1994-11-07 1996-06-13 Rudolf Prof Dr Ing Schwarte 3D-Kamera nach Laufzeitverfahren
DE19821974A1 (de) * 1998-05-18 1999-11-25 Rudolf Schwarte Vorrichtung und Verfahren zur Erfassung von Phase und Amplitude elektromagnetischer Wellen

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1953568A1 (de) 2007-01-29 2008-08-06 Robert Bosch Gmbh Imager-Halbleiterbauelement, Kamerasystem und Verfahren zum Erstellen eines Bildes
DE102013109020A1 (de) * 2013-08-21 2015-02-26 Pmdtechnologies Gmbh Streulichtreferenzpixel
DE102013109020B4 (de) * 2013-08-21 2016-06-09 Pmdtechnologies Gmbh Streulichtreferenzpixel
US9678200B2 (en) 2013-08-21 2017-06-13 Pmdtechnologies Gmbh Scattered light reference pixel
CN111930052A (zh) * 2020-09-17 2020-11-13 中兴通讯股份有限公司 智能面板、智能面板的控制方法以及通信***
CN111930052B (zh) * 2020-09-17 2024-04-16 中兴通讯股份有限公司 智能面板、智能面板的控制方法以及通信***

Also Published As

Publication number Publication date
CA2424139C (en) 2008-07-15
US7238927B1 (en) 2007-07-03
CA2424139A1 (en) 2003-03-31

Similar Documents

Publication Publication Date Title
DE69704485T2 (de) Sichtsystem
DE102015110233B4 (de) Eine Bilderzeugungsvorrichtung und ein Verfahren zum Produzieren eines dreidimensionalen Bildes eines Objekts
DE112008003342B4 (de) Aufzeichnung von 3D-Bildern einer Szene
AT412028B (de) Einrichtung zur aufnahme eines objektraumes
DE60124647T2 (de) Vorrichtung und Verfahren zur Abstandsmessung
DE102017223102A1 (de) Multipuls-Lidarsystem zur mehrdimensionalen Erfassung von Objekten
DE112017007467T5 (de) Verfahren zum Bereitstellen einer Interferenzreduzierung und eines dynamischen Bereichs von Interesse in einem LIDAR-System
DE112011101667T5 (de) Abtastender 3D-Bildgeber
DE102018107801A1 (de) Lichtlaufzeitkamera
DE102009055626A1 (de) Optische Messeinrichtung und Verfahren zur optischen Vermessung eines Messobjekts
DE69927367T2 (de) Optoelektronische Formerfassung durch chromatische Kodierung mit Beleuchtungsebenen
EP2013642A1 (de) Vorrichtung und verfahren zur aufnahme von entfernungsbildern
DE10248416B4 (de) Vorrichtung und Verfahren zur Bestimmung einer Relativbewegung eines Fahrzeugs
WO2002031455A1 (de) Erfassung von phase und amplitude elektromagnetischer wellen
DE102011117678A1 (de) Sensor zur Prüfung von Wertdokumenten
DE102011015478B4 (de) Vorrichtung und Verfahren zur Erfassung und Analyse von Laserstrahlung
DE19916123B4 (de) Erfassung von Phase und Amplitude elektromagnetischer Wellen
EP3702804A1 (de) Verfahren und vorrichtung zum detektieren von einfallender laserstrahlung an einem raumflugkörper
DD296154A5 (de) Anordnung zur gewinnung von fernerkundungsdaten
DE3215897C2 (de) Verfahren für die Objektvermessung und Objekterkennung von weit entfernten Objekten und Vorrichtung zur Durchführung des Verfahrens
DE3434794A1 (de) Optisches system zur bewegungskompensation von zeilen-scannern
DE102019106411B4 (de) Laserscaneinrichtung und Verfahren zur dreidimensionalen Vermessung einer Szenerie in großer Entfernung
DE102012014994B4 (de) Bildverarbeitungsverfahren für eine digitale Stereokameraanordnung
DE102019213812A1 (de) Optischer Sensor
DE102017205743A1 (de) Lichtlaufzeitkamera

Legal Events

Date Code Title Description
AK Designated states

Kind code of ref document: A1

Designated state(s): CA US

WWE Wipo information: entry into national phase

Ref document number: 2424139

Country of ref document: CA