WO2011051286A1 - Kamerasystem - Google Patents

Kamerasystem Download PDF

Info

Publication number
WO2011051286A1
WO2011051286A1 PCT/EP2010/066166 EP2010066166W WO2011051286A1 WO 2011051286 A1 WO2011051286 A1 WO 2011051286A1 EP 2010066166 W EP2010066166 W EP 2010066166W WO 2011051286 A1 WO2011051286 A1 WO 2011051286A1
Authority
WO
WIPO (PCT)
Prior art keywords
tof
camera
cameras
camera system
images
Prior art date
Application number
PCT/EP2010/066166
Other languages
English (en)
French (fr)
Inventor
Florian Forster
Javier Massanell
Original Assignee
Ifm Electronic Gmbh
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ifm Electronic Gmbh filed Critical Ifm Electronic Gmbh
Publication of WO2011051286A1 publication Critical patent/WO2011051286A1/de

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/02Systems using the reflection of electromagnetic waves other than radio waves
    • G01S17/06Systems determining position data of a target
    • G01S17/08Systems determining position data of a target for measuring distance only
    • G01S17/32Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated
    • G01S17/36Systems determining position data of a target for measuring distance only using transmission of continuous waves, whether amplitude-, frequency-, or phase-modulated, or unmodulated with phase comparison between the received signal and the contemporaneously transmitted signal
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar

Definitions

  • the invention relates to a camera system with at least two
  • Runtime measurement systems These use amplitude modulated or pulsed illumination to illuminate the area to be detected
  • 3D TOF cameras are in particular PMD cameras with
  • Photonic mixer (PMD) suitable as u.a. in the applications EP 1 777 747, US 6 587 186 and also DE 197 04 496 described and, for example, by the company, ifm electronic gmbh 'as a frame grabber O3D are available.
  • the PMD camera allows a flexible arrangement of the light source and the detector, which can be arranged both in a housing and separately.
  • the object of the invention is to improve the accuracy of the captured room images.
  • a camera system with at least two
  • 3D TOF cameras in particular PMD cameras, and an active lighting provided in which the two 3D TOF cameras, preferably to achieve a stereo effect, offset from each other.
  • This approach has the advantage that three-dimensional spatial information not only redundant, namely by detecting two distance images of the two 3D TOF cameras, but also diversified, by Taking advantage of a stereo effect of the two detected amplitude images are detected.
  • 3D TOF camera captured and evaluated.
  • FIG. 1 schematically shows a PMD camera system
  • FIG. 2 shows schematically a camera system according to the invention
  • FIG. 3 schematically shows a detection situation according to the invention
  • Figure 1 shows a measurement situation for an optical distance measurement with a TOF camera system, as it is known for example from DE 197 04 496.
  • the TOF camera system here comprises a transmitting unit or an active illumination 100 with a light source 12 and an associated one
  • Photosensor 15 is preferably as a pixel array, in particular as PMD sensor, designed.
  • the receiving optics typically consist of improving the imaging properties of a plurality of optical elements.
  • the beam-shaping optical system 50 of the transmitting unit 100 is preferably designed as a reflector. However, it is also possible to use diffractive elements or combinations of reflective and diffractive elements.
  • the measuring principle of this arrangement is essentially based on the fact that based on the phase difference of the emitted and received light, the duration of the emitted and reflected light can be determined.
  • the light source and the photosensor 15 via a modulator 18 together with a specific
  • Modulation frequency applied to a first phase position a is Modulation frequency applied to a first phase position a.
  • the light source 12 transmits an amplitude-modulated signal having the phase a.
  • this signal or the electromagnetic radiation is reflected by an object 20 and hits due to the distance covered
  • Phase position a of the modulator 18 with the received signal which has meanwhile assumed a second phase position b, mixed and from the resulting signal, the phase shift or the
  • FIG. 2 shows schematically a camera system according to the invention with a common active illumination 100 and a first and second 3 D-TO F camera 200, 202 which are offset or spaced from each other.
  • This system may preferably, as indicated by the dashed border, in a common
  • Housing be arranged.
  • various combinations are conceivable. For example, a
  • Housings are arranged individually.
  • the active lighting 100 and the 3D TOF cameras 200, 202 are connected to the modulator 18 and are thus with the same modulation frequency and phase angle
  • Figure 3 shows schematically the different detection ranges of the two 3D TOF cameras 200, 202.
  • the two 3D TOF cameras 202, 200 are arranged directly adjacent to each other, wherein the active illumination 100 directly adjacent to this double unit.
  • the two detection ranges E1, E2 of the two 3D TOF cameras 200, 202 are within the range determined by the active one
  • the two detection regions E1, E2 substantially overlap in the middle region of the illumination field B. Due to the staggered arrangement of the two 3D TOF cameras, the amplitude images in the overlapping region can now be stereoscopically evaluated and three-dimensional spatial information is obtained. In the non-overlapping regions, space or distance information is present at least by a 3D TOF camera.
  • 3D TOF cameras substantially to bring cover so that a maximum of redundant or diverse information is present.
  • Redundancy also has the advantage that by capturing an object from different angles, especially from first
  • the diverse and redundant data allow to achieve a higher accuracy of the 3D TOF data as well as a higher security level.
  • the ⁇ , ⁇ values are based on radiation geometry Contexts due to the used imaged optics.
  • Amplitude image based on radiometric relationships due to the used imaging optics of the 3D TOF camera 200.
  • the stereoscopic evaluation is not limited to the amplitude images of the two TOF cameras, but that the distance images of the two cameras can be stereoscopically evaluated.
  • the intensity images consist primarily of brightness values that are both
  • the 3D TOF cameras do not necessarily have to be arranged on a common axis, but may possibly also be perpendicular to one another, so that, for example, the

Landscapes

  • Physics & Mathematics (AREA)
  • Engineering & Computer Science (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Stereoscopic And Panoramic Photography (AREA)

Abstract

Kamerasystem mit mindestens zwei TOF-Empfängern und einer aktiven Beleuchtung, bei dem die beiden TOF-Empfänger zur Erzielung eines Stereoeffektes versetzt zueinander angeordnet sind.

Description

Beschreibung
KAMERASYSTEM
[0001] Die Erfindung betrifft ein Kamera System mit mindestens zwei
3D-TOF-Kameras und einer aktiven Beleuchtung sowie ein Verfahren zum Betreiben eines solchen Kamerasystems nach der Gattung der
unabhängigen Ansprüche
[0002] Aus dem Stand der Technik sind Systeme zur dreidimensionalen
Bilderfassung bekannt, welche mit Hilfe einer aktiven Beleuchtung arbeiten. Dazu gehören so genannten Time-of-flight- (TOF-) oder
Laufzeitmesssysteme. Diese verwenden eine amplitudenmodulierte oder gepulste Beleuchtung, zur Ausleuchtung der zu erfassenden
dreidimensionalen Szenerie.
[0003] Mit Kamerasystem soll insbesondere alle 3D-TOF-Kamerasysteme mit umfasst sein, die eine Laufzeitinformation aus der Phasenverschiebung einer emittierten und empfangenen Strahlung gewinnen. Als
3D-TOF-Kameras sind insbesondere PMD-Kameras mit
Photomischdetektoren (PMD) geeignet, wie sie u.a. in den Anmeldungen EP 1 777 747, US 6 587 186 und auch DE 197 04 496 beschrieben und beispielsweise von der Firma ,ifm electronic gmbh' als Frame-Grabber O3D zu beziehen sind. Die PMD-Kamera erlaubt insbesondere eine flexible Anordnung der Lichtquelle und des Detektors, die sowohl in einem Gehäuse als auch separat angeordnet werden können.
[0004] Aufgabe der Erfindung ist es, die Genauigkeit der erfassten Raumbilder zu verbessern.
[0005] Die Aufgabe wird in vorteilhafter Weise durch das erfindungsgemäße
Kamerasystem gelöst.
[0006] Erfindungsgemäß ist ein Kamerasystem mit mindestens zwei
3D-TOF-Kameras, insbesondere PMD-Kameras, und einer aktiven Beleuchtung vorgesehen, bei der die beiden 3D-TOF-Kameras, vorzugsweise zur Erzielung eines Stereoeffektes, versetzt zueinander angeordnet sind. Dieses Vorgehen hat den Vorteil, dass dreidimensionale Rauminformationen nicht nur redundant, nämlich durch Erfassung zweier Distanzbilder der beiden 3D-TOF-Kameras, sondern auch diversitär, durch Ausnutzung eines Stereoeffekts der beiden erfassten Amplitudenbilder, erfasst werden.
[0007] Dieser Vorteil schlägt sich auch im erfindungsgemäßen Verfahren nieder, bei dem Distanz- und Amplitudenbilder der ersten und zweiten
3D-TOF-Kamera erfasst und ausgewertet werden.
[0008] Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der in den
unabhängigen Ansprüchen angegebenen Erfindung möglich.
[0009] In einer weiteren vorteilhaften Ausführungsform ist es vorgesehen, jeder 3D-TOF-Kamera eine eigene aktive Beleuchtung zuzuweisen, wobei beide Beleuchtungen miteinander synchronisiert sind. Dieses Vorgehen ist insbesondere dann sinnvoll, wenn bereits vollständig konfektionierte Kamerasysteme in Kombination eingesetzt werden sollen.
[0010] Ferner sieht ein Verfahren zum Betreiben des Kamerasystems
zweckmäßigerweise vor, dass aus den Distanzbildern der ersten und zweiten 3D-TOF-Kamera ein erstes und zweites Raummodell und aus den stereoskopisch ausgewerteten Amplitudenbildern der beiden
3D-TOF-Kameras ein drittes Raummodell ermittelt wird.
[001 1] Die ermittelten Raummodelle ermöglichen es in vorteilhafter Weise, ein gemeinsames Raummodell zu erstellen bzw. zu vervollständigen.
[0012] Nachfolgend wird die Erfindung anhand von Ausführungsbeispielen unter Bezugnahme auf die Zeichnungen näher erläutert. Es zeigen:
[0013] Figur 1 schematisch ein PMD-Kamerasystem,
Figur 2 schematisch ein erfindungsgemäßes Kamerasystem,
Figur 3 schematisch eine erfindungsgemäße Erfassungssituation,
[0014] Figur 1 zeigt eine Messsituation für eine optische Entfernungsmessung mit einem TOF-Kamerasystem, wie es beispielsweise aus der DE 197 04 496 bekannt ist.
[0015] Das TOF-Kamerasystem umfasst hier eine Sendeeinheit bzw. eine aktive Beleuchtung 100 mit einer Lichtquelle 12 und einer dazugehörigen
Strahlformungsoptik 50 sowie eine Empfangseinheit bzw. 3D-TOF-Kamera 200 mit einer Empfangsoptik 150 und einem Photosensor 15. Der
Photosensor 15 ist vorzugsweise als Pixel-Array, insbesondere als PMD-Sensor, ausgebildet. Die Empfangsoptik besteht typischerweise zur Verbesserung der Abbildungseigenschaften aus mehreren optischen Elementen. Die Strahlformungsoptik 50 der Sendeeinheit 100 ist vorzugsweise als Reflektor ausgebildet. Es können jedoch auch diffraktive Elemente oder Kombinationen aus reflektierenden und diffraktiven Elementen eingesetzt werden.
[0016] Das Messprinzip dieser Anordnung basiert im Wesentlichen darauf, dass ausgehend von der Phasendifferenz des emittierten und empfangenen Lichts die Laufzeit des emittierten und reflektierten Lichts ermittelt werden kann. Zu diesem Zwecke werden die Lichtquelle und der Photosensor 15 über einen Modulator 18 gemeinsam mit einer bestimmten
Modulationsfrequenz mit einer ersten Phasenlage a beaufschlagt.
Entsprechend der Modulationsfrequenz sendet die Lichtquelle 12 ein amplitudenmoduliertes Signal mit der Phase a aus. Dieses Signal bzw. die elektromagnetische Strahlung wird im dargestellten Fall von einem Objekt 20 reflektiert und trifft aufgrund der zurückgelegten Wegstrecke
entsprechend phasenverschoben mit einer zweiten Phasenlage b auf den Photosensor 15. Im Photosensor 15 wird das Signal der ersten
Phasenlage a des Modulators 18 mit dem empfangenen Signal, das mittlerweile eine zweite Phasenlage b angenommen hat, gemischt und aus dem resultierenden Signal die Phasenverschiebung bzw. die
Objektentfernung ermittelt.
[0017] Figur 2 zeigt schematisch ein erfindungsgemäßes Kamerasystem mit einer gemeinsamen aktiven Beleuchtung 100 und einer ersten und zweiten 3 D-TO F- Kamera 200, 202, die versetzt bzw. beabstandet voneinander angeordnet sind. Dieses System kann vorzugsweise, wie mit der gestrichelten Umrandung angedeutet, in einem gemeinsamen
Gehäuse angeordnet sein. Je nach Anwendungsfall sind jedoch auch verschiedene Kombinationen denkbar. Beispielsweise könnte ein
Kamerasystem gemäß Fig. 1 mit einer zusätzlichen, in einem separaten Gehäuse befindlichen, 3D-TOF-Kamera kombiniert werden.
Selbstverständlich können auch alle Komponenten in separaten
Gehäusen individuell angeordnet werden. Die aktive Beleuchtung 100 und die 3D-TOF-Kameras 200, 202 sind mit dem Modulator 18 verbunden und sind somit mit gleicher Modulationsfrequenz und Phasenlage
beaufschlagt.
[0018] Figur 3 zeigt schematisch die unterschiedlichen Erfassungsbereiche der beiden 3D-TOF-Kameras 200, 202. In vereinfachter Darstellung sind die beiden 3D-TOF-Kameras 202, 200 direkt nebeneinander angeordnet, wobei die aktive Beleuchtung 100 direkt an diese Doppeleinheit angrenzt. Im dargestellten Beispiel liegen die beiden Erfassungsbereiche E1 , E2 der beiden 3D-TOF-Kameras 200, 202 innerhalb des durch die aktive
Beleuchtung 100 aufgespannten Beleuchtungsfeld B. Wie aus der Figur 3 zu ersehen ist, überlappen die beiden Erfassungsbereiche E1 , E2 im Wesentlichen im mittleren Bereich des Beleuchtungsfeldes B. Aufgrund der versetzten Anordnung der Beiden 3D-TOF-Kameras können nun die Amplitudenbilder im Überlappungsbereich stereoskopisch ausgewertet und dreidimensionale Rauminformationen gewonnen werden. In den nicht überlappenden Bereichen liegt zumindest von einer 3D-TOF-Kamera eine Raum- bzw. Distanzinformation vor.
[0019] Bei geeigneter Anordnung der beiden 3D-TOF-Kameras 200, 202 ist es jedoch ohne weiteres möglich, den Erfassungsbereich beider
3D-TOF-Kameras im Wesentlichen zur Deckung zu bringen, sodass eine maximal redundante bzw. diversitäre Information vorliegt.
[0020] Der Einsatz mindestens zweier 3D-TOF-Kameras hat zusätzlich zur
Redundanz auch den Vorteil, dass durch die Erfassung eines Objekts aus verschiedenen Blickwinkeln, insbesondere auch aus zunächst
abgeschatteten Bereichen, erfasst werden können. Des Weiteren erlauben die diversitären und redundanten Daten, eine höhere Genauigkeit der 3D-TOF-Daten sowie ein höheres Sicherheitsniveau zu erreichen.
[0021] Durch den Einsatz von mindestens zwei 3D-TOF-Kameras können
folgende Kamerainformationen zur Bestimmung der 3D-TOF-Positionen herangezogen werden:
[0022] Χ,Υ,Ζ-Daten von der ersten 3D-TOF-Kamera 200 ausgehend vom
Distanzbild, wobei der Z-Wert bzw. Distanzwert jedes Pixels auf einer TOF-Messung basiert. Die Χ,Υ-Werte basieren auf strahlengeometrischen Zusammenhängen aufgrund der verwendeten abbildeten Optik.
[0023] Χ,Υ,Ζ-Werte von der zweiten 3D-TOF-Kamera 202 in entsprechender Weise.
[0024] Χ,Υ-Werte von der ersten 3D-TOF-Kamera 200 ausgehend von dem
Amplitudenbild basierend auf strahlengeometrischen Zusammenhängen aufgrund der verwendeten abbildenden Optik der 3D-TOF-Kamera 200.
[0025] Χ,Υ-Werte von der zweiten 3D-TOF-Kamera 202 ausgehend von den
Amplitudenbildern in entsprechender Weise.
[0026] Z-Wert aus der stereoskopischen Auswertung der Χ,Υ-Werte der beiden 3D-TOF-Kameras.
[0027] Es sei bemerkt, dass die stereoskopische Auswertung nicht nur auf die Amplitudenbilder der beiden TOF-Kameras beschränkt ist, sondern dass auch die Distanzbilder der beiden Kameras stereoskopisch ausgewertet werden können.
[0028] In einer weiteren Ausgestaltung kann es vorgesehen sein, auch die
Intensitätsbilder der beiden Kameras heranzuziehen. Die Intensitätsbilder bestehen hierbei vornehmlich aus Helligkeitswerte, die sowohl aus
Anteilen des Umgebungslichts als auch aus Anteilen der aktiven
Beleuchtung bestehen. Durch diese zusätzliche Auswertung kann die Genauigkeit und die Sicherheit des Gesamtsystems weiter verbessert werden.
[0029] Weiterhin ist es denkbar, mehr als zwei 3D-TOF-Kameras einzusetzen.
Ein solches Vorgehen ist insbesondere dann von Vorteil, wenn sehr komplexe Objekte mit Hinterschneidungen oder Abschattungen zu erfassen sind. Die 3D-TOF-Kameras müssen hier nicht zwingend auf einer gemeinsamen Achse angeordnet sein, sondern können gegebenenfalls auch senkrecht zueinander stehen, sodass beispielsweise die
Z-Dimension der einen Kamera durch die X-Dimension der anderen Kamera erfasst wird. Der erfindungsgemäße Einsatz mehrerer
3D-TOF-Kameras erlaubt es weit über die Möglichkeiten einer
herkömmlichen Stereokamera, basierend auf ausschließlich
Amplitudenbildern, hinaus zu gehen.

Claims

Ansprüche
1. Kamerasystem mit mindestens zwei 3D-TOF-Kameras (200, 202),
insbesondere PM D-Kameras, und einer aktiven Beleuchtung (100),
dadurch gekennzeichnet,
dass die beiden 3D-TOF-Kameras (200, 202), vorzugsweise zur Erzielung eines Stereoeffektes, versetzt zueinander angeordnet sind.
2. Kamerasystem nach Anspruch 1 , bei dem jede 3 D-TO F- Kamera (200, 202), eine eigene aktive Beleuchtung (100) aufweist und beide Beleuchtungen (100) miteinander synchronisiert sind.
3. Verfahren für ein Kamerasystem nach einem der vorhergehenden Ansprüche, bei dem Distanz- und Amplitudenbilder der ersten und zweiten
3D-TOF-Kameras (200, 202), erfasst und ausgewertet werden.
4. Verfahren nach Anspruch 3, bei dem aus den Distanzbildern der ersten und zweiten 3D-TOF-Kamera (200, 202) ein erstes und zweites Raummodel und aus den stereoskopisch ausgewerteten Amplitudenbilder der beiden
3D-TOF-Kameras (200, 202) ein drittes Raummodel ermittelt wird.
5. Verfahren nach Anspruch 4, bei dem alle Raummodelle zur Vervollständigung eines gemeinsamen Raummodels herangezogen werden.
PCT/EP2010/066166 2009-10-28 2010-10-26 Kamerasystem WO2011051286A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE102009046108.6 2009-10-28
DE102009046108.6A DE102009046108B4 (de) 2009-10-28 2009-10-28 Kamerasystem

Publications (1)

Publication Number Publication Date
WO2011051286A1 true WO2011051286A1 (de) 2011-05-05

Family

ID=43088256

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/EP2010/066166 WO2011051286A1 (de) 2009-10-28 2010-10-26 Kamerasystem

Country Status (2)

Country Link
DE (1) DE102009046108B4 (de)
WO (1) WO2011051286A1 (de)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9720089B2 (en) 2012-01-23 2017-08-01 Microsoft Technology Licensing, Llc 3D zoom imager
DE102013007859B3 (de) * 2013-05-08 2014-09-25 Audi Ag Time-of-Flight-System mit räumlich voneinander getrennten Sendeeinrichtungen und Verfahren zur Abstandsmessung von einem Objekt
DE102013007886B3 (de) * 2013-05-08 2014-09-25 Audi Ag Time-of-Flight-System mit räumlich voneinander getrennten Time-of-Flight-Empfangseinrichtungen und Verfahren zur Abstandsmessung von einem Objekt
DE102014107799A1 (de) * 2014-06-03 2015-12-03 Sick Ag 3D-Kamera nach dem Stereoskopieprinzip und Verfahren zur Erfassung von dreidimensionalen Bilddaten
DE102016109173A1 (de) * 2015-11-19 2017-05-24 Aesculap Ag Medizintechnische Koordinatenmessvorrichtung und medizintechnisches Koordinatenmessverfahren
DE102016113000A1 (de) 2016-07-14 2018-01-18 Aesculap Ag Endoskopische Vorrichtung und Verfahren zur endoskopischen Untersuchung
JP6404985B1 (ja) 2017-04-07 2018-10-17 ファナック株式会社 距離画像の異常を検出する撮像装置
DE102017107903A1 (de) * 2017-04-12 2018-10-18 Sick Ag 3D-Lichtlaufzeitkamera und Verfahren zur Erfassung dreidimensionaler Bilddaten
DE102017210489A1 (de) * 2017-06-22 2018-12-27 Continental Automotive Gmbh Fahrerassistenzsystem zur Validierung von Messdaten

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496A1 (de) 1996-09-05 1998-03-12 Rudolf Prof Dr Ing Schwarte Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle
US20010048519A1 (en) * 2000-06-06 2001-12-06 Canesta, Inc, CMOS-Compatible three-dimensional image sensing using reduced peak energy
WO2002025805A2 (de) * 2000-09-22 2002-03-28 Siemens Aktiengesellschaft Photoelektronische mischschaltung
WO2007036553A1 (de) * 2005-09-30 2007-04-05 Siemens Aktiengesellschaft Vorrichtung und verfahren zur aufnahme von entfernungsbildern
EP1777747A1 (de) 2005-10-19 2007-04-25 CSEM Centre Suisse d'Electronique et de Microtechnique SA Einrichtung und Verfahren zur Demodulation von modulierten elektromagnetischen Wellenfeldern
EP1950583A1 (de) * 2007-01-29 2008-07-30 Robert Bosch Gmbh Nachtsichtsystem, insbesondere für ein Fahrzeug, und Verfahren zum Erstellen eines Nachtsichtbildes
DE202008007078U1 (de) * 2008-05-26 2008-09-04 Signalbau Huber Gmbh Videodetektion mit PMD-Sensorik

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008006449A1 (de) 2008-01-29 2009-07-30 Kaba Gallenschütz GmbH Verfahren und Vorrichtung zur Überwachung eines Raumvolumens

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE19704496A1 (de) 1996-09-05 1998-03-12 Rudolf Prof Dr Ing Schwarte Verfahren und Vorrichtung zur Bestimmung der Phasen- und/oder Amplitudeninformation einer elektromagnetischen Welle
US20010048519A1 (en) * 2000-06-06 2001-12-06 Canesta, Inc, CMOS-Compatible three-dimensional image sensing using reduced peak energy
US6587186B2 (en) 2000-06-06 2003-07-01 Canesta, Inc. CMOS-compatible three-dimensional image sensing using reduced peak energy
WO2002025805A2 (de) * 2000-09-22 2002-03-28 Siemens Aktiengesellschaft Photoelektronische mischschaltung
WO2007036553A1 (de) * 2005-09-30 2007-04-05 Siemens Aktiengesellschaft Vorrichtung und verfahren zur aufnahme von entfernungsbildern
EP1777747A1 (de) 2005-10-19 2007-04-25 CSEM Centre Suisse d'Electronique et de Microtechnique SA Einrichtung und Verfahren zur Demodulation von modulierten elektromagnetischen Wellenfeldern
EP1950583A1 (de) * 2007-01-29 2008-07-30 Robert Bosch Gmbh Nachtsichtsystem, insbesondere für ein Fahrzeug, und Verfahren zum Erstellen eines Nachtsichtbildes
DE202008007078U1 (de) * 2008-05-26 2008-09-04 Signalbau Huber Gmbh Videodetektion mit PMD-Sensorik

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
YOUNG MIN KIM ET AL: "Multi-view image and ToF sensor fusion for dense 3D reconstruction", 2009 IEEE 12TH INTERNATIONAL CONFERENCE ON COMPUTER VISION WORKSHOPS, ICCV WORKSHOPS : KYOTO, JAPAN, 27 SEPTEMBER - 4 OCTOBER 2009, INSTITUTE OF ELECTRICAL AND ELECTRONICS ENGINEERS, PISCATAWAY, NJ, 27 September 2009 (2009-09-27), pages 1542 - 1549, XP031664460, ISBN: 978-1-4244-4442-7 *

Also Published As

Publication number Publication date
DE102009046108A1 (de) 2011-05-05
DE102009046108B4 (de) 2022-06-09

Similar Documents

Publication Publication Date Title
WO2011051286A1 (de) Kamerasystem
EP1933167B1 (de) Optoelektronischer Sensor sowie Verfahren zur Erfassung und Abstandsbestimmung eines Objekts
DE102013111547B4 (de) Sensor mit um Drehachse beweglicher Abtasteinheit
DE102010003409B4 (de) Lichtlaufzeit-Kamera
EP2202994B1 (de) 3D-Kamera zur Raumüberwachung
EP2019281B1 (de) Verfahren zum Betrieb eines 3D-Sensors
DE102009045600A1 (de) Kamerasystem
DE102013007886B3 (de) Time-of-Flight-System mit räumlich voneinander getrennten Time-of-Flight-Empfangseinrichtungen und Verfahren zur Abstandsmessung von einem Objekt
DE102008016766B4 (de) Sicherheitskamera und Verfahren zur Detektion von Objekten
WO2009132761A1 (de) Entfernungsmesssystem
DE102010043723A1 (de) Lichtlaufzeitkamerasystem
DE202013104715U1 (de) Sensor mit um Drehachse beweglicher Abtasteinheit
DE102013007859B3 (de) Time-of-Flight-System mit räumlich voneinander getrennten Sendeeinrichtungen und Verfahren zur Abstandsmessung von einem Objekt
DE102010036852C5 (de) Stereokamera
DE102011017707A1 (de) Verfahren und Vorrichtung zur Erkennung von einem Objekt in einer Umgebung einer Kamera
DE102009045553B4 (de) Lichtlaufzeit-Messsystem
EP2270424B1 (de) Optoelektronischer Sensor und Verfahren zur Überwachung
DE102014204423B4 (de) Lichtlaufzeitkamerasystem
DE102010055865A1 (de) Kameravorrichtung für einen Kraftwagen
WO2019110206A1 (de) Lidar-system zur umfelderfassung und verfahren zum betreiben eines lidar-systems
DE102011007464A1 (de) Verfahren und Vorrichtung zur Visualisierung einer Szene
DE102010003411A1 (de) Lichtlaufzeit-Kamera
DE102016219518A1 (de) Lichtlaufzeitkamerasystem
DE102009045558A1 (de) Kamerasystem
EP3126866B1 (de) Erfassungseinrichtung, insbesondere zur nutzung in einem kraftfahrzeug und kraftfahrzeug

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 10773042

Country of ref document: EP

Kind code of ref document: A1

122 Ep: pct application non-entry in european phase

Ref document number: 10773042

Country of ref document: EP

Kind code of ref document: A1