DE112020004813T5 - Systeme und verfahren zur erweiterung von sensorsystemen und bildgebungssystemen mit polarisation - Google Patents

Systeme und verfahren zur erweiterung von sensorsystemen und bildgebungssystemen mit polarisation Download PDF

Info

Publication number
DE112020004813T5
DE112020004813T5 DE112020004813.6T DE112020004813T DE112020004813T5 DE 112020004813 T5 DE112020004813 T5 DE 112020004813T5 DE 112020004813 T DE112020004813 T DE 112020004813T DE 112020004813 T5 DE112020004813 T5 DE 112020004813T5
Authority
DE
Germany
Prior art keywords
polarization
camera
images
raw
sensor system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
DE112020004813.6T
Other languages
English (en)
Other versions
DE112020004813B4 (de
Inventor
Achuta Kadambi
Ramesh Raskar
Kartik Venkataraman
Supreeth Krishna RAO
Agastya KALRA
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
INTRINSIC INNOVATION LLC, MOUNTAIN VIEW, US
Original Assignee
Boston Polarimetrics Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Boston Polarimetrics Inc filed Critical Boston Polarimetrics Inc
Publication of DE112020004813T5 publication Critical patent/DE112020004813T5/de
Application granted granted Critical
Publication of DE112020004813B4 publication Critical patent/DE112020004813B4/de
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/48Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00
    • G01S7/499Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S17/00 using polarisation effects
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/02Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness
    • G01B11/06Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material
    • G01B11/0616Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material of coating
    • G01B11/0641Measuring arrangements characterised by the use of optical techniques for measuring length, width or thickness for measuring thickness ; e.g. of sheet material of coating with measurement of polarization
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • G01B11/25Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object
    • G01B11/2545Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures by projecting a pattern, e.g. one or more lines, moiré fringes on the object with one projection direction and several detection directions, e.g. stereo
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/89Radar or analogous systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/87Combinations of systems using electromagnetic waves other than radio waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B5/00Optical elements other than lenses
    • G02B5/30Polarising elements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/243Image signal generators using stereoscopic image cameras using three or more 2D image sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/254Image signal generators using stereoscopic image cameras in combination with electromagnetic radiation sources for illuminating objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/257Colour aspects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Geometry (AREA)
  • Software Systems (AREA)
  • Optics & Photonics (AREA)
  • Computer Graphics (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Studio Devices (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
  • Details Of Cameras Including Film Mechanisms (AREA)
  • Ink Jet (AREA)
  • Image Analysis (AREA)

Abstract

Das multimodale Sensorsystem umfasst: ein zugrundeliegendes Sensorsystem; ein Polarisationskamerasystem, das konfiguriert ist, um Polarisationsrohbilder zu erfassen, die einer Vielzahl von unterschiedlichen Polarisationszuständen entsprechen; und ein Verarbeitungssystem, das einen Prozessor und einen Speicher umfasst, wobei das Verarbeitungssystem konfiguriert ist, um das zugrundeliegende Sensorsystem und das Polarisationskamerasystem zu steuern, wobei der Speicher Anweisungen speichert, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen: das zugrundeliegende Sensorsystem zu steuern, um ein Erfassen an einer Szene durchzuführen, und das Polarisationskamerasystem zu steuern, um eine Vielzahl von Polarisationsrohbildern der Szene zu erfassen; erste Tensoren in Polarisationsdarstellungsräumen basierend auf der Vielzahl von Polarisationsrohbildern zu extrahieren; und eine Charakterisierungsausgabe basierend auf einer Ausgabe des zugrundeliegenden Sensorsystems und den ersten Tensoren in Polarisationsdarstellungsräumen zu berechnen.

Description

  • QUERVERWEIS AUF VERWANDTE ANMELDUNG(EN)
  • Diese Anmeldung beansprucht die Priorität und die Vorteile der vorläufigen US-Patentanmeldung Nr. 62/911,952 , die am 7. Oktober, 2019 beim US-Patent- und Markenamt eingereicht wurde, der vorläufigen US-Patentanmeldung Nr. 62/942,113 , die am 30. November, 2019 beim US-Patent- und Markenamt eingereicht wurde, und der vorläufigen US-Patentanmeldung Nr. 63/001,445 , die am 29. März 2020 beim US-Patent- und Markenamt eingereicht wurde, deren gesamte Offenbarungen durch Bezugnahme hierin aufgenommen sind.
  • GEBIET
  • Aspekte von Ausführungsformen der vorliegenden Offenbarung beziehen sich auf das Gebiet der Sensorsysteme, einschließlich der mit Polarisation erweiterten Sensorsysteme.
  • HINTERGRUND
  • Sensorsysteme und bildgebende Systeme wie Radar, Lidar, Kameras (z. B. sichtbares Licht und/oder Infrarot) und dergleichen erfassen Objekte und Merkmale in der Umgebung durch die Wechselwirkung von elektromagnetischer Strahlung mit der Umgebung. Beispielsweise erfassen Kamerasysteme und Lidarsysteme Licht, das von Objekten in einer Szene oder in der Umgebung reflektiert wird. Ebenso senden Radarsysteme elektromagnetische Wellen mit niedrigeren Frequenzen (z. B. Radio- oder Mikrowellenfrequenzen) aus und bestimmen die Eigenschaften der Objekte basierend auf den Reflektionen dieser Signale. Andere Sensorsysteme können andere Formen von Strahlung verwenden, z. B. Druckwellen oder Schallwellen im Falle der Ultraschallbildgebung.
  • ZUSAMMENFASSUNG
  • Aspekte von Ausführungsformen der vorliegenden Offenbarung beziehen sich auf Systeme und Verfahren zur Erweiterung von Sensorsystemen und Bildgebungssystemen unter Verwendung von Polarisation. Gemäß einigen Aspekten von Ausführungsformen der vorliegenden Offenbarung werden Sensoren, die konfiguriert sind, um die Polarisation von empfangener elektromagnetischer Strahlung zu erfassen, verwendet, um die Leistung oder das Verhalten anderer Bildgebungsmodalitäten zu erweitern, wie z. B. Kameras, die konfiguriert sind, um die Intensität von Licht ohne Berücksichtigung der Polarisation des Lichts zu erfassen. In einigen Aspekten von Ausführungsformen der vorliegenden Offenbarung werden Sensoren, die konfiguriert sind, um die Polarisation der empfangenen elektromagnetischen Strahlung zu erfassen, verwendet, um Bilder zu erzeugen, die andernfalls mit vergleichbaren Bildgebungssystemen wie Digitalkameras erzeugt werden würden. Einige Aspekte der Ausführungsformen der vorliegenden Offenbarung beziehen sich auf Kamerasysteme, die konfiguriert sind, um die Polarisation von Licht zu erfassen.
  • Gemäß einer Ausführungsform der vorliegenden Offenbarung umfasst ein multimodales Sensorsystem: ein zugrundeliegendes Sensorsystem; ein Polarisationskamerasystem, das konfiguriert ist, um Polarisationsrohbilder aufzunehmen, die einer Vielzahl verschiedener Polarisationszustände entsprechen; und ein Verarbeitungssystem, das einen Prozessor und einen Speicher umfasst, wobei das Verarbeitungssystem konfiguriert ist, um das zugrundeliegende Sensorsystem und das Polarisationskamerasystem zu steuern, wobei der Speicher Anweisungen speichert, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor dazu veranlassen: das zugrundeliegende Sensorsystem zu steuern, um ein Erfassen an einer Szene durchzuführen, und das Polarisationskamerasystem zu steuern, um eine Vielzahl von Polarisationsrohbildern der Szene aufzunehmen; erste Tensoren in Polarisationsdarstellungsräumen basierend auf der Vielzahl von Polarisationsrohbildern zu extrahieren; und eine Charakterisierungsausgabe basierend auf einer Ausgabe des zugrundeliegenden Sensorsystems und den ersten Tensoren in Polarisationsdarstellungsräumen zu berechnen.
  • Das Polarisationskamerasystem kann ein Polarisationskameramodul enthalten, das umfasst: eine erste Polarisationskamera, die einen ersten Polarisationsfilter an einer ersten Polarisationsausrichtung umfasst, wobei die erste Polarisationskamera eine erste optische Achse aufweist; eine zweite Polarisationskamera, die einen zweiten Polarisationsfilter an einer zweiten Polarisationsausrichtung umfasst, wobei die zweite Polarisationskamera eine zweite optische Achse aufweist, die im Wesentlichen parallel zu der ersten optischen Achse ist; und eine dritte Polarisationskamera, die einen dritten Polarisationsfilter an einer dritten Polarisationsausrichtung umfasst, wobei die dritte Polarisationskamera eine dritte optische Achse aufweist, die im Wesentlichen parallel zu der ersten optischen Achse ist.
  • Das Polarisationskameramodul kann ferner eine vierte Polarisationskamera mit einem vierten Polarisationsfilter an einer vierten Polarisationsausrichtung umfassen, wobei die vierte Polarisationskamera eine vierte optische Achse aufweist, die im Wesentlichen parallel zu der ersten optischen Achse ist.
  • Die ersten Tensoren können einen linearen Polarisationsgrad (DOLP) und einen linearen Polarisationswinkel (AOLP) umfassen, und der Speicher kann ferner Anweisungen speichern, die, wenn sie vom Prozessor ausgeführt werden, den Prozessor dazu veranlassen, den DOLP und den AOLP basierend auf Polarisationsrohbildern zu berechnen, die von der ersten Polarisationskamera, der zweiten Polarisationskamera und der dritten Polarisationskamera aufgenommen wurden, wobei die Anweisungen Anweisungen umfassen, um: einen geschätzten DOLP und einen geschätzten AOLP basierend auf Stokes-Vektoren zu initialisieren; eine Szenengeometrie basierend auf Parallaxenverschiebungen in den Polarisationsrohbildern zu schätzen, um ein Grobmodell zu erzeugen; und iterativ: das Grobmodell basierend auf dem geschätzten DOLP und dem geschätzten AOLP zu verfeinern, um eine geschätzte Geometrie zu erzeugen; und den geschätzten DOLP und den geschätzten AOLP basierend auf der geschätzten Geometrie zu aktualisieren, bis eine Änderung des geschätzten DOLP und eine Änderung des geschätzten AOLP beide kleiner als entsprechende Schwellenwerte sind.
  • Das Polarisationskamerasystem kann ein Stereo-Polarisationskamerasystem enthalten, das umfasst: ein erstes Polarisationskameramodul mit einer ersten optischen Achse, wobei das erste Polarisationskameramodul konfiguriert ist, um eine erste Vielzahl von Polarisationsrohbildern aufzunehmen, die einer ersten Vielzahl von verschiedenen Polarisationszuständen entsprechen; und ein zweites Polarisationskameramodul mit einer zweiten optischen Achse, das von dem ersten Polarisationskameramodul entlang einer Grundlinie beabstandet ist, wobei das zweite Polarisationskameramodul konfiguriert ist, um eine zweite Vielzahl von Polarisationsrohbildern aufzunehmen, die einer zweiten Vielzahl von verschiedenen Polarisationszuständen entsprechen, wobei die erste optische Achse im Wesentlichen parallel zu der zweiten optischen Achse ist.
  • Das erste Polarisationskameramodul kann eine erste Vielzahl von Farbfiltern umfassen, die konfiguriert sind, um Licht in drei oder mehr verschiedenen ersten Farbspektren zu transmittieren, und das zweite Polarisationskameramodul kann eine zweite Vielzahl von Farbfiltern umfassen, die konfiguriert sind, um Licht in drei oder mehr verschiedenen zweiten Farbspektren zu transmittieren, wobei die drei oder mehr zweiten Farbspektren von den drei oder mehr ersten Farbspektren verschieden sein können.
  • Der Speicher kann ferner Anweisungen speichern, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor dazu veranlassen: das Stereo-PolarisationsKamerasystem zu steuern, um multispektrale Stereo-Polarisations-Bilddaten in den ersten Farbspektren und in den zweiten Farbspektren aufzunehmen; und erste Tensoren in Polarisationsdarstellungsräumen aus den multispektralen Stereo-Polarisations-Bilddaten zu extrahieren.
  • Das zugrundeliegende Sensorsystem kann ein aktives Abtastsystem mit einem aktiven Emitter und einem Detektor umfassen. Das aktive Abtastsystem kann ein Radarsystem umfassen. Das aktive Abtastsystem kann ein Lidar-System umfassen. Das aktive Abtastsystem kann ein aktives Stereo-Tiefenkamerasystem enthalten.
  • Das multimodale Sensorsystem kann an einem Fahrzeug montiert werden.
  • Der Speicher kann ferner Anweisungen speichern, die, wenn sie von dem Prozessor des Verarbeitungssystems ausgeführt werden, den Prozessor veranlassen: eine spärliche Punktwolke basierend auf der Ausgabe des zugrundeliegenden Sensorsystems zu berechnen; Oberflächennormalen aus den Polarisationsrohbildern zu berechnen; eine 3-D-Oberfläche basierend auf den Oberflächennormalen zu berechnen; und die 3-D-Oberfläche basierend auf der spärlichen Punktwolke zu korrigieren, um ein 3-D-Modell der Szene zu berechnen.
  • Der Speicher kann ferner Anweisungen speichern, die, wenn sie von dem Prozessor des Verarbeitungssystems ausgeführt werden, den Prozessor veranlassen: eine Segmentierungskarte basierend auf den ersten Tensoren in den Polarisationsdarstellungsräumen zu berechnen, wobei die Segmentierungskarte eine oder mehrere Regionen von Interesse in der Szene identifiziert; den aktiven Emitter zu steuern, um Strahlen in Richtung der einen oder mehreren Regionen von Interesse zu emittieren; und eine Reflexion der von dem aktiven Emitter emittierten Strahlen unter Verwendung des Detektors des aktiven Abtastsystems zu erfassen.
  • Der Speicher kann ferner Anweisungen speichern, die den Prozessor veranlassen, ein neuronales gefaltetes Netz zu implementieren, das trainiert wurde, um eine Segmentierungskarte basierend auf den ersten Tensoren zu berechnen.
  • Das zugrunde liegende Sensorsystem kann ein Farbkamerasystem umfassen.
  • Das Farbkamerasystem kann eine digitale einäugige Spiegelreflexkamera oder eine Videokamera sein.
  • Die Ausgabe der Farbkamera des zugrundeliegenden Sensorsystems kann ein Farbbild enthalten, und der Speicher kann ferner Anweisungen speichern, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen: eine Vielzahl von Oberflächennormalen der Szene basierend auf den ersten Tensoren zu berechnen; und die berechneten Oberflächennormalen der Szene in einer gleichen Datei wie das von der Farbkamera erfasste Farbbild zu speichern.
  • Gemäß einer Ausführungsform der vorliegenden Offenbarung umfasst ein Polarisationskamerasystem: eine Polarisationskamera, die konfiguriert ist, um Polarisationsrohbilder einer Szene zu erfassen, wobei die Polarisationsrohbilder einer Vielzahl von verschiedenen Polarisationszuständen entsprechen; und ein Verarbeitungssystem mit einem Prozessor und einem Speicher, wobei das Verarbeitungssystem konfiguriert ist, um die Polarisationskamera zu steuern, wobei der Speicher Anweisungen speichert, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen: die Polarisationskamera zu steuern, um eine Vielzahl von Polarisationsrohbildern zu erfassen; und ein Bild mit hohem Dynamikbereich (HDR) basierend auf den Polarisationsrohbildern zu synthetisieren.
  • Jedes der Polarisationsrohbilder kann basierend auf einem gleichen Satz von Belichtungseinstellungen erfasst werden, mindestens eines der Polarisationsrohbilder kann gesättigte Pixel in einem Teil des Polarisationsrohbildes aufgrund von spiegelnder Reflexion von einer Oberfläche in der Szene enthalten, wobei der Speicher weiterhin Anweisungen speichern kann, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen, das HDR-Bild ohne gesättigte Pixel in einem Bereich des HDR-Bildes, der dem Bereich des Polarisationsrohbildes entspricht, basierend auf Daten von entsprechenden Bereichen anderer der Polarisationsrohbilder zu synthetisieren.
  • Figurenliste
  • Die beigefügten Zeichnungen veranschaulichen zusammen mit der Beschreibung beispielhafte Ausführungsformen der vorliegenden Erfindung und dienen zusammen mit der Beschreibung zur Erläuterung der Prinzipien der vorliegenden Erfindung.
    • 1A ist ein schematisches Blockdiagramm eines Bildgebungssystems, das mit einem Polarisationskamerasystem gemäß Ausführungsformen der vorliegenden Offenbarung erweitert ist.
    • 1B ist ein schematisches Blockdiagramm eines Systems mit einer Polarisationskamera gemäß einer Ausführungsform der vorliegenden Erfindung.
    • 1C ist eine perspektivische Ansicht eines Polarisationskameramoduls gemäß einer Ausführungsform der vorliegenden Offenbarung.
    • 1D ist eine Querschnittsansicht eines Teils eines Polarisationskameramoduls gemäß einer Ausführungsform der vorliegenden Offenbarung.
    • 1E ist eine perspektivische Ansicht eines Stereo-Polarisationskamerasystems gemäß einer Ausführungsform der vorliegenden Offenbarung.
    • 2A, 2B, 2C und 2D stellen den Hintergrund zur Veranschaulichung der Segmentierungskarten bereit, die durch einen vergleichenden Ansatz und semantische Segmentierung oder Instanzsegmentierung basierend auf Polarisationsrohbildern gemäß Aspekten von Ausführungsformen der vorliegenden Offenbarung berechnet wurden.
    • 3 ist eine übersichtliche Darstellung der Interaktion von Licht mit transparenten und nicht transparenten (z. B. diffusen und/oder reflektierenden) Objekten.
    • 4 ist ein Flussdiagramm eines Verfahrens zum Schätzen von Polarisationsmerkmalen bei Parallaxenmehrdeutigkeit gemäß einer Ausführungsform der vorliegenden Offenbarung.
    • 5A ist eine perspektivische Ansicht eines multispektralen Stereo-Polarisationskamerasystems gemäß einer Ausführungsform der vorliegenden Offenbarung.
    • 5B ist eine Ansicht eines multispektralen Stereo-Polarisationskamerasystems gemäß einer Ausführungsform der vorliegenden Offenbarung entlang einer Richtung parallel zur optischen Achse des multispektralen Stereo-Polarisationskamerasystems.
    • 5C zeigt geschnittene Seitenansichten von beispielhaften einzelnen Polarisationskameras eines multispektralen Stereo-Polarisationskamerasystems gemäß einer Ausführungsform der vorliegenden Offenbarung.
    • 6A ist ein Blockdiagramm der Verarbeitungsschaltung 100 zum Berechnen von Oberflächencharakterisierungsausgaben basierend auf Polarisationsdaten gemäß einer Ausführungsform der vorliegenden Erfindung.
    • 6B ist ein Flussdiagramm eines Verfahrens 600 zum Durchführen einer Oberflächencharakterisierung basierend auf Eingangsbildern zum Berechnen einer Oberflächencharakterisierungsausgabe gemäß einer Ausführungsform der vorliegenden Erfindung.
    • 7A ist ein Blockdiagramm eines Merkmalsextraktors 700 gemäß einer Ausführungsform der vorliegenden Erfindung.
    • 7B ist ein Flussdiagramm, das ein Verfahren gemäß einer Ausführungsform der vorliegenden Erfindung zur Extraktion von Merkmalen aus Polarisationsrohbildern darstellt.
    • 8A ist eine Illustration einer griechischen Büstenstatue, die von einer beispielhaften Implementierung der in dieser Erfindung vorgeschlagenen Bildgebungseinrichtung gescannt wird.
    • 8B ist ein Flussdiagramm eines Verfahrens zur 3D-Oberflächenrekonstruktion mittels Polarisation gemäß einer Ausführungsform der vorliegenden Offenbarung.
    • 9A ist eine Illustration einer flachen Oberfläche mit dem Brechungsindex n, die von einer beispielhaften Implementierung der Bildgebungseinrichtung gemäß einer Ausführungsform der vorliegenden Erfindung abgetastet wird.
    • 9B ist ein Flussdiagramm eines Verfahrens zur 3D-Oberflächenrekonstruktion von flachen oder geometrisch einfachen Oberflächen unter Verwendung von Polarisation gemäß einer Ausführungsform der vorliegenden Offenbarung.
    • 10A ist ein schematisches Diagramm eines Systems, in dem ein aktives Abtastsystem mit einem Polarisationskamerasystem gemäß einer Ausführungsform der vorliegenden Offenbarung erweitert ist.
    • 10B ist ein Flussdiagramm, das ein Verfahren zum Verschmelzen des von einem aktiven 3D-Scansystem erfassten 3D-Modells mit den von einer Polarisationskamera erfassten Oberflächennormalen gemäß einer Ausführungsform der vorliegenden Offenbarung darstellt.
    • 10C ist ein Flussdiagramm zur Veranschaulichung eines Verfahrens zum Erweitern eines aktiven Erfassungssystems unter Verwendung von Polarisation gemäß einer Ausführungsform der vorliegenden Offenbarung.
    • 11 ist ein Flussdiagramm, das ein Verfahren zum Synthetisieren eines HDR (High Dynamic Range)-Bildes aus Polarisationsrohbildern darstellt.
  • DETAILLIERTE BESCHREIBUNG
  • In der folgenden detaillierten Beschreibung werden nur bestimmte beispielhafte Ausführungsformen der vorliegenden Erfindung zur Veranschaulichung gezeigt und beschrieben. Wie die Fachleute auf dem Gebiet erkennen, kann die Erfindung in vielen verschiedenen Formen ausgeführt werden und sollte nicht als auf die hier dargelegten Ausführungsformen beschränkt ausgelegt werden.
  • Optisch schwierige Objekte, wie z. B. transparente Objekte, kommen in vielen realen Anwendungen von computerbasierten Seh- oder maschinellen Sehsystemen vor, einschließlich der Automatisierung und Analyse für die Fertigungs-, Biowissenschafts- und Automobilbranche. In der Fertigung können computerbasierte Sehsysteme beispielsweise eingesetzt werden, um das Sortieren, Auswählen und Platzieren von Teilen, die Überprüfung der Platzierung von Komponenten während der Fertigung sowie die Endkontrolle und Fehlererkennung zu automatisieren. In den Biowissenschaften können computerbasierte Sehsysteme beispielsweise eingesetzt werden, um die Messung von Reagenzien, die Vorbereitung von Proben, das Ablesen von Messgeräten, die Charakterisierung von Proben sowie die Entnahme und Platzierung von Probenbehältern zu automatisieren. Weitere Beispiele aus der Automobilindustrie umfassen das Erkennen transparenter Objekte in Straßenszenen zum Unterstützen von Fahrern oder zum Betrieb selbstfahrender Fahrzeuge. Weitere Beispiele sind Hilfstechnologien wie selbstfahrende Rollstühle, die in der Lage sind, Glastüren und andere transparente Barrieren zu erkennen, und Geräte zur Unterstützung von Menschen mit Sehbehinderung, die in der Lage sind, transparente Trinkgläser zu erkennen und zwischen echten Objekten und ausgedruckten Fälschungen zu unterscheiden.
  • Im Gegensatz zu undurchsichtigen Objekten haben transparente Objekte keine eigene Textur (z. B. Oberflächenfarbinformationen, wie der Begriff in der Computergrafik verwendet wird, z. B. beim „Texture Mapping“). Infolgedessen können Vergleichssysteme transparente Objekte in Szenen, die mit Standard-Bildgebungssystemen aufgenommen wurden (z. B. Kameras, die monochrome Intensitätsbilder oder Farbintensitätsbilder wie Rot-, Grün- und Blaubilder oder RGB-Bilder aufnehmen), im Allgemeinen nicht korrekt identifizieren. Dies kann darauf zurückzuführen sein, dass die transparenten Objekte keine einheitliche Textur (z. B. Oberflächenfarbe) aufweisen, an der sich die Algorithmen orientieren oder deren Erkennung sie erlernen können (z. B. während des Trainingsprozesses eines maschinellen Lernalgorithmus). Ähnliche Probleme können bei teilweise transparenten oder durchscheinenden Objekten sowie bei einigen Arten von reflektierenden Objekten (z. B. glänzendes Metall) und sehr dunklen Objekten (z. B. mattschwarze Objekte) auftreten.
  • Dementsprechend beziehen sich Aspekte der Ausführungsformen der vorliegenden Offenbarung auf die Verwendung der Polarisationsbildgebung, um zusätzliche Informationen für erweiterte Sensorsysteme bereitzustellen, um transparente Objekte und andere optisch anspruchsvolle Objekte und Merkmale in Szenen zu erkennen. Darüber hinaus gelten Aspekte der Ausführungsformen der vorliegenden Offenbarung auch für die Erkennung anderer optisch schwieriger Objekte wie transparente, durchscheinende und reflektierende Objekte sowie dunkle Objekte.
  • Wie hier verwendet, bezieht sich der Begriff „optisch anspruchsvoll“ auf Objekte aus Materialien, die eine oder mehrere der folgenden vier Eigenschaften in einem ausreichenden Schwellenwert oder Grad erfüllen: nicht lambertianisch (z. B. nicht matt); durchscheinend; mehrweginduzierend; und/oder nicht reflektierend. Unter bestimmten Umständen kann ein Objekt, das nur eines der vier Merkmale aufweist, optisch schwer zu erkennen sein. Zusätzlich können Objekte oder Materialien mehrere Merkmale gleichzeitig aufweisen. Ein lichtdurchlässiges Objekt kann beispielsweise eine Oberflächenreflexion und eine Hintergrundreflexion aufweisen, so dass es sowohl wegen der Lichtdurchlässigkeit als auch wegen des Mehrwegeffekts eine Herausforderung darstellt. Unter bestimmten Umständen kann ein Objekt eines oder mehrere der vier oben genannten Merkmale aufweisen, aber dennoch optisch nicht schwierig zu erkennen sein, weil diese Bedingungen nicht in einem Ausmaß auftreten, das für ein vergleichendes computerbasiertes Sehsystem ein Problem darstellen würde. Ein Objekt kann zum Beispiel durchscheinend sein, aber dennoch genügend Oberflächenstruktur aufweisen, um erkannt und von anderen Objekten in einer Szene unterschieden werden zu können. Als weiteres Beispiel muss eine Oberfläche ausreichend nicht-lambertianisch sein, um andere Bildverarbeitungssysteme vor Probleme zu stellen. In einigen Ausführungsformen wird der Grad oder das Ausmaß, in dem ein Objekt optisch anspruchsvoll ist, anhand der Halbwertsbreite (FWHM) der Spiegelkeule der bidirektionalen Reflexionsverteilungsfunktion (BRDF) des Objekts bestimmt. Liegt diese FWHM unter einem Schwellenwert, gilt das Material als optisch anspruchsvoll.
  • 1A ist ein schematisches Blockdiagramm eines Bildgebungssystems, das mit einem Polarisationskamerasystem gemäß den Ausführungsformen der vorliegenden Offenbarung erweitert ist. 1B ist ein schematisches Blockdiagramm eines Systems mit einer Polarisationskamera gemäß einer Ausführungsform der vorliegenden Erfindung. In der in 1A und 1B gezeigten Anordnung enthält eine Szene 1 transparente Objekte 2 (z. B. eine Kugel wie eine Glasmurmel, einen Zylinder wie ein Trinkglas oder einen Becher und eine Ebene wie eine Scheibe aus transparentem Acryl), die vor undurchsichtigen matten Objekten 3 (z. B. einem Baseball und einem Tennisball) angeordnet sind. Eine Polarisationskamera 10 hat ein Objektiv 12 mit einem Sichtfeld, wobei das Objektiv 12 und die Kamera 10 so ausgerichtet sind, dass das Sichtfeld die Szene 1 umfasst. Das Objektiv 12 ist konfiguriert, um Licht (z. B. fokussiertes Licht) von der Szene 1 auf ein lichtempfindliches Medium wie einen Bildsensor 14 (z. B. einen CMOS-Bildsensor (Complementary Metal Oxide Semiconductor) oder einen CCD-Bildsensor (Charge-Coupled Device)) zu richten. Wie in 1A gezeigt, kann die Polarisationskamera 10 verwendet werden, um die Sensordaten zu ergänzen, die von einem anderen Bildgebungssystem 11 erfasst werden.
  • Die Polarisationskamera 10 umfasst ferner einen Polarisator oder einen Polarisationsfilter oder eine Polarisationsmaske 16, die im optischen Pfad zwischen der Szene 1 und dem Bildsensor 14 angeordnet ist. Gemäß verschiedenen Ausführungsformen der vorliegenden Offenbarung ist der Polarisator oder die Polarisationsmaske 16 konfiguriert, um die Polarisationskamera 10 zu befähigen, Bilder der Szene 1 zu erfassen, wobei der Polarisator in verschiedenen spezifizierten Winkeln eingestellt ist (z. B. bei 45°-Drehungen oder bei 60°-Drehungen oder bei ungleichmäßig beabstandeten Drehungen).
  • Als ein Beispiel zeigt 1B eine Ausführungsform, bei der die Polarisationsmaske 16 ein Polarisationsmosaik ist, das mit dem Pixelraster des Bildsensors 14 in einer Weise ausgerichtet ist, die einem Rot-Grün-Blau (RGB)-Farbfilter (z. B. einem Bayer-Filter) einer Farbkamera ähnelt. Ähnlich wie ein Farbfilter-Mosaik filtert eintreffendes Licht basierend auf der Wellenlänge, so dass jedes Pixel im Bildsensor 14 Licht in einem bestimmten Bereich des Spektrums (z. B., Rot, Grün oder Blau) entsprechend dem Muster der Farbfilter des Mosaiks empfängt, filtert eine Polarisationsmaske 16, die ein Polarisationsmosaik verwendet, Licht basierend auf der linearen Polarisation, so dass verschiedene Pixel Licht in verschiedenen Winkeln der linearen Polarisation empfangen (z. B. bei 0°, 45°, 90° und 135° oder bei 0°, 60° und 120°). Dementsprechend kann die Polarisationskamera 10 mit einer Polarisationsmaske 16, wie sie in 1B dargestellt ist, gleichzeitig Licht mit vier verschiedenen linearen Polarisationen erfassen. Ein Beispiel für eine Polarisationskamera ist die Blackfly® S Polarisationskamera der Firma FLIR® Systems, Inc. aus Wilsonville, Oregon.
  • Während sich die obige Beschreibung auf einige mögliche Implementierungen einer Polarisationskamera mit einem Polarisationsmosaik bezieht, sind Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt und umfassen andere Arten von Polarisationskameras, die in der Lage sind, Bilder mit mehreren verschiedenen Polarisationen zu erfassen. Beispielsweise kann die Polarisationsmaske 16 weniger als vier Polarisationen oder mehr als vier verschiedene Polarisationen aufweisen, oder sie kann Polarisationen in anderen Winkeln als den oben genannten aufweisen (z. B. in Polarisationswinkeln von: 0°, 60° und 120° oder bei Polarisationswinkeln von 0°, 30°, 60°, 90°, 120° und 150°). Als weiteres Beispiel kann die Polarisationsmaske 16 unter Verwendung einer elektronisch gesteuerten Polarisationsmaske, wie z. B. einem elektrooptischen Modulator (der z. B. eine Flüssigkristallschicht enthalten kann), implementiert werden, wobei die Polarisationswinkel der einzelnen Pixel der Maske unabhängig voneinander gesteuert werden können, so dass verschiedene Teile des Bildsensors 14 Licht mit unterschiedlichen Polarisationen empfangen. Als weiteres Beispiel kann der elektrooptische Modulator konfiguriert sein, um Licht verschiedener linearer Polarisationen zu transmittieren, wenn verschiedene Bilder aufgenommen werden, z. B. so dass die Kamera Bilder aufnimmt, bei denen die Gesamtheit der Polarisationsmaske nacheinander auf verschiedene lineare Polarisationswinkel eingestellt ist (z. B. nacheinander eingestellt auf: 0 Grad; 45 Grad; 90 Grad; oder 135 Grad). Als weiteres Beispiel kann die Polarisationsmaske 16 einen Polarisationsfilter enthalten, der sich mechanisch dreht, so dass unterschiedliche Polarisationsrohbilder von der Polarisationskamera 10 erfasst werden, wenn der Polarisationsfilter mechanisch in Bezug auf das Objektiv 12 gedreht wird, um Licht mit unterschiedlichen Polarisationswinkeln zum Bildsensor 14 zu transmittieren. Während sich die obigen Beispiele auf die Verwendung eines linearen Polarisationsfilters beziehen, sind Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt und umfassen auch die Verwendung von Polarisationskameras, die zirkulare Polarisationsfilter enthalten (z. B. lineare Polarisationsfilter mit einer Viertelwellenplatte). Dementsprechend verwendet eine Polarisationskamera in verschiedenen Ausführungsformen der vorliegenden Offenbarung einen Polarisationsfilter, um mehrere Polarisationsrohbilder bei verschiedenen Polarisationen des Lichts zu erfassen, wie z. B. verschiedene lineare Polarisationswinkel und verschiedene zirkulare Polarisationen (z. B. die Händigkeit).
  • Folglich erfasst die Polarisationskamera 10 mehrere Eingangsbilder 18 (oder Polarisationsrohbilder) der Szene einschließlich der zu prüfenden Oberfläche 2 des zu prüfenden Objekts 1. In einigen Ausführungsformen entspricht jedes der Polarisationsrohbilder 18 einem Bild, das hinter einem Polarisationsfilter oder Polarisator unter einem anderen Polarisationswinkel ϕpol (z. B. 0 Grad, 45 Grad, 90 Grad oder 135 Grad) aufgenommen wurde. Jedes der Polarisations-Rohbilder 18 wird im Wesentlichen aus der gleichen Position in Bezug auf die Szene 1 aufgenommen (z. B. werden die Bilder, die mit dem Polarisationsfilter bei 0 Grad, 45 Grad, 90 Grad oder 135 Grad aufgenommen werden, alle von derselben Polarisationskamera 10 aufgenommen, die sich am gleichen Ort und in der gleichen Ausrichtung befindet), im Gegensatz zur Aufnahme der Polarisationsrohbilder von unterschiedlichen Orten und Ausrichtungen in Bezug auf die Szene. Die Polarisationskamera 10 kann konfiguriert sein, um Licht in einer Vielzahl verschiedener Bereiche des elektromagnetischen Spektrums zu erfassen, wie beispielsweise den für den Menschen sichtbaren Bereich des elektromagnetischen Spektrums, rote, grüne und blaue Bereiche des für den Menschen sichtbaren Spektrums sowie unsichtbare Bereiche des elektromagnetischen Spektrums wie Infrarot und Ultraviolett.
  • In einigen Ausführungsformen der vorliegenden Offenbarung, wie z. B. in einigen der oben beschriebenen Ausführungsformen, werden die verschiedenen Polarisationsrohbilder von derselben Polarisationskamera 10 erfasst und können daher von im Wesentlichen derselben Position (z. B. Position und Ausrichtung) in Bezug auf die Szene 1 erfasst werden. Die Ausführungsformen der vorliegenden Offenbarung sind jedoch nicht darauf beschränkt. Beispielsweise kann sich eine Polarisationskamera 10 in Bezug auf die Szene 1 zwischen verschiedenen Polarisationsrohbildern bewegen (z. B. wenn verschiedene Polarisationsrohbilder, die verschiedenen Polarisationswinkeln entsprechen, zu verschiedenen Zeiten aufgenommen werden, wie im Fall eines mechanisch rotierenden Polarisationsfilters), entweder weil sich die Polarisationskamera 10 bewegt hat oder weil sich die Objekte 3 bewegt haben (z. B. wenn sich das Objekt auf einem sich bewegenden Fördersystem befindet). In einigen Ausführungsformen nehmen verschiedene Polarisationskameras Bilder des Objekts zu verschiedenen Zeitpunkten auf, jedoch aus im Wesentlichen derselben Position in Bezug auf das Objekt (z. B. verschiedene Kameras, die Bilder derselben Oberfläche des Objekts an verschiedenen Punkten des Fördersystems aufnehmen). Dementsprechend werden in einigen Ausführungsformen der vorliegenden Offenbarung verschiedene Polarisationsrohbilder mit der Polarisationskamera 10 in verschiedenen Posen oder der gleichen relativen Pose in Bezug auf die Objekte 2 und 3, die in der Szene 1 abgebildet werden, aufgenommen.
  • Die Polarisationsrohbilder 18 werden einer Verarbeitungsschaltung 100 zugeführt, die im Folgenden näher beschrieben wird und die eine Verarbeitungsausgabe 20 basierend auf den Polarisationsrohbildern 18 berechnet. In der in 1B gezeigten Ausführungsform ist die Verarbeitungsausgabe 20 eine Instanzsegmentierungskarte, die Instanzen verschiedener Objekte 2 und 3 identifiziert, die in der Szene 1 vorhanden sind, aber Ausführungsformen der vorliegenden Offenbarung sind darauf nicht beschränkt. Spezifische Beispiele für Verarbeitungsausgaben 20, die basierend auf Polarisationsrohbildern berechnet werden, werden im Folgenden ausführlicher beschrieben. In der in 1A dargestellten Ausführungsform ist die Verarbeitungsschaltung 100 konfiguriert, um sowohl die Polarisationskamera 10 als auch das zusätzliche Bildgebungssystem 11 zu steuern.
  • 1C ist eine perspektivische Ansicht eines Polarisationskameramoduls gemäß einer Ausführungsform der vorliegenden Offenbarung. 1D ist eine Querschnittsansicht eines Teils eines Polarisationskameramoduls gemäß einer Ausführungsform der vorliegenden Offenbarung. Einige Aspekte der Ausführungsformen der vorliegenden Offenbarung beziehen sich auf ein Polarisationskameramodul, bei dem mehrere Polarisationskameras (z. B. mehrere Kameras, bei denen jede Kamera einen Polarisationsfilter in ihrem optischen Pfad hat) nebeneinander und in einem Array angeordnet sind und gesteuert werden können, um Bilder in einer Gruppe aufzunehmen (z. B. kann ein einziger Auslöser verwendet werden, um alle Kameras in dem System zu steuern, um Bilder gleichzeitig oder im Wesentlichen gleichzeitig aufzunehmen). Die Polarisationsfilter in den optischen Pfaden der einzelnen Kameras im Array bewirken, dass unterschiedlich polarisiertes Licht die Bildsensoren der Kameras erreicht. Die einzelnen Polarisationskameras im Kamerasystem haben optische Achsen, die im Wesentlichen senkrecht zueinander stehen, nebeneinander angeordnet sind und im Wesentlichen das gleiche Sichtfeld haben, so dass die Kameras im Kamerasystem im Wesentlichen die gleiche Ansicht einer Szene 1 erfassen, jedoch mit unterschiedlichen Polarisationen. In einigen Ausführungsformen sind die einzelnen Polarisationskameras so angeordnet, dass die Parallaxenverschiebung zwischen den Kameras im Wesentlichen vernachlässigbar ist, basierend auf dem geplanten Betriebsabstand des Kamerasystems zu Objekten in der Szene, wobei größere Abstände zwischen den Kameras toleriert werden können, wenn der geplante Betriebsabstand groß ist. In einigen Ausführungsformen der vorliegenden Offenbarung umfasst das Polarisationskameramodul mindestens drei Polarisationskameras, von denen jede einen Polarisationsfilter mit einem anderen Polarisationszustand aufweist (z. B. jeweils mit einem anderen Winkel der linearen Polarisation, wie 0°, 60° und 120°).
  • In der in 1C gezeigten Ausführungsform des Polarisationskameramoduls 10' sind beispielsweise vier Kameras 10A', 10B', 10C' und 10D' in einem 2×2-Raster angeordnet, um ein Kamera-Array zu bilden, wobei die vier Kameras im Wesentlichen parallele optische Achsen haben. Die vier Kameras können gemeinsam gesteuert werden, so dass sie Bilder im Wesentlichen gleichzeitig und mit den gleichen Belichtungseinstellungen aufnehmen (z. B. gleiche Blende, Belichtungsdauer und Verstärkung oder „ISO“-Einstellungen). In verschiedenen Ausführungsformen der vorliegenden Offenbarung enthält jede der separaten Kameras 10A', 10B', 10C' und 10D' einen anderen Polarisationsfilter.
  • 1D zeigt eine Querschnittsansicht von zwei der in 1C gezeigten Polarisationskameras 10A' und 10B'. Wie in 1D zu sehen ist, umfasst jedes Polarisationskamerasystem (10A' und 10B') ein entsprechendes Objektiv, einen entsprechenden Bildsensor und einen entsprechenden Polarisationsfilter. Insbesondere umfasst die Polarisationskamera 10A' das Objektiv 12A', den Bildsensor 14A' und den Polarisationsfilter 16A'. Ebenso umfasst die Polarisationskamera 10B' das Objektiv 12B', den Bildsensor 14B' und den Polarisationsfilter 16B'. In einigen Ausführungsformen der vorliegenden Offenbarung sind die Bildsensoren der vier Kameras 10A', 10B', 10C' und 10D' monolithisch auf demselben Halbleiterchip ausgebildet, und die vier Kameras befinden sich in einem gemeinsamen Gehäuse mit separaten Öffnungen für die den verschiedenen Bildsensoren entsprechenden Objektive 12. In ähnlicher Weise können die Polarisationsfilter 16 verschiedenen Teilen einer einzigen physikalischen Schicht entsprechen, die verschiedene Polarisationsfilter (z. B. verschiedene lineare Polarisationswinkel) in verschiedenen Bereichen der Schicht (entsprechend den verschiedenen Kameras) aufweist.
  • In einigen Ausführungsformen der vorliegenden Offenbarung hat jede der Kameras in dem Kamerasystem 10' einen entsprechenden Polarisationsfilter, der so konfiguriert ist, dass er unterschiedlich polarisiertes Licht filtert. Zum Beispiel in der Ausführungsform, die in 1C und 1D dargestellt ist, kann der Polarisationsfilter 16A' der Kamera 10A' ein linearer Polarisationsfilter sein, der in einem Winkel von 0° ausgerichtet ist, der Polarisationsfilter 16B' der Kamera 10B' kann ein linearer Polarisationsfilter sein, der in einem Winkel von 45° ausgerichtet ist, Polarisationsfilter 16C' der Kamera 10C' kann ein linearer Polarisationsfilter sein, der in einem Winkel von 90° ausgerichtet ist, und der Polarisationsfilter 16D' der Kamera 10D' kann ein linearer Polarisationsfilter sein, der in einem Winkel von 135° ausgerichtet ist. In einigen Ausführungsformen können eine oder mehrere der Kameras einen Zirkularpolarisator umfassen. In einigen Ausführungsformen der vorliegenden Offenbarung umfasst das Kamerasystem 10' Polarisationsfilter, die so konfiguriert sind, dass sie Licht in mindestens zwei verschiedenen Polarisationen filtern. In einigen Ausführungsformen der vorliegenden Offenbarung umfasst das Kamerasystem 10' Polarisationsfilter, die konfiguriert sind, um Licht in mindestens drei verschiedenen Polarisationen zu filtern. In der in 1D gezeigten Ausführungsform befindet sich der Polarisationsfilter 16 hinter dem Objektiv 12 (z. B. zwischen dem Objektiv 12 und dem Bildsensor 14), doch sind die Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt. In einigen Ausführungsformen befindet sich der Polarisationsfilter vor dem Objektiv 12.
  • In einigen Ausführungsformen werden die verschiedenen Einzelkameras des Kamera-Arrays miteinander abgeglichen, indem ihre relativen Posen (oder relativen Positionen und Ausrichtungen) durch die Aufnahme mehrerer Bilder eines Kalibrierungsziels, wie z. B. eines Schachbrettmusters, eines ArUco-Targets, (siehe z. B. Garrido-Jurado, Sergio, et al. „Automatic generation and detection of highly reliable fiducial markers under occlusion.“ Pattern Recognition 47.6 (2014): 2280-2292.) oder eines ChArUco-Targets (siehe z. B., An, Gwon Hwan, et al. „Charuco board-based omnidirectional camera calibration method.“ Electronics 7.12 (2018): 421.) bestimmt werden. Insbesondere kann der Prozess der Kalibrierung der Ziele die Berechnung von intrinsischen Matrizen umfassen, die die internen Parameter jeder Kamera charakterisieren (z. B. Matrizen, die die Brennweite, das Bildsensorformat und den Hauptpunkt der Kamera charakterisieren), sowie von extrinsischen Matrizen, die die Lage jeder Kamera in Bezug auf die Weltkoordinaten charakterisieren (z. B. Matrizen zur Durchführung von Transformationen zwischen dem Kamerakoordinatenraum und dem Welt- oder Szenenkoordinatenraum).
  • Obwohl in 1D nicht dargestellt, kann in einigen Ausführungsformen der vorliegenden Offenbarung jede Polarisationskamera auch einen Farbfilter mit einem Mosaikmuster, wie z. B. einen Bayer-Filter, umfassen, so dass einzelne Pixel der Bildsensoren 14 Licht empfangen, das z. B. roten (R), grünen (G) und blauen (B) Bereichen des Spektrums entspricht, so dass jede Kamera Licht in einem sichtbaren Bereich des elektromagnetischen Spektrums in Übereinstimmung mit einem Mosaikmuster erfasst. In einigen Ausführungsformen wird ein Demosaikierungsprozess verwendet, um separate rote, grüne und blaue Kanäle aus den Rohdaten zu berechnen. In einigen Ausführungsformen der vorliegenden Offenbarung kann jede Polarisationskamera ohne Farbfilter oder mit Filtern verwendet werden, die verschiedene andere Bereiche des elektromagnetischen Spektrums, wie z. B. Infrarotlicht, transmittieren oder selektiv transmittieren.
  • 1E ist eine perspektivische Ansicht eines Stereo-Polarisationskamerasystems gemäß einer Ausführungsform der vorliegenden Offenbarung. In einigen Anwendungen werden Stereo-Vision-Techniken verwendet, um mehrere Bilder einer Szene aus verschiedenen Perspektiven zu erfassen. Wie oben erwähnt, werden in einigen Ausführungsformen der vorliegenden Offenbarung einzelne Polarisationskameras innerhalb eines Kamerasystems so nebeneinander angeordnet, dass Parallaxenverschiebungen zwischen den Kameras aufgrund des vorgesehenen Betriebsabstands des Kamerasystems zu den abzubildenden Objekten im Wesentlichen vernachlässigbar sind. Bei Stereo-Polarisationskamerasystemen sind einige der einzelnen Polarisationskameras so voneinander beabstandet, dass Parallaxenverschiebungen signifikant sind und für Objekte innerhalb des vorgesehenen Betriebsabstands des Kamerasystems erkannt werden können. Dies ermöglicht es, die Entfernungen zu verschiedenen Oberflächen in einer Szene (die „Tiefe“) in Abhängigkeit von der Größe einer Parallaxenverschiebung zu ermitteln (z. B. zeigen größere Parallaxenverschiebungen in den Positionen entsprechender Bereiche der Bilder an, dass sich diese entsprechenden Teile auf Oberflächen befinden, die näher am Kamerasystem liegen, und kleinere Parallaxenverschiebungen zeigen an, dass sich die entsprechenden Teile auf Oberflächen befinden, die weiter vom Kamerasystem entfernt sind). Diese Techniken zur Berechnung der Tiefe auf der Grundlage von Parallaxenverschiebungen werden manchmal als Tiefe aus Stereo bezeichnet
  • Dementsprechend zeigt 1E ein Stereo-Polarisationskamerasystem 10" mit einem ersten Polarisationskameramodul 10-1" und einem zweiten Polarisationskameramodul 10-2", die im Wesentlichen parallele optische Achsen haben und entlang einer Grundlinie 10-B beabstandet sind. In der in 1E gezeigten Ausführungsform ist das erste Polarisationskameramodul 10-1" und umfasst die Polarisationskameras 10A", 10B", 10C" und 10D", die in einer 2×2-Anordnung ähnlich der in 1C und 1D gezeigten angeordnet sind. Ebenso ist das zweite Polarisationskameramodul 10-2" und umfasst die Polarisationskameras 10E", 10F", 10G" und 10H" in einem 2×2-Array angeordnet, und das gesamte Stereo-Polarisationskameramodul 10" umfasst acht einzelne Polarisationskameras (z. B., acht separate Bildsensoren hinter acht separaten Objektiven). In einigen Ausführungsformen der vorliegenden Offenbarung sind die entsprechenden Polarisationskameras der Polarisationskameramodule 10-1" und 10-2" konfiguriert, um Polarisationsrohbilder mit im Wesentlichen denselben Polarisationen zu erfassen. Zum Beispiel können die Kameras 10A" und 10E" beide lineare Polarisationsfilter mit dem gleichen Winkel von 0° haben, die Kameras 10B" und 10F" können beide lineare Polarisationsfilter mit dem gleichen Winkel von 45° haben, die Kameras 10C" und 10G" können beide lineare Polarisationsfilter mit einem gleichen Winkel von 90° haben, und die Kameras 10D" und 10H" können beide lineare Polarisationsfilter mit einem gleichen Winkel von 135° haben.
  • Ausführungsformen der vorliegenden Offenbarung sind nicht auf die in 1E gezeigte besondere Ausführungsform beschränkt. In einigen Ausführungsformen umfasst ein Stereo-Polarisationskamerasystem drei oder mehr Polarisationskameramodule, wobei jedes Polarisationskameramodul mehrere Polarisationskameras umfasst, die in einem Array angeordnet und unter Verwendung von Polarisationsfiltern so konfiguriert sind, dass sie Polarisationsrohbilder unterschiedlicher Polarisationen erfassen. Wie oben erwähnt, können in einigen Ausführungsformen der vorliegenden Offenbarung eine oder mehrere der einzelnen Polarisationskameras eines Polarisationskameramoduls einen Farbfilter enthalten, und als solche können eine oder mehrere der Polarisationskameras in einem Stereo-Polarisationskameramodul auch einen Farbfilter enthalten.
  • Ähnlich wie bei der Kalibrierung oder Registrierung von Kameras innerhalb eines Kameramoduls können die verschiedenen Polarisationskameramodule eines Stereo-Polarisationskamerasystems auch miteinander abgeglichen werden, indem mehrere Bilder von Kalibrierungszielen aufgenommen werden und intrinsische und extrinsische Matrizen für die verschiedenen Kameramodule berechnet werden.
  • Während die in 1E gezeigte Ausführungsform eines Stereo-Polarisationskamerasystems zwei Polarisationskameramodule mit jeweils vier Polarisationskameras umfasst, sind die Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt.
  • Beispielsweise umfasst in einigen Ausführungsformen der vorliegenden Offenbarung ein Stereo-Polarisationskamerasystem eine Vielzahl von Polarisationskameramodulen, wobei jedes der Polarisationskameramodule drei oder mehr einzelne Polarisationskameras umfasst, wobei jede der einzelnen Polarisationskameras eines Polarisationskameramoduls Polarisationsfilter mit unterschiedlichen Polarisationszuständen (z. B. unterschiedliche Winkel der linearen Polarisation) aufweist.
  • In einigen Ausführungsformen der vorliegenden Offenbarung umfasst ein Stereo-Polarisationskamerasystem eine Vielzahl von Polarisationskameramodulen, die entlang einer oder mehrerer Grundlinien voneinander beabstandet sind, wobei jedes der Polarisationskameramodule eine einzelne Polarisationskamera umfasst, die konfiguriert ist, um Polarisationsrohbilder mit unterschiedlichen Polarisationen zu erfassen, in Übereinstimmung mit Ausführungsformen wie der oben in Bezug auf 1B beschriebenen. In einigen Ausführungsformen der vorliegenden Offenbarung kann die Polarisationskamera jedes Moduls beispielsweise eine Polarisationsmaske enthalten (z. B. ähnlich der in 1B gezeigten Polarisationsmaske), so dass jede einzelne Polarisationskamera Bilder erfasst, bei denen die Pixel Licht gemäß einem Mosaikmuster verschiedener Polarisationsfilter (z. B. Polarisationsfilter mit unterschiedlichen Winkeln) erfassen. In der in 1B dargestellten Ausführungsform enthält beispielsweise jeder 2×2-Block von Pixeln der Polarisationsmaske lineare Polarisatoren mit linearen Polarisationswinkeln von 0°, 45°, 90° und 135°. In anderen Ausführungsformen der vorliegenden Offenbarung können die einzelnen Polarisationskameras mechanisch oder elektronisch steuerbare Polarisationsfilter enthalten, wie oben in Bezug auf 1B beschrieben, damit die Polarisationskameras Polarisationsrohbilder verschiedener Polarisationen erfassen können.
  • Während die obigen Ausführungsformen spezifizieren, dass die einzelnen Polarisationskameramodule oder die Polarisationskameras, die entlang einer oder mehrerer Grundlinien in dem Stereo-Polarisationskamerasystem voneinander beabstandet sind, im Wesentlichen parallele optische Achsen haben, sind die Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt. Beispielsweise sind in einigen Ausführungsformen der vorliegenden Offenbarung die optischen Achsen der Polarisationskameramodule zueinander abgewinkelt, so dass die Polarisationskameramodule unterschiedlich abgewinkelte Ansichten von Objekten im vorgesehenen Arbeitsabstand liefern (z. B. dort, wo sich die optischen Achsen in der Nähe des vorgesehenen Arbeitsabstands vom Stereokamerasystem kreuzen oder schneiden).
  • Gemäß verschiedenen Ausführungsformen der vorliegenden Offenbarung wird die Verarbeitungsschaltung 100 unter Verwendung einer oder mehrerer elektronischer Schaltungen implementiert, die konfiguriert sind, um verschiedene Operationen durchzuführen, wie nachstehend ausführlicher beschrieben. Zu den Arten von elektronischen Schaltungen können eine Zentraleinheit (CPU), eine Grafikverarbeitungseinheit (GPU), ein Beschleuniger für künstliche Intelligenz (KI) (z. B. ein Vektorprozessor, der vektorarithmetische Logikeinheiten enthalten kann, die so konfiguriert sind, dass sie Operationen, die in neuronalen Netzen üblich sind, wie z. B. Punktprodukte und Softmax, effizient durchführen), ein Field Programmable Gate Array (FPGA), eine anwendungsspezifische integrierte Schaltung (ASIC), ein digitaler Signalprozessor (DSP) oder Ähnliches gehören. Beispielsweise sind unter bestimmten Umständen Aspekte von Ausführungsformen der vorliegenden Offenbarung in Programmanweisungen implementiert, die in einem nichtflüchtigen, computerlesbaren Speicher gespeichert sind, der bei Ausführung durch die elektronische Schaltung (z. B. eine CPU, eine GPU, einen KI-Beschleuniger oder Kombinationen davon) die hierin beschriebenen Operationen durchführt, um eine Verarbeitungsausgabe 20, wie z. B. eine Instanzsegmentierungskarte, aus eingegebenen Polarisationsrohbildern 18 zu berechnen. Die von der Verarbeitungsschaltung 100 durchgeführten Operationen können von einer einzelnen elektronischen Schaltung (z. B. einer einzelnen CPU, einer einzelnen GPU o. Ä.) durchgeführt werden oder auf mehrere elektronische Schaltungen (z. B. mehrere GPUs oder eine CPU in Verbindung mit einer GPU) verteilt werden. Die mehreren elektronischen Schaltungen können lokal zueinander sein (z. B. auf demselben Chip, in demselben Gehäuse oder in demselben eingebetteten Gerät oder Computersystem) und/oder können voneinander entfernt sein (z. B. in Kommunikation über ein Netzwerk wie ein lokales persönliches Netzwerk wie Bluetooth®, über ein lokales Netzwerk wie ein lokales drahtgebundenes und/oder drahtloses Netzwerk und/oder über ein Weitverkehrsnetzwerk wie das Internet, z. B. in einem Fall, in dem einige Operationen lokal und andere Operationen auf einem von einem Cloud-Computing-Dienst gehosteten Server durchgeführt werden). Eine oder mehrere elektronische Schaltungen, die die Verarbeitungsschaltung 100 implementieren, können hier als Computer oder Computersystem bezeichnet werden, das einen Speicher enthalten kann, in dem Anweisungen gespeichert sind, die, wenn sie von der einen oder den mehreren elektronischen Schaltungen ausgeführt werden, die hier beschriebenen Systeme und Verfahren implementieren.
  • 2A, 2B, 2C und 2D stellen den Hintergrund zur Veranschaulichung der Segmentierungskarten bereit, die durch einen vergleichenden Ansatz und semantische Segmentierung oder Instanzsegmentierung basierend auf Polarisationsrohbildern gemäß den Aspekten der Ausführungsformen der vorliegenden Offenbarung berechnet werden.
  • 2A ist ein Bild oder ein Intensitätsbild einer Szene mit einer echten transparenten Kugel, die auf einem Fotoausdruck platziert ist, der eine andere Szene mit zwei transparenten Kugeln („Spoofs“) und einigem Hintergrundrauschen zeigt. 2B zeigt eine Segmentierungsmaske, die von einem Maskenregionen-basierten faltenden neuronalen Netz (Mask R-CNN) berechnet wurde, das Instanzen von transparenten Kugeln identifiziert, die über das Intensitätsbild von 2A gelegt wurden, wobei verschiedene Linienmuster verwendet werden, wobei die echte transparente Kugel korrekt als Instanz identifiziert wird und die beiden Spoofs fälschlicherweise als Instanzen identifiziert werden. Mit anderen Worten, der Masken-R-CNN-Algorithmus wurde dazu verleitet, die beiden gefälschten transparenten Kugeln als Instanzen der tatsächlichen transparenten Kugeln in der Szene zu identifizieren.
  • 2C ist ein lineares Polarisationswinkelbild (AOLP), das aus Polarisationsrohbildern berechnet wurde, die gemäß einer Ausführungsform der vorliegenden Erfindung von der Szene aufgenommen wurden. Wie in 2C gezeigt, haben transparente Objekte eine sehr einzigartige Textur im Polarisationsraum wie der AOLP-Domäne, wo es eine geometrieabhängige Signatur an Kanten und ein ausgeprägtes oder einzigartiges oder besonderes Muster gibt, das auf den Oberflächen transparenter Objekte im Winkel der linearen Polarisation entsteht. Mit anderen Worten: Die intrinsische Textur des transparenten Objekts (z. B. im Gegensatz zur extrinsischen Textur, die von den durch das transparente Objekt sichtbaren Hintergrundflächen übernommen wird) ist im Polarisationswinkelbild von 2C besser sichtbar als im Intensitätsbild von 2A.
  • 2D zeigt das Intensitätsbild von 2A mit einer überlagerten Segmentierungsmaske, wie sie unter Verwendung von Polarisationsdaten gemäß einer Ausführungsform der vorliegenden Erfindung berechnet wird, wobei der echte transparente Ball korrekt als Instanz unter Verwendung eines überlagerten Linienmusters identifiziert wird und die beiden Spoofs korrekt als Instanzen ausgeschlossen werden (z. B. enthält 2D im Gegensatz zu 2B keine überlagerten Linienmuster über den beiden Spoofs). Während 2A, 2B, 2C und 2D ein Beispiel für die Erkennung eines echten transparenten Objekts bei Vorhandensein von gefälschten transparenten Objekten zeigen, sind Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt und können auch auf andere optisch schwierige Objekte angewandt werden, wie z. B. transparente, lichtdurchlässige und nicht matte oder nicht lambertianische Objekte sowie nicht reflektierende (z. B. matte schwarze Objekte) und mehrweginduzierende Objekte.
  • Dementsprechend beziehen sich einige Aspekte der Ausführungsformen der vorliegenden Offenbarung auf das Extrahieren von Tensoren im Darstellungsraum (oder ersten Tensoren in ersten Darstellungsräumen, wie z. B. Polarisationsmerkmalskarten) aus den Polarisationsrohbildern, die als Eingabe für Oberflächencharakterisierungsalgorithmen oder andere computerbasierte Seh-Algorithmen bereitgestellt werden. Diese ersten Tensoren im ersten Darstellungsraum können Polarisationsmerkmalskarten enthalten, die Informationen bezüglich der Polarisation des von der Szene empfangenen Lichts kodieren, wie das in 2C gezeigte AOLP-Bild, DOLP-Merkmalskarten (Grad der linearen Polarisation) und dergleichen (z. B. andere Kombinationen aus Stokes-Vektoren oder Transformationen einzelner Polarisationsrohbilder). In einigen Ausführungsformen der vorliegenden Offenbarung berechnet der Merkmalsextraktor 700 beispielsweise weiterhin Oberflächennormalen gemäß den Gleichungen (2), (3), (4) und (5), die weiter unten ausführlicher erörtert werden, basierend auf den Polarisationsrohbildern. In einigen Ausführungsformen werden diese Polarisationsmerkmalskarten zusammen mit Nicht-Polarisationsmerkmalskarten (z. B. Intensitätsbilder wie das in 2A gezeigte Bild) verwendet, um zusätzliche Informationskanäle für die Verwendung durch semantische Segmentierungsalgorithmen bereitzustellen.
  • Während Ausführungsformen der vorliegenden Erfindung nicht auf die Verwendung mit bestimmten computerbasierten Seh-Algorithmen für die Analyse von Bildern beschränkt sind, beziehen sich einige Aspekte der Ausführungsformen der vorliegenden Erfindung auf Deep-Learning-Frameworks für die polarisationsbasierte Erkennung von optisch anspruchsvollen Objekten (z. B. transparente, transluzente, nicht-lambertsche, mehrweginduzierende Objekte und nicht-reflektierende oder sehr dunkle Objekte), wobei diese Frameworks als polarisierte faltende neuronale Netze (polarisierte CNNs) bezeichnet werden können. Dieses polarisierte CNN-Framework enthält einen Backbone, der für die Verarbeitung der besonderen Textur der Polarisation geeignet ist und mit anderen computerbasierten Seh-Architekturen wie Mask R-CNN (z. B. zur Bildung einer Polarized Mask R-CNN-Architektur) gekoppelt werden kann, um eine Lösung für die genaue und robuste Charakterisierung von transparenten Objekten und anderen optisch schwierigen Objekten zu schaffen. Darüber hinaus kann dieser Ansatz auf Szenen mit einer Mischung aus transparenten und nicht-transparenten (z. B. undurchsichtigen Objekten) angewendet werden und kann zur Charakterisierung von transparenten, durchscheinenden, nicht-lambertschen, Mehrwege-induzierenden, dunklen und undurchsichtigen Oberflächen des oder der zu untersuchenden Objekte verwendet werden.
  • Darstellungsräume für Polarisationsmerkmale
  • Einige Aspekte von Ausführungsformen der vorliegenden Offenbarung beziehen sich auf Systeme und Verfahren zur Extraktion von Merkmalen aus Polarisationsrohbildern in Schritt 650, wobei diese extrahierten Merkmale in Schritt 690 bei der robusten Erkennung von optisch schwierigen Merkmalen in den Oberflächen von Objekten verwendet werden. Im Gegensatz dazu können vergleichende Verfahren, die sich allein auf Intensitätsbilder stützen, diese optisch schwierigen Merkmale oder Oberflächen nicht erkennen (z. B. beim Vergleich des Intensitätsbildes von 2A mit dem AOLP-Bild von 2C, wie oben beschrieben). Der Begriff „erste Tensoren“ in „ersten Darstellungsräumen“ wird hier verwendet, um sich auf Merkmale zu beziehen, die aus den von einer Polarisationskamera aufgenommenen Polarisationsrohbildern 18 berechnet (z. B. extrahiert) werden, wobei diese ersten Darstellungsräume zumindest Polarisationsmerkmalsräume umfassen (z. B. Merkmalsräume wie AOLP und DOLP, die Informationen über die Polarisation des vom Bildsensor erfassten Lichts enthalten) und können auch Nicht-Polarisations-Merkmalsräume umfassen (z. B. Merkmalsräume, die keine Informationen über die Polarisation des den Bildsensor erreichenden Lichts erfordern, wie z. B. Bilder, die nur basierend auf Intensitätsbildern berechnet werden, die ohne jegliche Polarisationsfilter erfasst wurden).
  • Die Wechselwirkung zwischen Licht und transparenten Objekten ist vielfältig und komplex, aber das Material eines Objekts bestimmt seine Transparenz bei sichtbarem Licht. Bei vielen transparenten Haushaltsgegenständen geht der größte Bereich des sichtbaren Lichts direkt hindurch und ein kleiner Bereich (-4% bis ~8%, je nach Brechungsindex) wird reflektiert. Das liegt daran, dass das Licht im sichtbaren Bereich des Spektrums nicht genügend Energie hat, um die Atome im transparenten Gegenstand anzuregen. Infolgedessen dominiert die Textur (z. B. das Aussehen) von Objekten, die sich hinter dem transparenten Objekt befinden (oder durch das transparente Objekt sichtbar sind), das Aussehen des transparenten Objekts. Betrachtet man beispielsweise eine transparente Glastasse oder einen Becher auf einem Tisch, so dominiert im Allgemeinen das Aussehen der Objekte auf der anderen Seite des Bechers (z. B. die Oberfläche des Tisches) das, was man durch die Tasse sieht. Diese Eigenschaft führt zu einigen Schwierigkeiten, wenn versucht wird, Oberflächenmerkmale von transparenten Objekten wie Glasfenstern und glänzenden, transparenten Farbschichten allein anhand von Intensitätsbildern zu erkennen.
  • 3 ist eine übersichtliche Darstellung der Wechselwirkung von Licht mit transparenten und nicht transparenten (z. B. diffusen und/oder reflektierenden) Objekten. Wie in 3 dargestellt, nimmt eine Polarisationskamera 10 Polarisationsrohbilder einer Szene auf, die ein transparentes Objekt 302 vor einem undurchsichtigen Hintergrundobjekt 303 umfasst. Ein Lichtstrahl 310, der auf den Bildsensor 14 der Polarisationskamera 10 trifft, enthält Polarisationsinformationen sowohl von dem transparenten Objekt 302 als auch von dem Hintergrundobjekt 303. Der kleine Anteil des vom transparenten Objekt 302 reflektierten Lichts 312 ist stark polarisiert und hat daher einen großen Einfluss auf die Polarisationsmessung, im Gegensatz zu dem Licht 313, das vom Hintergrundobjekt 303 reflektiert wird und durch das transparente Objekt 302 hindurchgeht.
  • In ähnlicher Weise kann ein Lichtstrahl, der auf die Oberfläche eines Objekts trifft, auf verschiedene Weise mit der Form der Oberfläche interagieren. Zum Beispiel kann sich eine Oberfläche mit einer glänzenden Farbe im Wesentlichen ähnlich verhalten wie ein transparentes Objekt vor einem undurchsichtigen Objekt, wie in 3 gezeigt, wo Wechselwirkungen zwischen dem Lichtstrahl und einer transparenten oder transluzenten Schicht (oder Klarlackschicht) der glänzenden Farbe dazu führen, dass das von der Oberfläche reflektierte Licht basierend auf den Charakteristiken der transparenten oder transluzenten Schicht (z. B. basierend auf der Dicke und den Oberflächennormalen der Schicht) polarisiert wird, die in dem auf den Bildsensor treffenden Lichtstrahl kodiert sind. Wie weiter unten in Bezug auf die Form-aus-Polarisation-Theorie (SfP) näher erläutert wird, können Variationen in der Form der Oberfläche (z. B. die Richtung der Oberflächennormalen) signifikante Veränderungen in der Polarisation des von der Oberfläche des Objekts reflektierten Lichts verursachen. Zum Beispiel können glatte Oberflächen im Allgemeinen die gleichen Polarisationseigenschaften umfassen, aber ein Kratzer oder eine Delle in der Oberfläche ändert die Richtung der Oberflächennormalen in diesen Bereichen, und Licht, das auf Kratzer oder Dellen trifft, kann anders polarisiert, abgeschwächt oder reflektiert werden als in anderen Bereichen der Oberfläche des Objekts. Modelle für die Wechselwirkungen zwischen Licht und Materie berücksichtigen im Allgemeinen drei grundlegende Aspekte: Geometrie, Beleuchtung und Material. Die Geometrie basiert auf der Form des Materials. Die Beleuchtung umfasst die Richtung und Farbe der Beleuchtung. Das Material kann durch den Brechungsindex oder die Winkelreflexion/- durchlässigkeit des Lichts parametrisiert werden. Diese Winkelreflexion wird als bidirektionale Reflexionsverteilungsfunktion (BRDF) bezeichnet, obwohl andere Funktionsformen bestimmte Szenarien genauer darstellen können. Zum Beispiel wäre die bidirektionale unterirdische Streuverteilungsfunktion (BSSRDF) im Zusammenhang mit Materialien, die eine unterirdische Streuung umfassen (z. B. Marmor oder Wachs), genauer.
  • Ein Lichtstrahl 310, der auf den Bildsensor 16 einer Polarisationskamera 10 trifft, hat drei messbare Komponenten: die Intensität des Lichts (Intensitätsbild/I), den Prozentsatz oder Anteil des Lichts, der linear polarisiert ist (Grad der linearen Polarisation/DOLP/p), und die Richtung dieser linearen Polarisation (Winkel der linearen Polarisation/AOLP/ϕ). Diese Eigenschaften kodieren Informationen über die Oberflächenkrümmung und das Material des abzubildenden Objekts, die vom Prädiktor 750 verwendet werden können, um transparente Objekte zu erkennen, wie im Folgenden näher beschrieben. In einigen Ausführungsformen kann der Prädiktor 750 andere optisch schwierige Objekte basierend auf ähnlichen Polarisationseigenschaften von Licht, das durch lichtdurchlässige Objekte hindurchgeht, und/oder Licht, das mit mehrweginduzierenden Objekten oder mit nicht reflektierenden Objekten (z. B. mattschwarzen Objekten) interagiert, erkennen.
  • Daher beziehen sich einige Aspekte von Ausführungsformen der vorliegenden Erfindung auf das Verwenden eines Merkmalsextraktors 700 zum Berechnen erster Tensoren in einem oder mehreren ersten Darstellungsräumen, die abgeleitete Merkmalskarten basierend auf der Intensität I, dem DOLP p und dem AOLP ϕ enthalten können. Der Merkmalsextraktor 700 kann im Allgemeinen Informationen in erste Darstellungsräume (oder erste Merkmalsräume) extrahieren, die Polarisationsdarstellungsräume (oder Polarisationsmerkmalsräume) umfassen, wie z. B. „Polarisationsbilder“, d. h. Bilder, die basierend auf den Polarisationsrohbildern extrahiert werden, die ansonsten nicht aus Intensitätsbildern berechnet werden könnten (z. B, Bilder, die von einer Kamera aufgenommen wurden, die keinen Polarisationsfilter oder einen anderen Mechanismus zum Erkennen der Polarisation des den Bildsensor erreichenden Lichts enthält), wobei diese Polarisationsbilder DOLP p-Bilder (im DOLP-Darstellungsraum oder Merkmalsraum), AOLP ϕ-Bilder (im AOLP-Darstellungsraum oder Merkmalsraum), andere Kombinationen der aus Stokes-Vektoren berechneten Polarisationsrohbilder sowie andere Bilder (oder allgemeiner erste Tensoren oder erste Merkmalstensoren) der aus Polarisationsrohbildern berechneten Informationen umfassen können. Die ersten Darstellungsräume können auch Nicht-Polarisations-Darstellungsräume wie den Intensitäts-I-Darstellungsraum umfassen.
  • Die Messung von Intensität I, DOLP ρ und AOLP ϕ an jedem Pixel erfordert drei oder mehr Polarisationsrohbilder einer Szene, die hinter Polarisationsfiltern (oder Polarisatoren) unter verschiedenen Winkeln ϕpol aufgenommen wurden (z. B. weil drei unbekannte Werte zu bestimmen sind: Intensität I, DOLP ρ und AOLP ϕ. Beispielsweise nimmt die oben beschriebene FLIR® Blackfly® S Polarisationskamera Polarisationsrohbilder mit Polarisationswinkeln ϕpol von 0 Grad, 45 Grad, 90 Grad oder 135 Grad auf, wodurch vier Polarisationsrohbilder Iϕpol entstehen, die hier als I0, I45, I90 und I135 bezeichnet werden.
  • Die Beziehung zwischen Iϕpol und der Intensität I, DOLP ρ und AOLP ϕ an jedem Pixel kann wie folgt ausgedrückt werden: I ϕ p o l = I ( 1 + ρ cos ( 2 ( ϕ ϕ p o l ) ) )
    Figure DE112020004813T5_0001
  • Dementsprechend mit vier verschiedenen Polarisationsrohbildern Iϕpol (I0,I45,I90 und I135 ) kann ein System mit vier Gleichungen verwendet werden, um die Intensität I, DOLP ρ und AOLP ϕ zu bestimmen.
  • Form aus Polarisation (SfP) Theorie (siehe z.B. Gary A. Atkinson und Edwin R. Hancock. Recovery of surface orientation from diffuse polarization. IEEE transactions on image processing, 15(6): 1653-1664, 2006.) stellt fest, dass die Beziehung zwischen dem Brechungsindex (n), dem Azimutwinkel (θa) und dem Zenitwinkel (θz) der Oberflächennormalen eines Objekts und den ϕ- und ρ-Komponenten des von diesem Objekt kommenden Lichtstrahls den folgenden Merkmalen folgt, wenn diffuse Reflexion vorherrscht: ρ = ( n 1 n ) 2 sin 2 ( θ z ) 2 + 2 n 2 ( n + 1 n ) 2 sin 2 θ z + 4 cos θ z n 2 sin 2 θ z
    Figure DE112020004813T5_0002
    ϕ = θ a
    Figure DE112020004813T5_0003
    und wenn die spiegelnde Reflexion dominant ist: ρ = 2 sin 2 θ z cos θ z n 2 sin 2 θ z n 2 sin 2 θ z n 2 sin 2 θ z + 2 sin 4 θ z
    Figure DE112020004813T5_0004
    ϕ = θ a π 2
    Figure DE112020004813T5_0005
  • Man beachte, dass in beiden Fällen p exponentiell zunimmt, wenn θz steigt, und dass bei gleichem Brechungsindex die spiegelnde Reflexion viel stärker polarisiert ist als die diffuse Reflexion.
  • Dementsprechend beziehen sich einige Aspekte von Ausführungsformen der vorliegenden Offenbarung auf die Anwendung der SfP-Theorie zur Erkennung der Formen von Oberflächen (z. B. der Ausrichtung von Oberflächen) auf der Grundlage der Polarisationsrohbilder 18 der Oberflächen. Dieser Ansatz ermöglicht es, die Formen von Objekten zu charakterisieren, ohne andere Computer-Seh-Techniken zum Bestimmen der Formen von Objekten zu verwenden, wie z. B. Time-of-Flight (ToF) Tiefenerfassung und/oder Stereo-Seh-Techniken, obwohl Ausführungsformen der vorliegenden Offenbarung in Verbindung mit solchen Techniken verwendet werden können.
  • Formal gesehen beziehen sich Aspekte der Ausführungsformen der vorliegenden Offenbarung auf die Berechnung erster Tensoren 50 in ersten Darstellungsräumen, einschließlich der Extraktion erster Tensoren in Polarisationsdarstellungsräumen, wie z. B. das Bilden von Polarisationsbildern (oder das Extrahieren abgeleiteter Polarisationsmerkmalskarten) im Verfahrensschritt 650 basierend auf Polarisationsrohbildern, die von einer Polarisationskamera 10 erfasst wurden.
  • Lichtstrahlen, die von einem transparenten Objekt kommen, haben zwei Komponenten: einen reflektierten Anteil, der die reflektierte Intensität Ir, das reflektierte DOLP ρr und das reflektierte AOLP ϕr umfasst, und den gebrochenen Anteil, der die gebrochene Intensität It, das gebrochene DOLP ρt und das gebrochene AOLP ϕt umfasst. Die Intensität eines einzelnen Pixels im resultierenden Bild kann wie folgt geschrieben werden: I = I r + I t
    Figure DE112020004813T5_0006
  • Wenn ein Polarisationsfilter mit einem linearen Polarisationswinkel ϕpol vor der Kamera platziert ist, beträgt der Wert an einem gegebenen Pixel: I ϕ p o l = I r ( 1 + ρ r cos ( 2 ( ϕ r ϕ p o l ) ) ) + I t ( 1 + ρ t cos ( 2 ( ϕ t ϕ p o l ) ) )
    Figure DE112020004813T5_0007
  • Lösen des obigen Ausdrucks für die Werte eines Pixels in einem DOLP p Bild und eines Pixels in einem AOLP Φ Bild in Form von Ir, ρr, ϕr, It, ρt, and ϕt: ρ = ( I r ρ r ) 2 + ( I t ρ t ) 2 + 2 I t ρ t I r ρ r cos ( 2 ( ϕ r ϕ t ) ) I r + I t
    Figure DE112020004813T5_0008
    ϕ = arctan ( I r ρ r sin ( 2 ( ϕ r ϕ t ) ) I t ρ t + I r ρ r cos ( 2 ( ϕ r ϕ t ) ) ) + ϕ r
    Figure DE112020004813T5_0009
  • Dementsprechend stellen die obigen Gleichungen (7), (8) und (9) ein Modell zum Bilden erster Tensoren 50 in ersten Darstellungsräumen bereit, die ein Intensitätsbild I, ein DOLP-Bild p und ein AOLP-Bild ϕ gemäß einer Ausführungsform der vorliegenden Offenbarung umfassen, wobei die Verwendung von Polarisationsbildern oder -tensoren in Polarisationsdarstellungsräumen (einschließlich eines DOLP-Bildes p und eines AOLP-Bildes ϕ auf der Grundlage der Gleichungen (8) und (9)) die zuverlässige Erkennung von optisch anspruchsvollen Oberflächencharakteristiken von Objekten ermöglicht, die im Allgemeinen von vergleichbaren Systemen, die nur Intensitätsbilder I als Eingabe verwenden, nicht erkannt werden können.
  • Die obigen Gleichungen (8) und (9) können allgemeiner in Übereinstimmung mit den Stokes-Parametern dargestellt werden: ρ = ( S 1 ) 2 + ( S 2 ) 2 S 0
    Figure DE112020004813T5_0010
    ϕ = 0.5 arctan S 2 S 1
    Figure DE112020004813T5_0011
    wobei S0, S1, and S2 die Stokes-Parameter sind.
  • Genauer gesagt können erste Tensoren in Polarisationsdarstellungsräumen (unter den abgeleiteten Merkmalskarten 50) wie die Polarisationsbilder DOLP p und AOLP ϕ Oberflächencharakteristiken von Objekten aufzeigen, die sonst in einem Intensitäts-I-Bereich texturlos erscheinen würden. Ein transparentes Objekt kann eine Textur haben, die im Intensitätsbereich I unsichtbar ist, weil diese Intensität streng vom Verhältnis Ir /It abhängt (siehe Gleichung (6)). Im Gegensatz zu undurchsichtigen Objekten, bei denen It = 0 ist, transmittieren transparente Objekte den größten Teil des einfallenden Lichts und reflektieren nur einen kleinen Teil des einfallenden Lichts. Ein weiteres Beispiel: Dünne oder kleine Abweichungen in der Form einer ansonsten glatten Oberfläche (oder glatte Abschnitte in einer ansonsten rauen Oberfläche) können im Intensitätsbereich I (z. B. einem Bereich, in dem die Polarisation des Lichts nicht berücksichtigt wird) im Wesentlichen unsichtbar sein oder einen geringen Kontrast umfassen, können aber in einem Polarisationsdarstellungsraum wie DOLP p oder AOLP ϕ sehr sichtbar sein oder einen hohen Kontrast umfassen.
  • Eine beispielhafte Methode zum Erfassen der Oberflächentopografie ist daher die Verwendung von Polarisationsmerkmalen in Verbindung mit geometrischer Regularisierung. Die Fresnel-Gleichungen setzen das AOLP ϕ und das DOLP ρ mit Oberflächennormalen in Beziehung. Diese Gleichungen können für die Erkennung von optisch schwierigen Objekten nützlich sein, indem sie die so genannten Polarisationsmuster der Oberfläche der optisch schwierigen Objekte ausnutzen. Ein Polarisationsmuster ist ein Tensor der Größe [M,N,K], wobei M und N die horizontalen bzw. vertikalen Pixeldimensionen sind und K der Polarisationsdatenkanal ist, der unterschiedlich groß sein kann. Wenn beispielsweise die zirkulare Polarisation ignoriert und nur die lineare Polarisation betrachtet wird, wäre K gleich zwei, da die lineare Polarisation sowohl einen Winkel als auch einen Polarisationsgrad (AOLP ϕ und DOLP p) hat. Analog zu einem Moire-Muster extrahiert das Merkmalsextraktionsmodul 700 in einigen Ausführungsformen der vorliegenden Offenbarung ein Polarisationsmuster in Polarisationsdarstellungsräumen (z. B. AOLP-Raum und DOLP-Raum).
  • Während die vorangegangene Diskussion spezifische Beispiele für Polarisationsdarstellungsräume basierend auf linearer Polarisation für den Fall liefert, dass eine Polarisationskamera mit einem oder mehreren linearen Polarisationsfiltern verwendet wird, um Polarisationsrohbilder zu erfassen, die verschiedenen Winkeln der linearen Polarisation entsprechen, und um Tensoren in linearen Polarisationsdarstellungsräumen wie DOLP und AOLP zu berechnen, sind die Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt. In einigen Ausführungsformen der vorliegenden Offenbarung umfasst eine Polarisationskamera beispielsweise einen oder mehrere zirkulare Polarisationsfilter, die konfiguriert sind, um nur zirkular polarisiertes Licht durchzulassen, und bei denen Polarisationsmuster oder erste Tensoren im zirkulären Polarisationsdarstellungsraum weiter aus den Polarisationsrohbildern extrahiert werden. In einigen Ausführungsformen werden diese zusätzlichen Tensoren im zirkulären Polarisationsdarstellungsraum allein verwendet, und in anderen Ausführungsformen werden sie zusammen mit den Tensoren in linearen Polarisationsdarstellungsräumen wie AOLP und DOLP verwendet. Zum Beispiel kann ein Polarisationsmuster, das Tensoren in Polarisationsdarstellungsräumen umfasst, Tensoren im zirkulären Polarisationsraum, AOLP und DOLP umfassen, wobei das Polarisationsmuster die Dimensionen [M,N,K] haben kann, wobei K drei ist, um den Tensor im zirkulären Polarisationsdarstellungsraum weiter einzuschließen.
  • Dementsprechend beziehen sich einige Aspekte von Ausführungsformen der vorliegenden Offenbarung auf das Bereitstellen von ersten Tensoren in den ersten Darstellungsräumen (z. B. einschließlich Merkmalskarten in Polarisationsdarstellungsräumen), die aus Polarisationsrohbildern extrahiert wurden, als Eingaben für einen Prädiktor zum Berechnen oder Erkennen von Oberflächencharakteristiken von transparenten Objekten und/oder anderen optisch schwierigen Oberflächencharakteristiken von untersuchten Objekten. Diese ersten Tensoren können abgeleitete Merkmalskarten enthalten, die eine Intensitätsmerkmalskarte I, eine Merkmalskarte des linearen Polarisationsgrads (DOLP) ρ und eine Merkmalskarte des linearen Polarisationswinkels (AOLP) ϕ umfassen können, wobei die Merkmalskarte DOLP ρ und die Merkmalskarte AOLP ϕ Beispiele für Polarisationsmerkmalskarten oder -tensoren in Polarisationsdarstellungsräumen sind, die sich auf Merkmalskarten beziehen, die Informationen bezüglich der Polarisation des von einer Polarisationskamera erfassten Lichts kodieren.
  • In einigen Ausführungsformen werden die Merkmalskarten oder Tensoren in Polarisationsdarstellungsräumen beispielsweise als Eingabe für Erkennungsalgorithmen bereitgestellt, die die SfP-Theorie nutzen, um die Form von Oberflächen von Objekten zu charakterisieren, die von den Polarisationskameras 10 erfasst werden. In einigen Ausführungsformen werden beispielsweise im Fall der diffusen Reflexion die Gleichungen (2) und (3) verwendet, um den Zenitwinkel (θz) und den Azimutwinkel (θa) der Oberflächennormalen einer Oberfläche in der Szene auf der Grundlage des DOLP ρ und des Brechungsindex n zu berechnen. Ebenso werden im Fall der spiegelnden Reflexion die Gleichungen (3) und (5) zur Berechnung des Zenitwinkels (θz) und des Azimutwinkels (θa) der Oberflächennormalen einer Oberfläche in der Szene auf der Grundlage des DOLP ρ und des Brechungsindex n verwendet. Ein Beispiel für eine geschlossene Formlösung zur Berechnung des Zenitwinkels (θz) basierend auf Gleichung (2) gemäß einer Ausführungsform der vorliegenden Offenbarung in Übereinstimmung mit den folgenden Schritten: a a = ( n 1 n ) 2 + ρ ( n + 1 n ) 2
    Figure DE112020004813T5_0012
    b b = 4 ρ ( n 2 + 1 ) ( a a 4 ρ )
    Figure DE112020004813T5_0013
    c c = b b 2 + 16 ρ 2 ( 16 ρ 2 a a 2 ) ( n 2 1 ) 2
    Figure DE112020004813T5_0014
    d d = b b c c 2 ( 16 ρ 2 a a 2 )
    Figure DE112020004813T5_0015
    θ z = a a sin d d
    Figure DE112020004813T5_0016
  • Weitere Einzelheiten zur Berechnung von Oberflächennormalen auf der Grundlage von Polarisationsrohbildern sind beispielsweise in U.S. Pat. Nr. 10,260,866 und 10,557,705 und Kadambi, Achuta, et al. „Polarized 3D: High-quality depth sensing with polarization cues.“ Proceedings of the IEEE International Conference on Computer Vision. 2015, deren gesamte Offenbarungen hier durch Bezugnahme aufgenommen sind.
  • Berechnen von Polarisationsmerkmalen aus Multikamera-Arrays
  • Normalerweise werden multipolare Hinweise aus einem monokularen Blickpunkt gewonnen. Bestehende Verfahren verwenden multipolare Filter (z. B. eine Polarisationsmaske wie in 1B) oder mehrere CCD- oder CMOS-Sensoren, um verschiedene Polarisationskanäle in einer einzigen Ansicht zu multiplexen (z. B. mehrere Sensoren hinter einem einzigen Linsensystem) oder zeitmultiplexe Systeme (z. B., bei denen verschiedene Polarisationsrohbilder zu verschiedenen Zeiten erfasst werden, wie z. B. nacheinander, was erfordern kann, dass die Szene 1 von einer Erfassung zur nächsten im Wesentlichen oder konstant bleibt, damit die Ansichten gleich sind). Insbesondere die oben beschriebenen Techniken zur Berechnung von Polarisationskennwerten wie dem Winkel der linearen Polarisation (AOLP) ϕ und dem Grad der linearen Polarisation (DOLP) ρ gehen im Allgemeinen davon aus, dass die Polarisationsrohbilder vom gleichen Blickpunkt aus aufgenommen werden.
  • Es gibt jedoch einige Umstände, unter denen die obige Annahme eines einzigen Blickpunkts möglicherweise nicht zutrifft. Zum Beispiel können Polarisationsrohbilder, die verschiedenen Polarisationszuständen entsprechen, von verschiedenen Blickpunkten aus erfasst werden, wenn ein Polarisationskamera-Array verwendet wird, das mehrere Polarisationskameras an verschiedenen Standorten umfasst, wie die in den 1C, 1D und 1E gezeigten Ausführungsformen. Wenn die einzelnen Polarisationskameras näher beieinander platziert werden, kann der Fehler zwar verringert werden, aber physikalische Einschränkungen (z. B. die Größe der einzelnen Polarisationskameras, wie die Größe und Form ihrer entsprechenden Verpackung sowie die darin enthaltenen Linsen und Bildsensoren) können die Platzierung der Polarisationskameras begrenzen.
  • Dementsprechend beziehen sich einige Aspekte von Ausführungsformen der vorliegenden Offenbarung auf Systeme und Verfahren zur Berechnung von Polarisationskennwerten wie AOLP ϕ und DOLP ρ aus Polarisationsrohbildern, die aus verschiedenen Blickpunkten aufgenommen wurden, beispielsweise unter Verwendung einer Anordnung von Polarisationskameras. Im Allgemeinen erfordert dies eine Technik zur Entkopplung von Parallaxenmerkmalen aufgrund der unterschiedlichen Positionen der einzelnen Polarisationskameras und den gewünschten Polarisationsmerkmalen. Dies ist eine Herausforderung, da Parallaxenhinweise und Polarisationshinweise insofern miteinander verknüpft sind, als sowohl die Parallaxe zwischen zwei Ansichten als auch die erfasste Polarisation von der Geometrie der Beziehung zwischen den Polarisationskameras und der abgebildeten Oberfläche abhängen. Bei den vergleichenden Ansätzen zum Ermitteln von AOLP und DOLP wird davon ausgegangen, dass die Polarisationskanäle vom gleichen Blickpunkt aus erfasst werden, so dass die Anwendung vergleichender Verfahren auf die von der Anordnung von Polarisationskameras erfassten Daten wahrscheinlich zu Fehlern oder Mehrdeutigkeit führt.
  • 4 ist ein Flussdiagramm eines Verfahrens zur Schätzung von Polarisationsmerkmalen bei Parallaxenmehrdeutigkeit gemäß einer Ausführungsform der vorliegenden Offenbarung. In der in 4 gezeigten Ausführungsform werden Polarisationsrohbilder, die von einer Vielzahl verschiedener Blickpunkte, z. B. von einem Array von Polarisationskameras, wie in den 1C, 1D und 1E gezeigt, erfasst wurden, als Eingabe in den Prozess geliefert. In einigen Ausführungsformen der vorliegenden Offenbarung werden Schätzungen des DOLP ρ und des AOLP ϕ in Übereinstimmung mit Ausführungsformen der vorliegenden Offenbarung von einer Verarbeitungsschaltung 100 durch einen iterativen Prozess berechnet. Es ist zu beachten, dass der geschätzte DOLP ρ und der geschätzte AOLP ϕ Tensoren (z. B. zweidimensionalen Tensoren) mit Seitenverhältnissen entsprechen, die den Polarisationsrohbildern entsprechen, z. B. wo die Werte des DOLP ρ-Tensors und des AOLP ϕ-Tensors dem geschätzten Grad der linearen Polarisation und dem Winkel der linearen Polarisation in verschiedenen Teilen der erfassten Polarisationsrohbilder entsprechen.
  • Im Verfahrensschritt 410 berechnet die Verarbeitungsschaltung einen anfänglichen geschätzten DOLP ρ0 und einen anfänglichen geschätzten AOLP ϕ0 unter Verwendung der Stokes-Vektoren (z. B. gemäß den obigen Gleichungen (10) und (11) oder, genauer gesagt, gemäß den Gleichungen (8) und (9). Diese anfänglichen geschätzten DOLP ρ0 und AOLP ϕ0 werden wahrscheinlich aufgrund der Parallaxenverschiebung zwischen den verschiedenen einzelnen Polarisationskameras des Polarisationskamera-Arrays falsch sein.
  • Im Verfahrensschritt 430 schätzt die Verarbeitungsschaltung 100 die Geometrie der Oberflächen der Szene, die in den Polarisationsrohbildern abgebildet sind. In einigen Ausführungsformen der vorliegenden Offenbarung verwendet die Verarbeitungsschaltung 100 einen auf Ansichtskorrespondenz basierenden Ansatz, um ein Grobmodell der Szene unter Verwendung der Parallaxe aus der Stereosicht der Szene aufgrund des Versatzes zwischen den Positionen der Kameras in der Anordnung zu erzeugen (z. B. unter Verwendung von Tiefe aus Stereotechniken, wie z. B. in Kadambi, A. et al. (2015) diskutiert). Im Verfahrensschritt 450 kann diese grobe Geometrie dann unter Verwendung der aktuell berechneten Werte für DOLP ρi und AOLP ϕi (anfänglich i=0) verfeinert werden (siehe z. B. U.S. Pat. Nrn. 10,260,866 und 10,557,705 und Kadambi, A. et al. (2015)).
  • Die im Verfahrensschritt 450 berechnete geschätzte Geometrie wird dann verwendet, um die geschätzten Werte des DOLP ρ und des AOLP ϕ zu aktualisieren. Beispielsweise können in einer i-ten Iteration ein zuvor berechneter DOLP ρi-1 und ein zuvor berechneter AOLP ϕi-1 verwendet werden, um die geschätzte Geometrie im Verfahrensschritt 450 zu berechnen, und im Verfahrensschritt 470 verfeinert das Verarbeitungssystem 100 die DOLP- und AOLP-Berechnungen basierend auf der neuen geschätzten Geometrie (in Übereinstimmung mit den Fresnel-Gleichungen, die AOLP und DOLP mit der Neigung in Beziehung setzen), um neue Schätzungen DOLP ρi und AOLP Φi zu berechnen.
  • Im Verfahrensschritt 490 bestimmt das Verarbeitungssystem 100, ob es mit einer weiteren Iteration des Prozesses zur Schätzung von DOLP ρ und AOLP ϕ fortfahren soll. In einigen Ausführungsformen wird eine Änderung des DOLP Δρ auf der Grundlage der Differenz zwischen dem aktualisierten DOLP ρi und dem zuvor berechneten DOLP ρi-1 berechnet (z. B. Δp=|ρii-1|). Ebenso wird eine Änderung des AOLP Δϕ anhand der Differenz zwischen dem aktualisierten AOLP Φi und dem zuvor berechneten AOLP ϕi-1 berechnet (z. B. Δϕ=|ϕii-1|). Wenn eine dieser Änderungen der Polarisationshinweise (z. B. sowohl Δρ als auch Δϕ) größer ist als die entsprechenden Schwellenwerte (z. B. ρth und ϕth) für die berechneten Tensoren, wird der Prozess fortgesetzt, indem die aktualisierten DOLP ρi und AOLP ϕi verwendet werden, um das Grobmodell in Operation 450 zu verfeinern, und dann die DOLP- und AOLP-Werte basierend auf dieser neuen geschätzten Geometrie aktualisiert werden. Wenn beide Änderungen der Polarisationshinweise unter den entsprechenden Schwellenwerten liegen, ist der Schätzungsprozess abgeschlossen und die geschätzten DOLP ρi und AOLP Φi werden aus dem Schätzungsprozess ausgegeben und können bei der Berechnung weiterer Verarbeitungsergebnisse, wie z. B. Instanzsegmentierungskarten, verwendet werden.
  • Multispektrales Stereo mit Polarisationsbildgebung
  • In vielen Fällen, z. B. bei der Femerfassung, können mit multispektralen Bildern von Szenen Informationen erfasst werden, die sonst nicht sichtbar wären. Zum Beispiel kann die multispektrale oder hyper-spektrale Bildgebung Oberflächeneigenschaften von Szenen erkennen, wie z. B. Bodeneigenschaften wie Feuchtigkeit, organischer Gehalt und Salzgehalt, ölverschmutzte Böden, was in der Landwirtschaft nützlich sein kann. Ein weiteres Beispiel ist die multispektrale Bildgebung, die es ermöglicht, getarnte Ziele zu erkennen, z. B. Militärfahrzeuge unter teilweiser Vegetationsdecke oder kleine militärische Objekte in relativ großen Pixeln. Ein weiteres Beispiel: Die multispektrale Bildgebung ermöglicht die Identifizierung und Kartierung von Materialien, z. B. die Feststellung des Vorhandenseins oder Nichtvorhandenseins von Materialien in Reliefs, die Kartierung von Schwermetallen und anderen giftigen Abfällen in Bergbaugebieten. Die multispektrale Bildgebung ermöglicht auch die Erkennung des Vorhandenseins bestimmter Materialien, wie z. B. verschüttetes Wasser/Öl (dies ist von besonderer Bedeutung für Innenraumroboter, damit sie diese Verschüttungen vermeiden bzw. deren Umgehung planen können, und für Staubsaugerroboter zur Erkennung, Lokalisierung und Beseitigung von verschüttetem Wasser und anderem kleinen, dunklen und/oder spiegelnden Schmutz).
  • Die multispektrale Bildgebung kann auch zur Materialinspektion eingesetzt werden, z. B. zur Erkennung von Rissen und Rost in Industrieanlagen wie Industriekesseln und Eisenbahnschienen, bei denen ein Ausfall extrem gefährlich und die Wiederherstellung teuer sein kann.
  • In den oben genannten Beispielen sind computerbasierte Seh-Techniken, die vergleichbare und Standard-Farbbilder (z. B. rote, grüne und blaue Bilder) als Eingabe verwenden, möglicherweise nicht in der Lage, diese Arten von Objekten zu erkennen, aber die Verwendung von multispektraler oder hyper-spektraler Bildgebung, kombiniert mit Polarisationsinformationen, kann zusätzliche Hinweise liefern, die von computerbasierten Seh-Algorithmen und Instanz-Erkennungstechniken (z. B. unter Verwendung von trainierten neuronalen faltenden Netzen) erkannt werden können.
  • Im Allgemeinen misst die spektrale Strahldichte einer Oberfläche die Rate der von einer Oberfläche reflektierten Photonen als Funktion der Oberflächenfläche, der Neigung und der einfallenden Wellenlänge. Die spektrale Strahldichtefunktion der meisten natürlichen Bilder ist eine regelmäßige Funktion der Wellenlängen, die es ermöglicht, diese mit einem niedrigdimensionalen linearen Modell darzustellen. Mit anderen Worten: Die spektrale Darstellung des von der Oberfläche reflektierten Lichts kann als lineare Kombination von spektralen Basisfunktionen dargestellt werden: s i = 0 n w i B i
    Figure DE112020004813T5_0017
    wobei wi die linearen Gewichte sind, Bi die spektrale Basisfunktion darstellt und n die Dimensionalität des System ist. Verwandte Arbeiten auf dem Gebiet der spektralen Strahlungsprofile natürlicher Objekte zeigen, dass die spektrale Strahldichte natürlicher Objekte größtenteils durch fünf oder sechs lineare Basisfunktionen genau dargestellt werden kann.
  • Dementsprechend beziehen sich einige Ausführungsaspekte der vorliegenden Offenbarung auf das Sammeln von Spektralinformationen gleichzeitig mit Polarisationsinformationen unter Verwendung eines Stereobildpaars, wobei jedes Kamerasystem (oder Kameramodul) des Stereopaars eine Kameraanordnung umfasst, die das Erfassen sowohl der Spektral- als auch der Polarisationsinformationen ermöglicht.
  • 5A ist eine perspektivische Ansicht eines multispektralen Stereo-Polarisationskamerasystems gemäß einer Ausführungsform der vorliegenden Offenbarung. Ausführungsformen eines multispektralen Stereo-Polarisationskamerasystems, wie in 5A gezeigt, sind im Wesentlichen ähnlich dem Stereo-Polarisationskamerasystem, das in 1E gezeigt ist, dass 5A ein multispektrales Stereo-Polarisationskamerasystem 510 zeigt, das ein erstes Polarisationskameramodul 510-1" und ein zweites Polarisationskameramodul 510-2" hat, die im Wesentlichen parallele optische Achsen haben und entlang einer Grundlinie 510-B voneinander beabstandet sind. In der in 5A gezeigten Ausführungsform umfasst das erste Polarisationskameramodul 510-1'" die Polarisationskameras 510A", 510B", 510C" und 510D", die in einer 2×2-Anordnung ähnlich der in 1C und 1D gezeigten angeordnet sind. Ebenso umfasst das zweite Polarisationskameramodul 510-2" die Polarisationskameras 510E", 510F", 510G" und 510H", die in einem 2×2-Array angeordnet sind, und das gesamte multispektrale Stereo-Polarisationskameramodul 510 umfasst acht einzelne Polarisationskameras (z. B., acht separate Bildsensoren hinter acht separaten Linsen). In einigen Ausführungsformen der vorliegenden Offenbarung sind die entsprechenden Polarisationskameras der Polarisationskameramodule 510-1" und 510-2" so konfiguriert, dass sie Polarisationsrohbilder mit im Wesentlichen denselben Polarisationen erfassen. Zum Beispiel können die Kameras 510A" und 510E" beide lineare Polarisationsfilter mit dem gleichen Winkel von 0° haben, die Kameras 510B" und 510F" können beide lineare Polarisationsfilter mit dem gleichen Winkel von 45° haben, die Kameras 510C" und 510G" können beide lineare Polarisationsfilter mit einem gleichen Winkel von 90° haben, und die Kameras 510D" und 510H" können beide lineare Polarisationsfilter mit einem gleichen Winkel von 135° haben.
  • 5B ist eine Ansicht eines multispektralen Stereo-Polarisationskamerasystems gemäß einer Ausführungsform der vorliegenden Offenbarung, entlang einer Richtung parallel zur optischen Achse des multispektralen Stereo-Polarisationskamerasystems. 5C zeigt geschnittene Seitenansichten von beispielhaften einzelnen Polarisationskameras eines multispektralen Stereo-Polarisationskamerasystems gemäß einer Ausführungsform der vorliegenden Offenbarung. Wie in 5C gezeigt, enthält jede der einzelnen Polarisationskameras (z. B. 510A", 510B", 510E" und 510F") einen entsprechenden Farbfilter 518 (z. B., 518A", 518B", 518E" und 518F") im optischen Pfad der individuellen Polarisationskamera, zusätzlich zu einem entsprechenden Objektiv 512, einem entsprechenden Bildsensor 514 und einem entsprechenden Polarisationsfilter 516. Während in 5C der Farbfilter 518 innerhalb eines Gehäuses und hinter dem Objektiv 512 dargestellt ist, sind die Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt. In einigen Ausführungsformen befindet sich der Farbfilter 518 beispielsweise vor dem Objektiv 512. Ebenso befindet sich in einigen Ausführungsformen der Polarisationsfilter vor der Linse 512.
  • In der in 5B gezeigten Ausführungsform enthält jede der einzelnen Polarisationskameras einen Farbfilter, der Licht nur in einem entsprechenden Bereich des sichtbaren Spektrums durchlässt (im Gegensatz zu einem Bayer-Filter, der ein Mosaikmuster aufweist und typischerweise Licht in drei verschiedenen Bereichen des Spektrums transmittiert, die rotem, grünem und blauem Licht entsprechen). Im Ausführungsbeispiel in 5B hat die erste Polarisationskamera 510A" einen Farbfilter 518A", der konfiguriert ist, Licht in einem roten (R) Bereich des Spektrums zu transmittieren, die zweite Polarisationskamera 510B" hat einen Farbfilter 518B", der konfiguriert ist, Licht in einem ersten grünen (G1) Bereich des Spektrums zu transmittieren, die dritte Polarisationskamera 510C" hat einen Farbfilter 518C", der konfiguriert ist, um Licht in einem zweiten grünen (G2) Bereich des Spektrums zu transmittieren (der sich von dem ersten grünen Bereich G1 des Spektrums unterscheiden kann, z. g., mit einer um 15 bis 20 nm verschobenen Spitze), und die vierte Polarisationskamera 510D" hat einen Farbfilter 518D", der konfiguriert ist, um Licht in einem blauen (B) Bereich des Spektrums zu transmittieren. Zusammen erfassen die vier Polarisationskameras des ersten Polarisationskameramoduls 510-1" Licht in vier verschiedenen Polarisationszuständen (z. B. vier verschiedene lineare Polarisationen von 0°, 45°, 90° und 135°) und vier verschiedenen Farben (z. B. R, G1, G2 und B). In der besonderen Ausführungsform, die in 5B zeigt, erfasst die erste Polarisationskamera 510A" beispielsweise rotes Licht, das bei 0° polarisiert ist, die zweite Polarisationskamera 510B" erfasst erstes grünes Licht, das bei 45° polarisiert ist, die dritte Polarisationskamera 510C" erfasst zweites grünes Licht, das bei 90° polarisiert ist, und die vierte Polarisationskamera 510D" erfasst blaues Licht, das bei 135° polarisiert ist. Die Ausführungsformen der vorliegenden Offenbarung sind jedoch nicht darauf beschränkt. Zum Beispiel können in verschiedenen Ausführungsformen die Farbfilter mit verschiedenen Polarisationsfiltern verbunden sein.
  • In ähnlicher Weise können die einzelnen Polarisationskameras (z. B., Kameras 510E", 510F", 510G" und 510BH") des zweiten Polarisationskameramoduls 510-2" einen separaten Farbfilter 518 umfassen, der konfiguriert ist, um Licht in verschiedenen Bereichen des elektromagnetischen Spektrums und unterschiedlich voneinander zu transmittieren. In einer Ausführungsform der vorliegenden Erfindung transmittiert jeder der Farbfilter des zweiten Polarisationskameramoduls 510-2" Licht in einem Bereich des Spektrums, der um einen bestimmten Betrag verschoben ist (z.B., wobei die Spitze des Spektralprofils des Farbfilters entweder zu den längeren Wellenlängen oder zu den kürzeren Wellenlängen um etwa 10 Nanometer bis etwa 20 Nanometer verschoben ist) gegenüber dem entsprechenden Farbfilter im ersten Polarisationskameramodul 510-1".
  • Im Ausführungsbeispiel in 5B, hat die fünfte Polarisationskamera 510E" einen Farbfilter 518E", der konfiguriert ist, um Licht in einem roten (R') Bereich des Spektrums zu transmittieren, das um etwa 10 bis 20 Nanometer gegenüber dem Spektrum R verschoben ist, das von dem entsprechenden Farbfilter 518A" des entsprechenden Polarisationskameramoduls 510A" des ersten Polarisationskameramoduls 510- 1" übertragen wurde. Gleichermaßen, hat die sechste Polarisationskamera 510F" einen Farbfilter 518F", der konfiguriert ist, um Licht in einem ersten grünen (G1') Bereich des Spektrums zu transmittieren, das um etwa 10 bis 20 Nanometer gegenüber dem Spektrum G1 verschoben ist, das von dem entsprechenden Farbfilter 518B'" der entsprechenden Polarisationskamera 510B" des ersten Polarisationskamera-Moduls 510-1" transmittiert wurde (und, in einigen Ausführungsformen auch ein anderes Spektrum als Spektrum G2). Die siebte Polarisationskamera 510G" hat einen Farbfilter 518G", der konfiguriert ist, um Licht in einem zweiten grünen (G2') Bereich des Spektrums zu transmittieren, das um etwa 10 bis 20 Nanometer gegenüber dem Spektrum G2 verschoben ist, das von dem entsprechenden Farbfilter 518C'" der entsprechenden Polarisationskamera 510C" des ersten Polarisationskameramoduls 510-1" transmittiert wurde (und, in einigen Ausführungsformen auch ein anderes Spektrum für das Spektrum G1). Die achte Polarisationskamera 510H" hat einen Farbfilter 518H", der konfiguriert ist, um Licht in einem blauen (B') Bereich des Spektrums zu transmittieren, das um etwa 10 bis 20 Nanometer gegenüber dem Spektrum B verschoben ist, das von dem entsprechenden Farbfilter 518D'" der entsprechenden Polarisationskamera 510D'' des ersten Polarisationskameramoduls 510- 1" transmittiert wurde.
  • Zusammen erfassen die vier Polarisationskameras des zweiten Polarisationskameramoduls 510-2" Licht in vier verschiedenen Polarisationszuständen (z.B., vier verschiedene lineare Polarisationen von 0°, 45°, 90° und 135°) und vier verschiedene Farben (z. B. R', G1', G2' und B'), die sich auch von den vier Farben unterscheiden, die vom ersten Polarisationskameramodul 510-1" erfasst werden. Infolgedessen ist das in den , und dargestellte multispektrale Stereo-Polarisationskamerasystem 510 so konfiguriert, dass es Licht in acht verschiedenen Farben und unter vier verschiedenen Polarisationswinkeln erfasst.
  • Während einige Ausführungsformen der vorliegenden Offenbarung oben in Bezug auf die 5A, 5B und 5C detailliert beschrieben sind, sind die Ausführungsformen der vorliegenden Offenbarung nicht auf diese beschränkt. Zum Beispiel kann, wie oben erwähnt, in einigen Ausführungsformen der vorliegenden Offenbarung jedes Polarisationskameramodul nur drei Polarisationskameras umfassen. In einigen Ausführungsformen können die drei einzelnen Polarisationskameras entsprechende lineare Polarisatoren mit linearen Polarisationsfiltern bei 0°, 45° und 90° oder bei 0°, 60° und 120° umfassen. In einigen Ausführungsformen haben die drei einzelnen Polarisationskameras des ersten Polarisationskameramoduls entsprechende Farbfilter, um rotes (R), grünes (G) und blaues (B) Licht mit entsprechenden ersten Spektralprofilen zu transmittieren, und die drei einzelnen Polarisationskameras des zweiten Polarisationskameramoduls können entsprechende Farbfilter haben, um rotes (R'), grünes (G') und blaues (B') Licht mit zweiten Spektralprofilen zu transmittieren, die sich von dem ersten Spektralprofil unterscheiden (z. B, wobei jedes der zweiten Spektralprofile gegenüber den entsprechenden ersten Spektralprofilen um 10 bis 20 nm verschoben ist).
  • Während einige Ausführungsformen der vorliegenden Offenbarung oben in Bezug auf Farbfilter beschrieben sind, die verschiedene Bereiche des sichtbaren elektromagnetischen Spektrums transmittieren, sind die Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt und können auch die Verwendung von Farbfiltern umfassen, die selektiv Licht in anderen Bereichen des elektromagnetischen Spektrums transmittieren, z. B. Infrarotlicht oder ultraviolettes Licht.
  • In einigen Ausführungsformen der vorliegenden Offenbarung umfassen die beiden unterschiedlichen Polarisationskameramodule des multispektralen Stereo-Polarisationskamerasystems Polarisationskameras, die konfiguriert sind, um Polarisationsrohbilder unterschiedlicher Polarisationszustände (z. B. unterschiedlicher Polarisationswinkel) zu erfassen, wie z. B. unter Verwendung einer Polarisationsmaske, wie in 1B gezeigt, oder eines mechanisch oder elektronisch steuerbaren Polarisationsfilters. Gemäß einigen Ausführungsformen der vorliegenden Offenbarung umfasst jede Polarisationskamera ferner einen Farbfilter, der konfiguriert ist, um Licht in einer Vielzahl von Farben in Übereinstimmung mit einem Mosaikmuster, wie z. B. einem Bayer-Muster, zu filtern, wobei jede Polarisationskamera einen anderen Farbfilter haben kann, um eine multispektrale oder hyperspektrale Erfassung zu ermöglichen. In einigen Ausführungsformen enthält beispielsweise eine erste Polarisationskamera eines Stereopaars einen ersten Farbfilter, der konfiguriert ist, um Licht in den Spektren R, G1, G2, B (oder R, G, B) zu erfassen, wie oben beschrieben, und eine zweite Polarisationskamera des Stereopaars enthält einen zweiten Farbfilter, der konfiguriert ist, um Licht in den Spektren R', G1', G2', B' (oder R', G', B'), wie oben beschrieben, zu erfassen.
  • Einige Aspekte von Ausführungsformen der vorliegenden Offenbarung beziehen sich auf die Erfassung multispektraler Szenen unter Verwendung von Hardware-Anordnungen wie den oben beschriebenen, indem die spektralen Basisfunktionen für die Darstellung bestimmt werden. Durch Schätzung der spektralen Leistungsverteilung der Szenenbeleuchtung und Verwendung der spektralen Reflexionsfunktion der Macbeth-Farbkarte ist es möglich, einen Satz von Basisfunktionen B zu simulieren, die diese Beleuchtung darstellen. Dies ist insbesondere dann möglich, wenn das spektrale Profil des natürlichen Sonnenlichts für den Außenbereich geschätzt werden soll, wie es typischerweise bei der multispektralen Bildgebung für georäumliche Anwendungen der Fall ist. Sobald die spektralen Basisfunktionen bestimmt sind, ist es einfach, die Spektralkoeffizienten für jede Szene zu bestimmen, indem man einfach w (Gewichte) in der folgenden Gleichung auflöst p = T S = T B w
    Figure DE112020004813T5_0018
    wobei p die Pixelwerte in den verschiedenen spektralen (Farb-)Kanälen darstellt (z. B. acht verschiedene Farbkanäle R, G1, G2, B, R', G1', G2' und B'), T die spektralen Empfindlichkeiten der verschiedenen spektralen Kanäle (z. B, die erfassten Werte), S ist die Beleuchtungsquelle, die in eine spektrale Basis zerlegt werden kann, B steht für die spektralen Basisfunktionen und w für die Koeffizienten für die Basisfunktionen.
  • Dementsprechend ermöglicht die Anwendung der obigen Gleichung (13) die Berechnung von Polarisationsinformationen pro Pixel sowie von Spektralinformationen.
  • Die von der multispektralen Hardware berechneten multispektralen oder hyperspektralen Informationen, wie die oben beschriebenen, können als Eingaben für andere Objekterkennungs- oder Instanzsegmentierungsalgorithmen (z. B. unter Verwendung von faltenden neuronalen Netzen, die basierend auf markierten multispektralen Polarisationsbild-Trainingsdaten trainiert oder neu trainiert werden) oder als Eingaben für klassische computerbasierte Seh-Algorithmen (z. B., wie z.B. zur Erkennung der Tiefe von Oberflächen auf der Grundlage der Parallaxenverschiebung von multispektralen und Polarisationsmerkmalen) zur Erkennung des Vorhandenseins von Objekten in den Szenen, die von multispektralen Stereo-Polarisationskamerasystemen gemäß den Ausführungsformen der vorliegenden Offenbarung abgebildet werden.
  • Während sich einige Ausführungsformen der vorliegenden Offenbarung, wie oben beschrieben, auf die multispektrale Polarisationsbildgebung aus mehreren Blickpunkten unter Verwendung eines Stereokamerasystems (z. B. eines Stereopaars) beziehen, sind die Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt. In einigen Ausführungsformen der vorliegenden Offenbarung überstreicht beispielsweise ein multispektrales Kamerasystem (z. B. unter Verwendung eines Kamerasystems, das konfiguriert ist, um sechs oder mehr verschiedene Spektren zu erfassen, wie R, G, B, R', G' und B', wie oben beschrieben) mehrere Blickpunkte im Laufe der Zeit, z. B. wenn sich ein Objekt von Interesse auf einem Förderband befindet, das durch das Sichtfeld des Kamerasystems läuft, oder wenn sich das Kamerasystem über das Sichtfeld des Objekts von Interesse bewegt.
  • Ein Beispiel für Anwendungen in der Satellitenbildgebung ist der zusätzliche Vorteil, dass die Szene aus mehreren Winkeln betrachtet werden kann, die hoch korreliert sind. Die systematische Art und Weise, in der sich Satelliten in geraden Linien über einem bestimmten Punkt auf dem Boden bewegen, ermöglicht es den Satelliten, hochkorrelierte Multispektral- und Polarisationsdaten der Bodenoberflächen für jeden Blickpunkt über einen großen Bereich von Blickpunkten zu erhalten. Dementsprechend bestimmt in einigen Ausführungsformen der vorliegenden Offenbarung ein Verarbeitungssystem 100 für jeden Punkt auf dem Boden den optimalen Winkel, bei dem das Signal des Polarisationsgrades (DOLP) am stärksten ist, wodurch eine starke Korrelation hinsichtlich seiner Oberflächenorientierung entsteht. Siehe z. B. Gleichungen (2) und (4). Da die Spiegelung im Allgemeinen stark vom Blickpunkt abhängt, werden die meisten Ansichten einer bestimmten Oberfläche nicht spiegelnd sein, so dass Gleichung (2) ausreichen kann, um die Ausrichtung der abgebildeten Oberfläche zu berechnen, ohne dass eine Auswahl zwischen der nicht spiegelnden (oder diffusen) Gleichung und der spiegelnden Gleichung (4) erforderlich ist.
  • Darüber hinaus ermöglicht die Satellitenbildgebung die Erfassung von Bildern von Objekten, die aus sehr unterschiedlichen Blickpunkten aufgenommen wurden. Diese große Grundlinie ermöglicht die Abschätzung grober Entfernungen von Objekten am Boden, indem die multispektrale Bildgebung mit Polarisations- und Parallaxenverschiebungen aufgrund der großen Positionsveränderungen genutzt wird. Die Erkennung dieser groben Entfernungen liefert Informationen für das Katastrophenmanagement, die Überwachung von Stromleitungen und die Sicherheit. So sind Versorgungsunternehmen beispielsweise besorgt über das unkontrollierte Wachstum der Vegetation in und um Stromübertragungs- und -verteilungsleitungen, da die Gefahr von Bränden oder Schäden an den Leitungen besteht. Indem man die Bereiche um die Stromleitungen von verschiedenen Blickpunkten aus abbildet, ermöglicht die Erkennung der Parallaxenverschiebung der Objekte bei Betrachtung von verschiedenen Blickpunkten aus Schätzungen der Oberflächenhöhe der Vegetation und der Höhe der Übertragungs- und Verteilungsleitungen. Auf diese Weise kann automatisch festgestellt werden, wann die Bodenvegetation kritische Schwellenwerte in Bezug auf die Nähe der Leitungen im Hinblick auf das Wachstum der Vegetation erreicht. Um solche Daten sowohl bei Tag als auch bei Nacht zu überwachen, beziehen sich einige Ausführungsformen der vorliegenden Offenbarung auf die Verschmelzung von Polarisationsdaten mit thermischen Sensoren (z. B. Infrarotsensoren), um klare Wärmesignaturen unabhängig von den Beleuchtungsbedingungen zu erhalten.
  • Bildsegmentierung mit polarimetrischen Merkmalen
  • Einige Aspekte von Ausführungsformen der vorliegenden Offenbarung beziehen sich auf die Durchführung einer Instanzsegmentierung unter Verwendung polarimetrischer Hinweise, die in Übereinstimmung mit Ausführungsformen der vorliegenden Offenbarung erfasst wurden. Einige Techniken zur Durchführung einer Instanzsegmentierung unter Verwendung polarimetrischer Hinweise werden in der vorläufigen US-Patentanmeldung Nr. 62/942,113 , die am 30. November 2019 beim US-Patentamt eingereicht wurde, und in der vorläufigen US-Patentanmeldung Nr. 63/001,445 , die am 29. März 2020 beim US-Patentamt eingereicht wurde, ausführlicher beschrieben, wobei die gesamten Offenbarungen durch Bezugnahme hierin aufgenommen sind.
  • 6A ist ein Blockdiagramm der Verarbeitungsschaltung 100 zur Berechnung von Oberflächencharakterisierungsausgaben auf der Grundlage von Polarisationsdaten gemäß einer Ausführungsform der vorliegenden Erfindung. 6B ist ein Flussdiagramm eines Verfahrens 600 zur Durchführung einer Oberflächencharakterisierung auf der Grundlage von Eingangsbildern, um eine Oberflächencharakterisierungsausgabe gemäß einer Ausführungsform der vorliegenden Erfindung zu berechnen.
  • Gemäß verschiedenen Ausführungsformen der vorliegenden Offenbarung wird die Verarbeitungsschaltung 100 unter Verwendung einer oder mehrerer elektronischer Schaltungen implementiert, die konfiguriert sind, um verschiedene Operationen durchzuführen, wie nachstehend ausführlicher beschrieben. Zu den Arten von elektronischen Schaltungen können eine Zentraleinheit (CPU), eine Grafikverarbeitungseinheit (GPU), ein Beschleuniger für künstliche Intelligenz (KI) (z. B. ein Vektorprozessor, der vektorarithmetische Logikeinheiten enthalten kann, die konfiguriert sind, um gemeinsame Operationen mit neuronalen Netzen, wie z. B. Punktprodukte und Softmax, effizient durchzuführen), ein feldprogrammierbares Gate-Array (FPGA), eine anwendungsspezifische integrierte Schaltung (ASIC), ein digitaler Signalprozessor (DSP) oder Ähnliches gehören. Zum Beispiel sind unter bestimmten Umständen Aspekte der Ausführungsformen der vorliegenden Offenbarung in Programmanweisungen implementiert, die in einem nichtflüchtigen, computerlesbaren Speicher gespeichert sind, wo sie, wenn sie von der elektronischen Schaltung (z. B. einer CPU, einer GPU, einem KI-Beschleuniger oder Kombinationen davon) ausgeführt werden, die hierin beschriebenen Operationen durchführen, um eine Charakterisierungsausgabe 20 aus Eingangspolarisationsrohbildern 18 zu berechnen. Die von der Verarbeitungsschaltung 100 durchgeführten Operationen können von einer einzelnen elektronischen Schaltung (z. B. einer einzelnen CPU, einer einzelnen GPU o. Ä.) durchgeführt werden oder auf mehrere elektronische Schaltungen (z. B. mehrere GPUs oder eine CPU in Verbindung mit einer GPU) verteilt werden. Die mehreren elektronischen Schaltungen können lokal zueinander sein (z. B. auf demselben Chip, in demselben Gehäuse oder in demselben eingebetteten Gerät oder Computersystem) und/oder können voneinander entfernt sein (z. B. in Kommunikation über ein Netzwerk wie ein lokales persönliches Netzwerk wie Bluetooth®, über ein lokales Netzwerk wie ein lokales drahtgebundenes und/oder drahtloses Netzwerk und/oder über ein Weitverkehrsnetzwerk wie das Internet, z. B. in einem Fall, in dem einige Operationen lokal und andere Operationen auf einem von einem Cloud-Computing-Dienst gehosteten Server durchgeführt werden). Eine oder mehrere elektronische Schaltungen, die die Verarbeitungsschaltung 100 implementieren, können hier als Computer oder Computersystem bezeichnet werden, das einen Speicher enthalten kann, in dem Anweisungen gespeichert sind, die, wenn sie von der einen oder den mehreren elektronischen Schaltungen ausgeführt werden, die hier beschriebenen Systeme und Verfahren implementieren.
  • Wie in 6A gezeigt, umfasst eine Verarbeitungsschaltung 100 in einigen Ausführungsformen einen Merkmalsextraktor oder ein Merkmalsextraktionssystem 700 und einen Prädiktor 750 (z. B. einen klassischen computerbasierten Seh-Vorhersagealgorithmus und/oder ein trainiertes statistisches Modell wie ein trainiertes neuronales Netzwerk), der konfiguriert ist, um eine Vorhersageausgabe 20 (z. B. eine statistische Vorhersage) in Bezug auf Oberflächenmerkmale von Objekten basierend auf der Ausgabe des Merkmalsextraktionssystems 700 zu berechnen. Verschiedene Ausführungsformen der vorliegenden Offenbarung werden hier im Zusammenhang mit der Oberflächencharakterisierung unter Umständen beschrieben, in denen Oberflächenmerkmale optisch schwierig zu erkennen sind und/oder in denen polarisationsbasierte Bildgebungsverfahren Informationen über die Oberflächennormalität liefern, die sonst nur schwer zu erhalten sind, wobei die Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt sind. Beispielsweise können einige Aspekte der Ausführungsformen der vorliegenden Offenbarung auf Verfahren zur Charakterisierung der Oberflächen von Objekten angewandt werden, die aus Materialien bestehen oder Oberflächeneigenschaften aufweisen, die optisch schwierig zu erfassen sind, wie z. B. Oberflächen von lichtdurchlässigen Objekten, Objekte, die Mehrwegeffekte induzieren, Objekte, die nicht vollständig oder im Wesentlichen matt oder lambertianisch sind, und/oder sehr dunkle Objekte. Zu diesen optisch schwierigen Objekten gehören Objekte und deren Oberflächeneigenschaften, die mit Hilfe von Bildern, die von Kamerasystemen aufgenommen werden, die nicht auf die Polarisation des Lichts reagieren, schwer aufzulösen oder zu erkennen sind (z. B. auf der Grundlage von Bildern, die von Kameras ohne Polarisationsfilter im optischen Pfad aufgenommen wurden, oder bei denen verschiedene Bilder nicht auf unterschiedlichen Polarisationswinkeln basieren). Diese Oberflächenmerkmale können beispielsweise ein Aussehen oder eine Farbe haben, die den Oberflächen, auf denen die Merkmale auftreten, sehr ähnlich sind (z. B. haben Dellen die gleiche Farbe wie das darunter liegende Material, und Kratzer auf transparenten Materialien wie Glas können ebenfalls im Wesentlichen transparent sein). Auch wenn Ausführungsformen der vorliegenden Offenbarung im Zusammenhang mit der Erkennung von optisch schwierigen Oberflächenmerkmalen beschrieben werden, sind Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt, nur optisch schwierige Oberflächenfehler zu erkennen. In einigen Ausführungsformen ist beispielsweise ein Prädiktor 750 so konfiguriert (z. B. wird ein statistisches Modell unter Verwendung von Trainingsdaten trainiert), dass er sowohl optisch schwierige Oberflächenmerkmale als auch Oberflächenmerkmale erkennt, die ohne Verwendung von Polarisationsinformationen robust detektierbar sind.
  • Die Polarisation kann zur Erkennung von Oberflächencharakteristiken oder - merkmalen verwendet werden, die bei alleiniger Verwendung von Intensitätsinformationen (z. B. Farbintensitätsinformationen) eine optische Herausforderung darstellen würden. Beispielsweise können mit Hilfe von Polarisationsinformationen Geometrie- und Materialveränderungen an den Oberflächen von Objekten erkannt werden. Materialveränderungen (oder Materialveränderungen), wie z. B. Grenzen zwischen verschiedenen Materialtypen (z. B. ein schwarzes metallisches Objekt auf einer schwarzen Straße oder eine farblose Flüssigkeit auf einer Oberfläche, die beide im Farbraum im Wesentlichen unsichtbar sind, aber im Polarisationsraum entsprechende Polarisationssignaturen aufweisen), können im Polarisationsraum besser sichtbar sein, da Unterschiede in den Brechungsindizes der verschiedenen Materialien Änderungen in der Polarisation des Lichts verursachen. Ebenso verursachen Unterschiede in der Spiegelung verschiedener Materialien unterschiedliche Änderungen des Polarisationsphasen-Drehwinkels, was ebenfalls zu erkennbaren Merkmalen im Polarisationsraum führt, die andernfalls ohne Verwendung eines Polarisationsfilters optisch schwierig zu erkennen wären. Dementsprechend führt dies dazu, dass der Kontrast in Bildern oder Tensoren in Polarisationsdarstellungsräumen erscheint, wo entsprechende Regionen von Tensoren, die im Intensitätsraum berechnet werden (z. B. Farbdarstellungsräume, die die Polarisation des Lichts nicht berücksichtigen), diese Oberflächenmerkmale nicht erfassen können (z. B. wenn diese Oberflächenmerkmale einen geringen Kontrast aufweisen oder in diesen Räumen unsichtbar sind). Beispiele für optisch schwierige Oberflächenmerkmale sind: die besonderen Formen der Oberflächen (z. B. der Grad der Glätte und Abweichungen von idealen oder akzeptablen physikalischen Konstruktionstoleranzen für die Oberflächen); Oberflächenrauhigkeit und Formen der Oberflächenrauhigkeitsmuster (z. B. absichtliche Ätzungen, Kratzer und Kanten in den Oberflächen von transparenten Objekten und bearbeiteten Teilen), Grate und Grate an den Kanten von bearbeiteten Teilen und Formteilen; und ähnliches. Die Polarisierung ist auch nützlich, um Objekte mit identischen Farben, aber unterschiedlichen Materialeigenschaften, wie Streuung oder Brechungsindex, zu erkennen.
  • Darüber hinaus kann, wie oben beschrieben, die Polarisation verwendet werden, um die Oberflächennormalen von Objekten basierend auf dem Grad der linearen Polarisation (DOLP) ρ und dem Winkel der linearen Polarisation (AOLP) ϕ zu erhalten, die aus den Polarisationsrohbildern basierend auf z. B. den Gleichungen (2), (3), (4) und (5) berechnet werden. Diese Oberflächennormalen liefern wiederum Informationen über die Form der Oberflächen.
  • Wie in 6B gezeigt und unter Bezugnahme auf 1B, erfasst die Verarbeitungsschaltung 100 im Verfahrensschritt 610 Polarisationsrohbilder 18 von Oberflächen in einer Szene 1. In einigen Ausführungsformen steuert die Verarbeitungsschaltung 100 beispielsweise eine oder mehrere Polarisationskameras 10 (z. B. eine oder mehrere einzelne Polarisationskameras, die in Polarisationskamera-Arrays und/oder Stereo-Polarisationskamerasystemen organisiert sein können, die mehrere Polarisationskameramodule umfassen), um Polarisationsrohbilder 18 zu erfassen, die eine Oberfläche eines Objekts in einer Szene 1 darstellen.
  • 7A ist ein Blockdiagramm eines Merkmalsextraktors 700 gemäß einer Ausführungsform der vorliegenden Erfindung. 7B ist ein Flussdiagramm, das ein Verfahren gemäß einer Ausführungsform der vorliegenden Erfindung zur Extraktion von Merkmalen aus Polarisationsrohbildern darstellt. In der in 7A gezeigten Ausführungsform umfasst der Merkmalsextraktor 700 einen Intensitätsextraktor 720, der konfiguriert ist, um ein Intensitätsbild I 52 in einem Intensitätsdarstellungsraum zu extrahieren (z. B. in Übereinstimmung mit Gleichung (7), als ein Beispiel für einen Nicht-Polarisationsdarstellungsraum), und Polarisationsmerkmalsextraktoren 730, die konfiguriert sind, um Merkmale in einem oder mehreren Polarisationsdarstellungsräumen zu extrahieren. In einigen Ausführungsformen der vorliegenden Offenbarung wird der Intensitätsextraktor 720 weggelassen und der Merkmalsextraktor extrahiert kein Intensitätsbild I 52. In der in 7A gezeigten Ausführungsform werden die in den Polarisationsdarstellungsräumen extrahierten Merkmale (z. B. DOLP ρ und AOLP ϕ) einem Oberflächennormalenberechner 780 zugeführt, um Oberflächennormalen 58 von Objekten in der Szene zu berechnen.
  • Wie in 7B gezeigt, kann die Extraktion von Polarisationsbildern im Verfahrensschritt 650 das Extrahieren eines ersten Tensors in einem ersten Polarisationsdarstellungsraum aus den Polarisationsrohbildern aus einem ersten Stokes-Vektor im Verfahrensschritt 651 umfassen. Im Verfahrensschritt 652 extrahiert der Merkmalsextraktor 700 ferner einen zweiten Tensor in einem zweiten Polarisationsdarstellungsraum aus den Polarisationsrohbildern. Beispielsweise können die Polarisationsmerkmalsextraktoren 730 einen DOLP-Extraktor 740 umfassen, der konfiguriert ist, um ein DOLP-p-Bild 54 (z. B. ein erstes Polarisationsbild oder einen ersten Tensor gemäß Gleichung (8) mit DOLP als erstem Polarisationsdarstellungsraum) zu extrahieren, und einen AOLP-Extraktor 760, der konfiguriert ist, um ein AOLP-ϕ-Bild 56 (z. B, ein zweites Polarisationsbild oder einen zweiten Tensor gemäß Gleichung (9), mit AOLP als zweitem Polarisationsdarstellungsraum) aus den gelieferten Polarisationsrohbildern 18 zu extrahieren. Darüber hinaus extrahiert das Merkmalsextraktionssystem 700 in verschiedenen Ausführungsformen zwei oder mehr verschiedene Tensoren (z. B. n verschiedene Tensoren) in zwei oder mehr Darstellungsräumen (z. B. n Darstellungsräumen), wobei der n-te Tensor im Verfahrensschritt 614 extrahiert wird. Wie oben beschrieben, extrahieren die Polarisationsmerkmalsextraktoren 730 in einigen Ausführungsformen der vorliegenden Offenbarung Polarisationsmerkmale in Polarisationsdarstellungsräumen, die sowohl lineare Polarisationsdarstellungsräume (z. B. Tensoren in den oben erwähnten AOLP- und DOLP-Darstellungsräumen, die aus Polarisationsrohbildern extrahiert werden, die mit einem linearen Polarisationsfilter erfasst wurden) als auch zirkulare Polarisationsdarstellungsräume (z. B. Tensoren, die aus Polarisationsrohbildern extrahiert werden, die mit einem zirkularen Polarisationsfilter erfasst wurden) umfassen. In verschiedenen Ausführungsformen umfassen die Darstellungsräume Polarisationsdarstellungsräume, sind aber nicht auf diese beschränkt.
  • Die Polarisationsdarstellungsräume können Kombinationen von Polarisationsrohbildern in Übereinstimmung mit Stokes-Vektoren umfassen. Als weitere Beispiele können die Polarisationsdarstellungen Modifikationen oder Transformationen von Polarisationsrohbildern in Übereinstimmung mit einem oder mehreren Bildverarbeitungsfiltern (z. B. einem Filter zur Erhöhung des Bildkontrasts oder einem Entrauschungsfilter) umfassen. Die Merkmalskarten 52, 54 und 56 in ersten Polarisationsdarstellungsräumen können dann einem Prädiktor 750 zugeführt werden, um Oberflächenmerkmale basierend auf den Merkmalskarten 50 zu erfassen.
  • Während 7B einen Fall illustriert, in dem zwei oder mehr verschiedene Tensoren aus den Polarisationsrohbildern 18 in mehr als zwei verschiedenen Darstellungsräumen extrahiert werden, sind die Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt. Zum Beispiel wird in einigen Ausführungsformen der vorliegenden Offenbarung genau ein Tensor in einem Polarisationsdarstellungsraum aus den Polarisationsrohbildern 18 extrahiert. Beispielsweise ist ein Polarisationsdarstellungsraum von Rohbildern AOLP ϕ und ein anderer ist DOLP ρ (z. B. kann in einigen Anwendungen AOLP für die Erkennung von Oberflächenmerkmalen transparenter Objekte oder von Oberflächenmerkmalen anderer optisch schwieriger Objekte, wie durchscheinende, nicht lambertianische, mehrweginduzierende und/oder nicht reflektierende Objekte, ausreichend sein).
  • Darüber hinaus werden, wie oben in Bezug auf 7A erläutert, in einigen Ausführungsformen der vorliegenden Offenbarung ein oder mehrere Merkmalsvektoren basierend auf aus anderen Darstellungsräumen berechneten Merkmalen berechnet. In dem in 7A gezeigten Beispiel berechnet der Oberflächennormalen-Rechner 780 die Oberflächennormalen von Oberflächen in der abgebildeten Szene 1 im Oberflächennormalen-Raum (z. B. Azimutwinkel θ_a und Zenitwinkel θ_z) basierend auf den berechneten Tensoren AOLP ϕ und DOLP ρ. In einigen Ausführungsformen werden die Oberflächennormalen mit kartesischen Koordinaten kodiert (z. B. ein dreidimensionaler Vektor, der die Richtung der Oberflächennormalen angibt). Die berechneten Oberflächennormalen 58 können zu den Merkmalen 50 gehören, die durch den Merkmalsextraktor 700 extrahiert werden.
  • Dementsprechend werden durch die Extraktion von Merkmalen wie Polarisationsmerkmalen, Polarisationsbildern und/oder Oberflächennormalen aus Polarisationsrohbildern 18 erste Tensoren 50 erzeugt, aus denen optisch schwierige Oberflächencharakteristiken aus Bildern von Oberflächen der zu untersuchenden Objekte erfasst werden können. In einigen Ausführungsformen können die vom Merkmalsextraktor 700 extrahierten ersten Tensoren explizit abgeleitete Merkmale sein (z. B. handgefertigt von einem menschlichen Designer), die sich auf zugrundeliegende physikalische Phänomene beziehen, die in den Polarisationsrohbildern gezeigt werden können (z. B. die Berechnung von AOLP- und DOLP-Bildern in linearen Polarisationsräumen und die Berechnung von Tensoren in zirkularen Polarisationsräumen, wie oben beschrieben). In einigen zusätzlichen Ausführungsformen der vorliegenden Offenbarung extrahiert der Merkmalsextraktor 700 andere Nicht-Polarisations-Merkmalskarten oder Nicht-Polarisationsbilder, wie Intensitätskarten für verschiedene Lichtfarben (z. B. rotes, grünes und blaues Licht) und Transformationen der Intensitätskarten (z. B. Anwendung von Bildverarbeitungsfiltern auf die Intensitätskarten). In einigen Ausführungsformen der vorliegenden Offenbarung berechnet der Merkmalsextraktor 700 ferner Oberflächennormalen von Oberflächen, die durch die Polarisationsrohbilder dargestellt werden, in Übereinstimmung mit Form aus Polarisationstechniken, wie oben beschrieben. In einigen Ausführungsformen der vorliegenden Offenbarung kann der Merkmalsextraktor 700 konfiguriert sein, um ein oder mehrere Merkmale zu extrahieren, die automatisch erlernt werden (z. B. Merkmale, die nicht manuell von einem Menschen festgelegt werden), und zwar durch einen durchgängig überwachten Trainingsprozess basierend auf markierten Trainingsdaten. In einigen Ausführungsformen können diese gelernten Merkmalsextraktoren tiefe faltende neuronale Netze umfassen, die in Verbindung mit herkömmlichen computerbasierten Seh-Filtern verwendet werden können (z. B. eine Haar-Wavelet-Transformation, ein Canny-Kantendetektor, ein Tiefe-vom-Stereo-Rechner durch Block-Matching und dergleichen).
  • In einigen Ausführungsformen der vorliegenden Offenbarung implementiert der Prädiktor 750 einen oder mehrere klassische computerbasierte Seh-Algorithmen (z. B. Tiefe aus Stereo unter Verwendung von Block-Matching) basierend auf den ersten Tensoren 50.
  • In einigen Ausführungsformen der vorliegenden Offenbarung implementiert der Prädiktor 750 einen Bildsegmentierungsalgorithmus, z. B. durch Einbeziehung eines trainierten faltenden neuronalen Netzes. Die Bildsegmentierung bezieht sich auf die Kennzeichnung von Pixeln basierend auf der Klasse des im Pixel enthaltenen Objekts. Herkömmliche Algorithmen sind an konventionelle Rot-Grün-Blau-Kanal- (RGB) oder Graukanal-Informationen (im Folgenden RGB/Grau) angepasst und verwenden RGB/Grau-Bildgradienten, um Entscheidungsgrenzen zu erzwingen. Bei vielen industriellen Anwendungen sind RGB-/Graubildgradienten möglicherweise nicht vorhanden. Ein Beispiel ist ein Foto eines schwarzen Autos auf einer schwarzen Straße. Es ist schwierig, diese Szene zu segmentieren, um das Auto von der Straße zu trennen. Durch die Erfassung sowohl von RGB/Grau-Gradienten als auch von polarimetrischen Gradienten unter Verwendung von Polarisationskamerasystemen gemäß den Ausführungsformen der vorliegenden Offenbarung können jedoch computerbasierte Seh-Systeme auf der Grundlage der kombinierten RGB/Grau- und Polarisationshinweise (z. B. einschließlich der aus den Polarisationshinweisen berechneten Oberflächennormalen) trainiert werden, um eine semantische Segmentierung von Bildern unter Bedingungen durchzuführen, die bei der Verwendung von nur RGB/Grau-Bildern eine optische Herausforderung darstellen würden. Wie hierin verwendet, sind faltende neuronale Netze, die konfiguriert sind, um Polarisationsmerkmale als Eingabe zu nehmen (z. B., Merkmale in Polarisations-Merkmalsräumen, wie sie aus Polarisationsrohbildern durch den Merkmalsextraktor 700 extrahiert werden, wie z. B. AOLP ϕ, DOLP ρ und/oder Oberflächennormalen, die basierend auf AOLP und DOLP berechnet werden), werden hier als polarisierte CNNs bezeichnet, wie das Polarized Mask R-CNN, das oben und in U. S. Provisional Patent Application No. 62/942,113 , eingereicht beim United States Patent and Trademark Office am 30. November 2019 und U.S. Provisional Patent Application No. 63/001,445 , eingereicht beim United States Patent and Trademark Office am 29. März 2020 beschrieben ist.
  • Erweiterung der 3-D-Oberflächenrekonstruktion mit Polarisationsbildgebung
  • Einige Aspekte von Ausführungsformen der vorliegenden Offenbarung beziehen sich auf die Wiederherstellung von qualitativ hochwertigen Rekonstruktionen von geschlossenen Objekten. In einigen Ausführungsformen der vorliegenden Offenbarung wird die Oberflächenrekonstruktion in Verbindung mit hochwertigen dreidimensionalen (3-D) Modellen der Objekte verwendet, z. B. mit CAD-Modellen der zu scannenden Objekte, um Unklarheiten zu beseitigen, die sich aus einem polarisationsbasierten Bildgebungsverfahren ergeben. In früheren Versuchen wurden Methoden für unbekannte Geometrien entwickelt, ohne Zugang zu CAD-Modellen zu haben.
  • Das Erfassen einer qualitativ hochwertigen 3-D-Rekonstruktion eines physischen Objekts, für das bereits ein qualitativ hochwertiges 3-D-Computermodell existiert, ist in einer Vielzahl von Kontexten wichtig, wie z. B. bei der Qualitätskontrolle in der Fertigung und/oder Herstellung von Objekten. Im Falle der additiven Fertigung oder des 3D-Drucks kann ein Konstrukteur beispielsweise ein 3D-Modell eines Objekts erstellen und das 3D-Modell einem 3D-Drucker zur Verfügung stellen, der ein physisches Objekt basierend auf dem 3D-Modell herstellt. Während oder nach dem 3-D-Druckprozess kann das vom 3-D-Drucker hergestellte physische Objekt mit einem Stereo-Polarisationskamerasystem gemäß einigen Ausführungsformen der vorliegenden Offenbarung gescannt werden, und die erfassten Polarisationsdaten können zur Unterstützung der 3-D-Rekonstruktion der Oberflächen des physischen Objekts verwendet werden. Diese 3-D-Rekonstruktion kann dann in einer Software mit dem entworfenen 3-D-Modell verglichen werden, um Fehler im 3-D-Druckprozess zu erkennen. Ähnliche Techniken können auch bei anderen Herstellungsverfahren angewandt werden, z. B. zur Erstellung von 3-D-Rekonstruktionen der Formen von Objekten, die durch andere Herstellungsverfahren wie Spritzguss, Druckguss, Biegen usw. erzeugt werden.
  • Als ein Beispiel wird ein Stereo-Polarisationskamerasystem, wie das oben in Bezug auf 1E beschriebene, verwendet, um ein Objekt abzubilden, das in 3-D rekonstruiert werden soll, z. B. um ein 3-D-Modell des Objekts automatisch aus den erfassten Polarisationsrohbildern zu erstellen. Die Oberfläche des Objekts kann aufgrund praktischer Fertigungsbeschränkungen und/oder aufgrund von Mängeln im Fertigungsprozess spärliche Unregelmäßigkeiten aufweisen und ist möglicherweise nicht ideal glatt. Diese Unregelmäßigkeiten können als Hochfrequenzschwankungen auf der Oberfläche erscheinen. Hochfrequenzschwankungen (HFV) treten in 3 Fällen auf:
  • Erstens könnte es Bereiche auf der Oberfläche des Objekts geben, die gültige Hochfrequenzvariationen aufweisen (z. B. entworfen und beabsichtigt, vorhanden zu sein). Beispielsweise können bei der Nachbildung einer griechischen Büste oder Statue Details in der Nähe der Augen und Haare des gescannten 3-D-Modells auch im hochwertigen 3-D-Modell vorhanden sein, das zur Herstellung des physischen Objekts verwendet wurde.
  • Zweitens kann es Bereiche auf der Objektoberfläche geben, die aufgrund von Fehlern, Defekten oder anderen Beschädigungen der Oberfläche hochfrequente Abweichungen aufweisen. Im Falle des 3D-Drucks oder der additiven Fertigung können beispielsweise aufgrund des schichtweisen Fertigungsprozesses hochfrequente Muster entstehen, die den Oberflächen des Objekts ein „verwaschenes“ Aussehen verleihen. Ein anderes Beispiel ist ein Spritzgussverfahren, bei dem an den Stellen, an denen die beiden Teile der Form aneinanderstoßen, Nähte oder Grate im produzierten Objekt entstehen können. Diese Details werden in dem hochwertigen 3D-Modell nicht wiedergegeben.
  • Drittens können Kombinationen der ersten und der zweiten Form von Hochfrequenzvariationen in unmittelbarer Nähe zueinander auftreten (z. B. kann ein Grat in der Nähe der Haare der Büstenreplik auftreten, wodurch zusätzliche Linien in den Haaren entstehen).
  • Hochfrequenzschwankungen aufgrund von Details sind am realen Objekt erwünscht, HFVs aufgrund von Unregelmäßigkeiten dagegen nicht. Es ist jedoch wichtig, beide Arten von HFVs in der 3D-Rekonstruktion für die Zwecke der Inspektion und Profilometrie wiederherstellen zu können. Während einige dieser HFV-Details sowie Unregelmäßigkeiten von einem handelsüblichen 3D-Scanner möglicherweise nicht wiederhergestellt werden können (aufgrund der schlechten Auflösung, die sich aus Quantisierungsfehlern und anderen Rauschquellen ergibt), können Ausführungsformen der vorliegenden Offenbarung diese Fälle behandeln, wie im Folgenden näher erläutert wird. Einige beispielhafte Implementierungen können ein zusätzliches strukturiertes Beleuchtungsprojektorgerät verwenden, um das Objekt zu beleuchten, wenn das Objekt keine visuellen Merkmale aufweist. Einige Ausführungsformen der vorliegenden Offenbarung beziehen sich auf die Verwendung von passiver Beleuchtung (z. B. basierend auf der Umgebungsbeleuchtung in der Szene).
  • 8A ist eine Illustration einer griechischen Büste, die von einer beispielhaften Implementierung der in dieser Erfindung vorgeschlagenen Bildgebungseinrichtung gescannt wird. Drei Typen von HFV-Details (801A: erwünschte Details wie Haare und Augen; 801B: unerwünschte Flecken und Defekte in der Nähe der Wangen und der Nase; und 801C: eine Kombination der Fälle A und B in unmittelbarer Nähe zueinander) sind vermerkt. Diese HFVs können mit Standard-3D-Bildgebungsverfahren nicht wiederhergestellt werden. Aspekte der Ausführungsformen der vorliegenden Erfindung beziehen sich auf die Behandlung all dieser Fälle. 8B ist ein Flussdiagramm eines Verfahrens zur 3D-Oberflächenrekonstruktion unter Verwendung von Polarisation gemäß einer Ausführungsform der vorliegenden Offenbarung.
  • In einigen Ausführungsformen der vorliegenden Offenbarung werden im Verfahrensschritt 810 Polarisationsrohbilder 18 von einem Objekt aus mehreren Blickpunkten aufgenommen, z. B. mit einem Stereo-Polarisationskamerasystem, wie oben in Bezug auf 1E beschrieben. Aus jedem der aufgenommenen Rohbilder kann ein Satz von vier separaten Polarisationswinkelbildern (0, 45, 90, 135) extrahiert werden. Diese können als PC1 und PC2 bezeichnet werden. In beispielhaften Implementierungen dieses Aufbaus können die Kameras in Standard-Stereokonfigurationen (optische Achsen parallel zueinander) oder in anderen Konfigurationen (z. B. wenn sich die optischen Achsen schneiden) untergebracht sein.
  • Im Verfahrensschritt 820 können Grad und Winkel der linearen Polarisation (DOLP ρ und AOLP ϕ) aus der Stokes-Vektorformulierung für beide Kameras unter Verwendung von PC1 und PC2 wie oben beschrieben berechnet werden. Diese können als ρC1, ϕC1, ρC2 und ϕC2 bezeichnet werden. Im Verfahrensschritt 830 werden Oberflächennormalen (z. B. Zenit θz und Azimut θa) aus der Polarisation unter Verwendung der Form aus der Polarisation (SFP) mit DOLP ρ und AOLP ϕ berechnet, wie oben in Bezug auf die Gleichungen (2), (3), (4) und (5) für beide Kameras C1 und C2 (z. B. basierend auf Polarisations-Rohbildern PC1 und PC2) beschrieben. Diese Oberflächennormalen aus den beiden Blickpunkten können als NPolC1 und NPolC2 bezeichnet werden.
  • Diese Oberflächennormalen leiden jedoch unter der azimutalen θa Mehrdeutigkeit um einen Winkel von π, die durch Verwendung des CAD-Referenzmodells als Einschränkung (z. B. durch Auswahl des azimutalen Winkels θa, der zu einer Oberfläche führt, die den geringeren Abstand oder Fehler in Bezug auf das Referenzmodell aufweist) disambiguiert und korrigiert werden kann. Dementsprechend kann niederfrequentes Rauschen (z. B. Mehrdeutigkeit durch einen Winkel von π) mit Hilfe des Referenzmodells aufgelöst werden.
  • Je nachdem, ob das Objekt dielektrisch oder nicht dielektrisch ist (unter Berücksichtigung der Stärke von DOLP), kann ein geeignetes DOLP-Berechnungsmodell verwendet werden, um den Zenitwinkel wie oben beschrieben zu schätzen. In einigen Ausführungsformen kann davon ausgegangen werden, dass das Material ein Dielektrikum mit einem Brechungsindex von 1,5 ist, da der Brechungsindex von Dielektrika typischerweise im Bereich [1,3; 1,6] liegt und diese Variation eine vernachlässigbare Änderung des DOLP ρ verursacht. In Fällen, in denen das Material nicht dielektrisch ist, würde die Genauigkeit des geschätzten Zenitwinkels unter Brechungsfehlern leiden. Der Brechungsfehler im Zenit ist ein niederfrequentes Phänomen und kann daher ebenfalls korrigiert werden, indem das Referenzmodell als Grundlage für die Auflösung des Brechungsfehlers verwendet wird.
  • Die Normalen NPolC1 und NPolC2 können beide unabhängig voneinander über einen Stichprobenraum (Ω) integriert werden, um die gesamte Oberfläche des Objekts oder einen Teil der Oberfläche des Objekts wiederherzustellen (z. B. geben die Oberflächennormalen die Neigung der Oberflächen des Objekts an, so dass die Integration über die Neigungen unter Berücksichtigung der Richtung der Normalen gegenüber der orthogonalen Richtung der Neigung die zugrunde liegende Form des Objekts wiederherstellt). Die aus einer solchen Integration gewonnene Oberfläche sollte mit der durch das CAD-Referenzmodell vorgegebenen Form übereinstimmen. Unterschiede zwischen der aus der Integration gewonnenen Oberfläche und dem Referenzmodell können auf fehlerhafte Teile des physischen Objekts hinweisen.
  • Zusätzlich zur ausschließlichen Verwendung des CAD-Modells zum Auflösen von Mehrdeutigkeiten und Fehlern bei der 3D-Rekonstruktion basierend auf Polarisationsdaten von einer Polarisationskamera (oder einem Polarisationskamera-Array) beziehen sich einige Aspekte von Ausführungsformen der vorliegenden Offenbarung auf die weitere Verbesserung der Qualität der 3D-Rekonstruktion durch Erzwingen der Konsistenz der Blickpunkte zwischen den Kameras des Stereo-Polarisationskamerasystems.
  • Dementsprechend beziehen sich einige Ausführungsformen der vorliegenden Offenbarung auf die Berechnung der geschätzten Oberflächennormalen, wie oben beschrieben, durch den in 8B gezeigten Verfahrensschritt 830, während sich einige Ausführungsformen der vorliegenden Offenbarung auf die weitere Verfeinerung der geschätzten Oberflächennormalen beziehen. Noch immer Bezug nehmend auf 8B wird im Verfahrensschritt 840 das hochwertige CAD-Referenzmodell an der Orientierung des physischen Objekts ausgerichtet, basierend auf visuellen Schlüsselpunkten, die auf dem Objekt in den Polarisationsrohbildern geschätzt werden, die von den beiden Kameras PC1 und PC2 erfasst wurden. Diese Schlüsselpunkte werden mit demselben Satz von Schlüsselpunkten im CAD-Referenzmodell korreliert, um die Pose des Objekts mit sechs Freiheitsgraden (6DoF) in Bezug auf die Kameras mithilfe von Perspective-N-Point (PnP) zu erhalten (siehe z. B. Fischler, M. A.; Bolles, R. C. (1981). „Random Sample Consensus: A Paradigm for Model Fitting with Applications to Image Analysis and Automated Cartography“. Communications of the ACM. 24 (6): 381-395.) und/oder Random Sample Consensus (RANSAC). Die Verwendung mehrerer registrierter Kameras mit unterschiedlichen Blickpunkten ermöglicht eine genauere Posenrekonstruktion als die Verwendung einer einzigen Kamera mit einem einzigen Blickpunkt, obwohl Ausführungsformen der vorliegenden Offenbarung darauf nicht beschränkt sind und auch PnP mit einem Blickpunkt verwendet werden kann. Das CAD-Referenzmodell kann in die Kameraräume transformiert werden, die den verschiedenen Kameramodulen des Stereokamerasystems entsprechen (z. B. durch Transformation der Pose des CAD-Referenzmodells in die Pose des tatsächlichen physischen Objekts in Bezug auf das Kamerasystem), wodurch das Referenzmodell an das physische Objekt angepasst wird. Im Falle von zwei Kameras kann dies als CADC1 und CADC2 bezeichnet werden. Aus CADC1 und CADC2 werden dann Oberflächennormalen extrahiert (z. B. basierend auf den Ausrichtungen der Oberflächen in Bezug auf die virtuellen Kameras, die den Kameramodulen des Stereokamerasystems entsprechen). Diese Referenzflächennormalen können als NCADC1 und NCADC2 bezeichnet werden.
  • Das transformierte CAD-Referenzmodell kann dann als Orientierungshilfe zur Korrektur der hochfrequenten azimutalen π-Mehrdeutigkeit sowie des niederfrequenten Skalierungsfehlers im Zenit aufgrund der refraktiven Verzerrung verwendet werden. Die korrigierten Normalen sind aufgrund von Mehrbild-PnP zwischen den beiden Kameras konsistent, was diesen Ansatz robuster macht. Genauer gesagt werden im Verfahrensschritt 850 die geschätzten Normalen NPolC1 und NPolC2, die (im Verfahrensschritt 830) aus den Polarisationsrohbildern PC1 und PC2 der beiden Kameras berechnet wurden, anschließend korrigiert, um korrigierte Normalen Corrected NPolC1 und Corrected_NPolC2 zu berechnen. Die relativen Posen zwischen den korrigierten Normalen sollten mit der relativen Pose zwischen den Kameras (NCADC1 und NCADC2) konsistent sein. Dadurch werden zusätzliche Beschränkungen für die Konsistenz der Pose auferlegt, wodurch die SFP-Normalenkorrektur im Allgemeinen robuster wird, insbesondere im Fall von fronto-parallelen Facetten, bei denen der Zenit θz nahe bei 0° (oder 0 Radiant) liegt und die aufgrund der geringen Stärke des DOLP ρ entlang der Blickrichtung tendenziell verrauschte geschätzte Normalen aufweisen. Es ist jedoch weniger wahrscheinlich, dass eine bestimmte Facette frontal-parallel zu den beiden Kameramodulen eines Stereo-Polarisationskamerasystems liegt, da der Abstand (oder die Basislinie) zwischen den Kameramodulen gegeben ist. Dementsprechend können Regionen mit höherem DOLP-Wert ausgewählt werden, um eine robustere Oberflächennormale für Oberflächen zu erhalten, die zu einer Teilmenge der Kameramodule frontparallel sind.
  • Unter bestimmten Umständen verursacht die Spiegelung Probleme bei der Oberflächenrekonstruktion, da die Information über die Oberflächentextur aufgrund der Übersättigung der Bildintensität verloren geht. Dies führt dazu, dass die geschätzten Normalen auf einem spiegelnden Fleck stark verrauscht sind. Gemäß einigen Ausführungsformen der vorliegenden Offenbarung umfasst das Polarisationskamerasystem mehrere Kameras (z. B. zwei oder mehr), die überlappende Bereiche der Szene von mehreren Blickpunkten aus betrachten (z. B. ein Stereo-Polarisationskamerasystem), die durch eine Grundlinie voneinander getrennt sind. Der Glanz ist im Allgemeinen ein stark vom Blickpunkt abhängiges Problem. Das heißt, es ist weniger wahrscheinlich, dass die Spiegelung von allen Kameras in einer Anordnung wie der in 1E gezeigten beobachtet wird, in der verschiedene Kameras verschiedene Blickpunkte auf die Oberflächen eines Objekts haben.
  • Im Detail beziehen sich einige Aspekte der Ausführungsformen der vorliegenden Offenbarung auf die automatische Wiederherstellung robuster Oberflächennormalen, selbst bei stark spiegelnden Materialien, durch Abbildung der Oberflächen von mehreren Blickpunkten aus. Unter den meisten Beleuchtungsbedingungen ist es sehr unwahrscheinlich, dass ein bestimmter Bereich einer Oberfläche für alle Kameras in einem Stereo-Mehrblick-Kamerasystem spiegelnd erscheint.
  • Dementsprechend kann in einigen Ausführungsformen der vorliegenden Offenbarung ein Abstimmungsmechanismus verwendet werden, um Normalen von einem spiegelnden Fleck, der von einer bestimmten Kamera beobachtet wird, abzulehnen, während die Normalen von den anderen Kameras für den bestimmten Fleck ausgewählt werden, die mit größerer Wahrscheinlichkeit sowohl miteinander als auch mit dem CAD-Modell übereinstimmen. Beispielsweise können die Oberflächennormalen basierend auf den Polarisationsrohbildern berechnet werden, die von jedem der Polarisationskameramodule in der Stereo-Polarisationskameraanordnung erfasst wurden. Wenn die Oberflächennormalen, die basierend auf den Polarisationsrohbildern berechnet werden, in hohem Maße miteinander inkonsistent sind (z. B. mehr als ein Schwellenwert für den Winkelabstand), dann werden die berechneten Oberflächennormalen, die den Oberflächennormalen des Referenzmodells am nächsten liegen, als die korrekten Werte angenommen.
  • In anderen Ausführungsformen der vorliegenden Offenbarung können spiegelnde Flecken automatisch erkannt werden, indem gesättigte Pixel in den Polarisationsrohbildern identifiziert werden. Die Sättigung der Pixel deutet darauf hin, dass der betreffende Fleck möglicherweise spiegelnd ist und daher die Informationen in diesem Bereich ungenau sein können.
  • In noch anderen Ausführungsformen der vorliegenden Offenbarung umfasst das Stereokamerasystem mehr als zwei Polarisationskameramodule (z. B. drei oder mehr Polarisationskameramodule), die die Oberflächen der Objekte aus verschiedenen Blickpunkten aufnehmen. Dementsprechend kann ein Abstimmungsmechanismus verwendet werden, bei dem die Oberflächennormalen, die basierend auf den von den verschiedenen Kameras erfassten Polarisationsrohbildern berechnet werden, basierend auf der Ähnlichkeit geclustert werden (nachdem die Oberflächennormalen so transformiert wurden, dass sie einem gleichen Bezugsrahmen entsprechen, wie z. B. einem der Polarisationskameramodule). Da es unwahrscheinlich ist, dass die meisten Polarisationskameramodule Spiegelungen beobachten, sollten die meisten der berechneten Normalen innerhalb eines Fehlerbereichs konsistent sein. Dementsprechend kann der Clustering-Prozess Ausreißer in den berechneten Oberflächennormalen identifizieren, die durch spiegelnde Artefakte verursacht werden.
  • Eine Pseudocode-Beschreibung eines Algorithmus für die Korrektur von Normalen basierend auf der Abstimmung mit einem CAD-Referenzmodell wird im Folgenden ausführlicher dargestellt. Als Schreibweise:
    • N_P_C1 - Form-aus-Polarisation (SFP) Normalen in Kamera 1
    • N_P_C2 - SFP-Normalen in Kamera 2
    • N_CAD_C1 - Normalen im CAD-Referenzmodell, ausgerichtet an der Objektlage in Bezug auf Kamera 1
    • N_CAD_C2 - Normalen im CAD-Referenzmodell, ausgerichtet an der Objektlage in Bezug auf Kamera 2
    • Trans_C2_C1 - Lage von Kamera 2 in Bezug auf Kamera 1, erhalten durch extrinsische und intrinsische Kamerakalibrierung (z. B. bestimmt durch Bildkalibrierungsziele, die sowohl für Kamera 1 als auch für Kamera 2 sichtbar sind)
    • Trans_CAD_C1 - Transformation, die verwendet wird, um das CAD-Referenzmodell mit dem Objekt im Bildraum von Kamera 1 auszurichten, erhalten durch Multiview-PnP
    • Trans_CAD_C2 - Transformation, die verwendet wird, um das CAD-Referenzmodell mit dem Objekt im Bildraum von Kamera 2 auszurichten, das durch Multiview PnP erhalten wurde
    • (~) - Konsistenzoperator
  • Der Konsistenzoperator (~) kann als eine Abstandsmetrik (z.B. eine auf Cosinusähnlichkeit basierende Winkeldistanzmetrik) modelliert werden, die zwischen den auf Konsistenz verglichenen Normalen berechnet wird. Wenn der Winkelabstand kleiner als ein Schwellenwert ist, sind die verglichenen Normalen miteinander konsistent, andernfalls nicht (!~). Die zu vergleichenden Normalen werden in denselben Koordinatensatz transformiert (in diesem Fall in den Master-Kamera- oder Kamera 1-Bildraum), wobei die oben aufgeführten Transformationen verwendet werden, bevor der Konsistenzoperator (~) angewendet wird.
  • Pseudocode-Implementierung der Abstimmung basierend auf dem vorherigen CAD-Referenzmodell:
  • Für jede Pixelnormale in N_P_C1 (Master-Kamera-Bildraum, in diesem Fall Kamera 1):
    • # Fall 1: SFP-Normalen in beiden Kameras sind konsistent mit CAD (keine Mehrdeutigkeit)
             if (N_P_C1~ N_P_C2) && (N_P_C1 ~ N_CADC1) && (N_P_C2 ~
        N_CAD_C2) then:
                  retain N_P_C1 or Trans-C2_C1*(N_P_C2) abhängig davon, welche der
        beiden Kameranormalen besser mit dem CAD-Modell übereinstimmt
    • # Fall 2: SFP-Normalen in den zwei Kameras stimmen miteinander überein, aber beide stimmen nicht mit dem CAD-Normal überein (HFV-Fleck/Defekt auf der Oberfläche)
             else if (N_P_C1 ~ N_P_C2) && (N_P_C1 !~ N_CAD_C1) && (N_P_C2 !~
        N_CAD_C2) then:
                  retain N_P_C1
    • # Fall 3: SFP-Normalen in nur einer der Kameras stimmen mit CAD überein (Problem mit Spiegelungen / Frontalparallelität in der anderen Kamera)
             else if (N_P_C1 ~ N_CAD_C1) && (N_P_C2 !~ N_CAD_C2) then:
                   retain N_P_C1 #Spekularität / Front-zu-Parallel-Facette Problem in
        Kamera 2
             else if (N_P_C2 ~ N_CAD_C2) && (N_P_C1 !~ N_CAD_C1) then: 
                   retain Trans-C2_C1*(N_P_C2) #Spekularität / Front-zu-Parallel-Facette
        Problem in Kamera 1
    • # Fall 4: SFP-Normalen in beiden Kameras sind sowohl untereinander als auch mit CAD inkonsistent
             else if (N_P_C1 !~ N_CAD_C1) && (N_P_C2 !~ N_CAD_C2) &&
        (N_P_C1 !~ N_P_C2) then:
                  retain N_CAD_C1
  • In einigen Ausführungsformen der vorliegenden Offenbarung werden die korrigierten Oberflächennormalen Corrected_N_(PolC1) und Corrected_N_(Pol_C2) über den Abtastraum (Ω) integriert, um eine 3-D-Rekonstruktion des vom Stereo-Polarisationskamerasystem abgebildeten Objekts zu erstellen.
  • Während sich die oben beschriebenen Ausführungsformen auf die 3D-Rekonstruktion von 3D-Objekten basierend auf einem hochwertigen 3D-Modell, wie z. B. einem CAD-Konstruktionsmodell, beziehen, beziehen sich einige Aspekte der Ausführungsformen der vorliegenden Offenbarung auch auf die 3D-Rekonstruktion von allgemein flachen Oberflächen oder Oberflächen mit bekannter, einfacher Geometrie unter Verwendung eines polarisierten Mehrblick-Kamerasystems, wie es in 1E gezeigt ist. Der Fall der einfachen Geometrie kann sich auf Umstände beziehen, in denen die zu analysierenden Objekte unbekannt sind, aber beispielsweise durch flache Ebenen, Kugeln und andere einfache parametrische Kurven mit bekannter Geometrie angenähert werden können. Flache Ebenen können z. B. für viele Oberflächen in der Umgebung eines selbstfahrenden Fahrzeugs verwendet werden, wie z. B. die Oberfläche einer Straße, aber auch Wände und Schilder. Darüber hinaus können je nach der für eine bestimmte Anwendung erforderlichen Auflösung und/oder Genauigkeit viele Oberflächen als lokal flach angenähert werden.
  • 9A zeigt eine flache Oberfläche mit dem Brechungsindex n, die mit einer beispielhaften Implementierung der Bildgebungseinrichtung gemäß einer Ausführungsform der vorliegenden Erfindung abgetastet wird. Für bestimmte Anwendungen in der Profilometrie und Inspektion wird diese Oberfläche auf ihre Glätte untersucht. Im Idealfall sollte diese Oberfläche glatt sein. In der Praxis können aufgrund von Defekten/Verschleiß vereinzelte Unregelmäßigkeiten 901 an zufälligen Stellen auf dieser ansonsten ebenen Oberfläche 902 auftreten. Diese Unregelmäßigkeiten manifestieren sich als HFV-Details (High-Frequency-Variation), die mit Standard-3D-Bildgebungsverfahren aufgrund von Rauschen und schlechter Auflösung nicht wiederhergestellt werden können. Die Ausführungsformen der vorliegenden Erfindung sind jedoch in der Lage, diese HFV-Unregelmäßigkeiten wiederherzustellen, indem sie die Polarisation in Verbindung mit der Ebenheit und den Beschränkungen durch mehrere Ansichten nutzen.
  • Dementsprechend beziehen sich einige Ausführungsformen der vorliegenden Offenbarung auf das Erfassen zufälliger, spärlicher Unregelmäßigkeiten auf einer ansonsten im Wesentlichen glatten Oberfläche (z. B. einer im Wesentlichen ebenen Oberfläche). Als motivierendes Beispiel können Ausführungsformen der vorliegenden Offenbarung verwendet werden, um Schlaglöcher in einer Straße mit einem Stereo-Polarisationskamerasystem zu erfassen, so dass ein selbstfahrendes Fahrzeug diese Schlaglöcher vermeiden kann, was aufgrund der Verkehrsbedingungen sinnvoll ist. Als weiteres motivierendes Beispiel können Ausführungsformen der vorliegenden Offenbarung verwendet werden, um Oberflächendefekte in Oberflächen mit allgemein einfacher Geometrie zu erfassen, wie z. B. das Erfassen von Oberflächenunregelmäßigkeiten in der Glätte einer Glasscheibe oder in einem Metallblech.
  • In einigen Ausführungsformen der vorliegenden Offenbarung kann ein Multiview-Polarisationskamerasystem außerdem einen strukturierten Lichtprojektor 903 umfassen, der konfiguriert ist, um gemustertes Licht auf eine Szene zu projizieren, um eine zusätzliche detektierbare Oberflächentextur für die Tiefe von Stereoprozessen bereitzustellen, die zwischen den Ansichten abgeglichen werden (z. B. unter Verwendung von Blockabgleich), um Parallaxenverschiebungen zu messen. In einigen Fällen ist der Projektor für strukturiertes Licht konfiguriert, um Infrarotlicht zu projizieren, und das Kamerasystem umfasst Kameras, die konfiguriert sind, um Infrarotlicht zusammen mit Licht in anderen Spektralbändern zu erfassen. Jede nachfolgende Analyse der Oberflächen kann dann basierend auf den in den anderen Spektralbereichen gesammelten Daten durchgeführt werden, so dass das projizierte Muster nicht versehentlich als Defekt in der Oberfläche des Materials erkannt wird.
  • 9B ist ein Flussdiagramm eines Verfahrens zur 3D-Oberflächenrekonstruktion von flachen oder geometrisch einfachen Oberflächen unter Verwendung von Polarisation gemäß einer Ausführungsform der vorliegenden Offenbarung.
  • In ähnlicher Weise wie oben beschrieben, werden in einigen Ausführungsformen der vorliegenden Offenbarung im Verfahrensschritt 910 Polarisationsrohbilder 18 von einer Szene (z. B. einschließlich im Wesentlichen flacher oder glatter Oberflächen) aus mehreren Blickpunkten erfasst, beispielsweise mit einem Stereo-Polarisationskamerasystem, wie oben in Bezug auf 1E beschrieben. Aus jedem der aufgenommenen Rohbilder kann ein Satz von vier separaten Polarwinkelbildern (0, 45, 90, 135) extrahiert werden. Diese können als PC1 und PC2 bezeichnet werden. In beispielhaften Implementierungen dieses Aufbaus können die Kameras in Standard-Stereokonfigurationen (optische Achsen parallel zueinander) oder in anderen Konfigurationen (z. B. wenn sich die optischen Achsen schneiden) untergebracht sein.
  • Im Verfahrensschritt 920 werden Grad und Winkel der linearen Polarisation (DOLP p und AOLP ϕ) aus der Stokes-Vektorformulierung für beide Kameras unter Verwendung von PC1 und PC2 wie oben beschrieben berechnet. Diese können als pC1, ϕC1, pC2 und ϕC2 bezeichnet werden.
  • Im Verfahrensschritt 930 können Oberflächennormalen (z. B. Zenit θz und Azimut θa) aus der Polarisation mittels Form aus Polarisation (SFP) unter Verwendung von DOLP p und AOLP ϕ, wie oben in Bezug auf die Gleichungen (2), (3), (4) und (5) für beide Kameras C1 und C2 (z. B. auf der Grundlage von Polarisations-Rohbildern PC1 und PC2) beschrieben, erhalten werden. Abhängig davon, ob das Objekt dielektrisch oder nicht dielektrisch ist (unter Berücksichtigung der Stärke von DOLP), kann ein geeignetes DOLP-Berechnungsmodell verwendet werden, um den Zenitwinkel wie oben beschrieben zu schätzen. In einigen Ausführungsformen kann angenommen werden, dass das Material ein Dielektrikum mit einem Brechungsindex von 1,5 ist, da der Brechungsindex von Dielektrika typischerweise im Bereich [1,3; 1,6] liegt und diese Variation eine vernachlässigbare Änderung des DOLP p verursacht. In Fällen, in denen das Material nicht dielektrisch ist, würde die Genauigkeit des geschätzten Zenitwinkels unter der Brechungsverzerrung leiden.
  • Diese Oberflächennormalen aus den beiden Blickpunkten können als NPolC1 und NPolC2 bezeichnet werden. Diese Oberflächennormalen leiden jedoch unter der azimutalen θa-Mehrdeutigkeit um einen Winkel von π, die durch die Verwendung der Grobtiefenkarte als Einschränkung (z. B. durch Auswahl des azimutalen Winkels θa, der zu einer Oberfläche führt, die den kleineren Abstand oder Fehler in Bezug auf das Referenzmodell aufweist) disambiguiert und korrigiert werden kann. Dementsprechend kann niederfrequentes Rauschen (z. B. Mehrdeutigkeit durch einen Winkel von π) unter Verwendung der Grobtiefenkarte aufgelöst werden, die aus der Stereoansicht der Szene erstellt wurde.
  • Darüber hinaus wird im Verfahrensschritt 940 eine Grobtiefenkarte (CDM) basierend auf der Parallaxenverschiebung zwischen den Kamerapaaren im Stereo-Polarisationskamerasystem berechnet, basierend auf Tiefe-von-Stereo-Ansätzen (z. B. wo größere Parallaxenverschiebungen Oberflächen anzeigen, die sich näher am Kamerasystem befinden, und kleinere Parallaxenverschiebungen Oberflächen anzeigen, die weiter entfernt sind). Wie bereits erwähnt, enthält das Stereo-Polarisationskamerasystem in einigen Ausführungsformen ein Beleuchtungssystem mit strukturiertem Licht, das die Übereinstimmung der entsprechenden Bildbereiche verbessern kann, wenn die Oberflächen keine intrinsische Textur oder andere visuelle Merkmale aufweisen. Im Verfahrensschritt 940 wird die berechnete Grobtiefenkarte auch an den Bildräumen ausgerichtet, die den Blickpunkten C1 und C2 entsprechen (z. B. unter Verwendung der relativen Pose und der extrinsischen Matrizen aus der Kamerakalibrierung), wobei die Grobtiefenkarten, die diesen Bildräumen entsprechen, als CDMC1 und CDMC2 bezeichnet werden.
  • Im Verfahrensschritt 950 werden die geschätzten Normalen NPolC1 und NPolC2 basierend auf den Normalen korrigiert, die aus dem CDM NCDMC1 und NCDMC2 erhalten werden, um die korrigierten Oberflächennormalen Corrected_NPolC1 und Corrected_NPolC2 zu berechnen. In einigen Ausführungsformen der vorliegenden Offenbarung werden diese Normalen aus dem CDM unter Verwendung der in Kadambi et al. 2015 (siehe oben) beschriebenen Methode der ebenen Hauptkomponente berechnet. In einigen Ausführungsformen werden die aus dem CDM, NCDMC1 und NCDMC2 berechneten Normalen als Orientierungshilfe verwendet, um hochfrequente azimutale Mehrdeutigkeit sowie Brechungsfehler-Zenit-Verzerrung in NPolC1 zu korrigieren, wobei die Konsistenz zwischen mehreren Ansichten mit der Kamera PC2 gemeinsam berücksichtigt wird. Diese korrigierten Normalen sind auch robuster als die sonst verrauschten SFP-Normalen im Falle von frontal-parallelen Facetten sowie von Spiegelungen, wie oben beschrieben. In einigen Ausführungsformen wird auch die Ebenheitspriorität der Oberfläche (oder eine andere einfache geometrische Form der Oberfläche) zur weiteren Verfeinerung der Zenitverzerrung verwendet. Insbesondere sollten die geschätzten Normalen NPolC1 und NPolC2 im Allgemeinen flach sein, und daher sollten die Normalen der wiederhergestellten Oberfläche (abgesehen von Bereichen mit lokalen Oberflächenunregelmäßigkeiten) in jeder der Kameras ungefähr 90 Grad und parallel zueinander sein. In einigen Ausführungsformen der vorliegenden Offenbarung wird ein Abstimmungsschema verwendet, um die Korrektur der Normalen durchzuführen.
  • Im Folgenden wird eine Pseudocode-Beschreibung eines Algorithmus für die Korrektur von Normalen basierend auf einer Abstimmung mit einer flachen Oberfläche im Detail vorgestellt. Als Schreibweise:
    • N_P_C1 - Form-aus-Polarisation (SFP)-Normalen in Kamera 1
    • N_P_C2 - SFP-Normalen in Kamera 2
    • CDM - Grobtiefenkarte
    • N_CDM_C1 - Normalen in CDM im Bildraum von Kamera 1
    • N_CDM_C2 - Normalen in CDM im Bildraum von Kamera 2
    • Trans_C2_C1 - Relative Pose von Kamera 2 in Bezug auf Kamera 1, erhalten durch extrinsische und intrinsische Kamerakalibrierung
    • Trans_CDM_C1 - Transformation zur Ausrichtung des CDM auf das Objekt im Bildraum von Kamera 1
    • Trans_CDM_C2 - Transformation zur Ausrichtung des CDM mit dem Objekt im Bildraum von Kamera 2
    • (~) - Konsistenz-Operator
    • obeys_flatness() - Operator, der prüft, ob die ausgewählten Normalen einer Ebenheitsbedingung entsprechen.
  • Der Konsistenzoperator (~) kann als eine Abstandsmetrik (z. B. eine auf Cosinusähnlichkeit basierende Winkeldistanzmetrik) modelliert werden, die zwischen den auf Konsistenz verglichenen Normalen berechnet wird. Ist der Winkelabstand kleiner als ein Schwellenwert, sind die verglichenen Normalen miteinander konsistent, andernfalls nicht (!~). Die zu vergleichenden Normalen werden mit Hilfe der oben aufgeführten Transformationen in denselben Koordinatenrahmen transformiert (in diesem Fall in den Master-Kamera- oder Kamera 1-Bildraum), bevor der Konsistenzoperator (~) angewendet wird
  • Pseudocode-Implementierung der Abstimmung basierend auf der Ebenheitspriorität:
  • Für jedes normale Pixel in N_P_C1:
    • # Fall 1: SFP-Normalen in beiden Kameras sind konsistent mit CDM und erfüllen die Ebenheitsbedingungen (keine Mehrdeutigkeit)
             if (N_P_C1 ∼ N_P_C2) && (N_P_C1 ~ N_CDM_C1) && (N_P_C2 ~
        N_CDM_C2) && obeys_flatness(N_P_C1)==True &&
        obeys _flatness(N_P_C2)==True then:
                    retain N_P_C1 or Trans_C2_C1 (N_P_C2) je nachdem, welche der
        beiden Kameranormalen besser mit dem CDM und der Ebenheitsbedingung
        übereinstimmen (konsistent sind)
    • # Fall 2: SFP-Normalen in den beiden Kameras sind miteinander konsistent, aber beide sind inkonsistent mit CDM-Normalen (HFV-Fleck/Defekt auf der Oberfläche)
             else if (N_P_C1 ~ N_P_C2) && (N_P_C1 !~ N_CDM_C1) && (N_P_C2 !~
        N CDM C2) then:
                  retain N_P_C1
    • # Fall 3: SFP-Normalen in nur einer der Kameras sind konsistent mit CDM und Ebenheitsbeschränkungen (Spiegelung/Front-Parallel-Problem in der anderen Kamera)
             else if (N_P_C1 ~ N_CDM_C1) && (N_P_C2 ! ~ N_CDM_C2) &&
        obeys_atness(N_P_C1)==True then:
                   retain N_P_C1 #Spekularität / Front-zu-Parallel-Facette Problem in
        Kamera 2
             else if (N_P_C2 ~ N_CDM_C2) && (N_P_C1 !~ N CDM C1) &&
        obeys_flatness(N_P_C2)==True then:
                   retain Trans_C2_C1 (N_P_C2) #Spekularität / Front-zu-Parallel-Facette
        Problem in Kamera 1
    • # Fall 4: SFP-Normalen in beiden Kameras sind sowohl untereinander als auch mit CDM inkonsistent
             else if (N_P_C1! ∼ N_CDM_C1) && (N_P_C2 ! ∼ N_CDM_C2) &&
        (N_P_C1 ! ∼ N_P_C2) then:
                   retain N_CDM_C1
  • In einigen Ausführungsformen werden die korrigierten Oberflächennormalen Corrected_N-(Pol_C1) und Corrected_N_(Pol_C2) verwendet, um die Form des Oberflächenobjekts zu rekonstruieren. In einigen Ausführungsformen kann beispielsweise ein Algorithmus zur Umkehrung einer dünnbesetzten Matrix angewendet werden (wie in Kadambi et al. 2015 beschrieben), um die korrigierten Tiefenkoordinaten der Oberfläche zu schätzen. Diese revidierten Tiefenkoordinaten haben eine höhere Auflösung als die ursprüngliche Tiefe, die mit Standard-3D-Bildgebungsverfahren (Stereo, Flugzeit usw.) ermittelt wurde.
  • Oberflächendefekte und -unregelmäßigkeiten können dann basierend auf dem Erfassen von Normalen erfasst werden, die verrauscht oder fehlerhaft sind oder die auf andere Weise die Lagekonsistenz zwischen den verschiedenen Kameramodulen des Stereo-Polarisationskamerasystems beeinträchtigen. Unter bestimmten Umständen sind diese spärlichen Unregelmäßigkeiten besonders offensichtlich, da sie in den für jede der Ansichten berechneten DOLP-Bildern in unterschiedlichen Anteilen auffallen. Mit anderen Worten: Teile der Normalskala, die gegen die Annahme der Ebenheit oder anderweitigen Glätte der Oberfläche verstoßen, können in Wirklichkeit nicht glatte Oberflächen sein, was die Erfassung spärlicher Unregelmäßigkeiten in einer Oberfläche ermöglicht, von der angenommen wird, dass sie generell glatt ist.
  • Erweiterung aktiver Abtastsysteme wie Lidar, Radar, Time-of-Flight und strukturierte Beleuchtung mit Polarisationsbildgebung
  • Einige Aspekte von Ausführungsformen der vorliegenden Offenbarung beziehen sich auf die Erweiterung aktiver Abtastsysteme basierend auf Polarisationsmerkmalen wie dem Grad der linearen Polarisation (DOLP) und dem Winkel der linearen Polarisation (AOLP), die aus Polarisationsrohbildern berechnet werden, die von Polarisationskamerasystemen erfasst werden. Unter bestimmten Umständen kann die Erweiterung einer Bildgebungsmodalität oder die Kombination mehrerer Bildgebungsmodalitäten als Sensorfusion bezeichnet werden.
  • Als ein motivierendes Beispiel für die Erweiterung aktiver Abtastsysteme umfassen einige autonome Fahrerassistenzsysteme (ADAS) Abtastsysteme, um Informationen über die Fahrumgebung zu erfassen und dem Fahrer Funktionen wie Auffahrwarnung (FCW), automatische Notbremsung (AEB), adaptive Geschwindigkeitsregelung (ACC) und Spurhalteassistent (LDW) zur Verfügung zu stellen. Im Allgemeinen reagieren diese ADAS-Funktionen auf Objekte und die Umgebung auf einer Makroebene, wobei das Sensorsystem des Fahrzeugs in der Lage ist, größere Objekte oder Merkmale auf der Straße wie andere Fahrzeuge und Fahrspurtrennungszeichen zuverlässig zu erkennen. Die Fähigkeit, kleinere Fahrzeuge wie Motorräder und Radfahrer zu erkennen, ist jedoch möglicherweise nicht so robust. Außerdem können kleine Objekte und Hindernisse wie Steine, Nägel, Schlaglöcher und Verkehrskegel von den Sensorsystemen solcher ADAS-Fahrzeuge nicht erkannt werden. Ähnliche Probleme können sich bei autonomeren oder selbstfahrenden Fahrzeugen ergeben, die von der Fähigkeit profitieren würden, eine größere Vielfalt potenzieller Gefahren auf der Straße zu erkennen und zu umfahren und Schäden an anderen Menschen, Tieren oder Gegenständen zu vermeiden. In Abwesenheit einer solchen Fähigkeit können die heutigen autonomen Fahrsysteme nicht den Anspruch erheben, eine sicherere Alternative zu bieten, da ein aufmerksamer Fahrer in vielen Fällen proaktiver vorgehen kann, um Gefahren zu erkennen und bei Bedarf korrigierend einzugreifen.
  • Dementsprechend beziehen sich einige Aspekte der vorliegenden Offenbarung auf die Erweiterung von Erfassungssystemen unter Verwendung von Polarisation, um die Erkennung von kleinen und/oder optisch schwierigen Objekten in einer Szene zu verbessern.
  • 10A ist ein schematisches Diagramm eines Systems, in dem ein aktives Abtastsystem mit einem Polarisationskamerasystem gemäß einer Ausführungsform der vorliegenden Offenbarung erweitert wird. In der in 10A gezeigten Ausführungsform ergänzt ein Polarisationskamerasystem 1010, das konfiguriert ist, um Polarisationsrohbilder 1018 zu erfassen (z. B. eine einzelne Polarisationskamera, die konfiguriert ist, um verschiedene Bilder zu erfassen, die verschiedenen Polarisationszuständen entsprechen, ein Polarisationskamera-Array oder ein Stereo-Polarisationskamerasystem, wie oben beschrieben), ein aktives Erfassungssystem 1020. Das aktive Erfassungssystem umfasst einen aktiven Sender 1022, der konfiguriert ist, um Wellen (z. B. elektromagnetische Wellen oder Schallwellen) in Richtung einer Szene 1001 zu emittieren, die verschiedene Objekte 1002 und 1003 enthält, wobei die Reflexionen 1004 der Wellen von den Oberflächen der Objekte 1002 und 1003 durch einen Detektor 1024 des aktiven Erfassungssystems 1020 erfasst werden.
  • Im Falle eines Radarsystems kann der aktive Sender 1022 beispielsweise elektromagnetische Wellen im Hochfrequenz- oder Mikrowellenbereich aussenden, und der Detektor 1024 kann eine Antennengruppe enthalten, die konfiguriert ist, um das reflektierte Signal zu erfassen. Im Falle eines Lidar- und/oder Flugzeit-Tiefenkamerasystems kann der aktive Sender 1022 einen Laser enthalten, der konfiguriert ist, um Licht in die Szene 1001 zu emittieren (z. B. durch Scannen des Lasers über die Szene 1001 oder durch Blinken des Lichts über die Szene) und die Tiefe basierend auf der Zeit zu berechnen, die vergeht, bis reflektiertes Licht empfangen wird. Im Falle eines aktiven Stereotiefenkamerasystems kann der aktive Sender 1022 strukturiertes Licht oder gemustertes Licht auf die Szene emittieren, und der Detektor 1024 ist konfiguriert, um Licht in der vom aktiven Sender 1022 emittierten Wellenlänge (z. B. Infrarotlicht) zu erfassen. Das Verarbeitungssystem 1030 kann konfiguriert sein, um sowohl das Polarisationskamerasystem 1010 als auch das aktive Erfassungssystem 1020 zu steuern, einschließlich der Steuerung des Polarisationskamerasystems 1010 und/oder des aktiven Erfassungssystems 1020, um Daten zu erfassen und Rohdaten zu empfangen, die von dem Polarisationskamerasystem 1010 und dem aktiven Abtastsystem 1020 erfasst wurden, um Objekte zu erkennen oder anderweitig eine Szene zu analysieren.
  • Wie oben beschrieben, können optisch anspruchsvolle Objekte in vielen Fällen für vergleichende oder Standard-Kamerasysteme, die keine Informationen bezüglich der Polarisation von Licht erfassen, im Wesentlichen unsichtbar sein. Andererseits kann die Erfassung von Polarisations-Rohbildern von Szenen und die Berechnung von Polarisationsinformationen aus den Polarisationsrohbildern den Kontrast von optisch anspruchsvollen Objekten in einer Szene erhöhen, da diese optisch anspruchsvollen Objekte unverwechselbare Polarisationssignaturen aufweisen können (z. B. im Fall einer transparenten Glaskugel, glänzendem Metall auf dem Boden und dergleichen).
  • Dementsprechend beziehen sich einige Aspekte der Ausführungsformen der vorliegenden Offenbarung auf die Verwendung eines Prädiktors 750, der konfiguriert ist, um erste Tensoren 50 in Polarisationsmerkmalsräumen als Eingabe zu empfangen (z. B. ein trainiertes Polarisations-CNN), um optisch schwierige Objekte in einer Szene zu identifizieren und eine Charakterisierungsausgabe 20 wie eine Segmentierungskarte zu erzeugen, die mit den Ausgaben anderer Sensoren, die an derselben Szene arbeiten, kombiniert oder verschmolzen werden kann (z. B., Radar- und/oder Lidar-Daten, die die Entfernungen und Geschwindigkeiten verschiedener Objekte in einer Szene zeigen, eine Tiefenkarte, die basierend auf einem RGB-/Graustufen-basierten Kamerasystem berechnet wird, oder eine Segmentierungskarte, die von einem RGB-/Graustufenbasierten Kamerasystem berechnet wird).
  • In Fortsetzung des obigen Beispiels für ADAS und automatisiertes Fahren für Fahrzeuge wird ein Polarisations-CNN trainiert, um Straßenhindernisse auf Mikroebene, in unübersichtlichen Umgebungen, von optisch anspruchsvollen Objekten wie glänzendem Metall und Glas sowie anderen Objekten zu erfassen, die sich als gefährlich erweisen können, wie semantisch inkonsistente Objekte, die flüchtig und noch gefährlicher sind, wie Felsen, Wasser, Eis oder Ölflecken auf der Straße. Diese stellen gefährliche und unerwartete Straßenzustände dar, die zur Vorsicht mahnen. Dementsprechend ermöglicht die Verschmelzung der großflächigen, groben Daten von aktiven Erfassungssystemen wie Lidar und Radar mit Segmentierungskarten, die mittels Polarisationsmerkmalen berechnet werden, ADAS- und automatisierte Fahrsysteme eine breitere Objektspanne in einer Fahrumgebung zu erfassen, von großflächigen Fahrzeugen bis hin zu mikroskopisch kleinen Nägeln, flachen Metallplatten und dergleichen.
  • Wie oben erwähnt, sind Lidar- und Radarsysteme im Allgemeinen darauf beschränkt, spärliche Punktwolken von Informationen über die Szene zu erzeugen. Insbesondere kann der aktive Sender 1022 der aktiven Abtastvorrichtung 1020 verschiedenen physikalischen Beschränkungen unterliegen, die einen Kompromiss zwischen der Breite der Abdeckung (z.B. Raumwinkel, der vom aktiven Sender 1022 abgedeckt wird), der Auflösung und der Latenzzeit erzwingen. Physikalische Beschränkungen können beispielsweise die Geschwindigkeit begrenzen, mit der ein Lasersender eines Lidars eine Szene abtasten kann, und eine schnellere Abtastung führt dazu, dass weniger Lichtstrahlen in einen Bereich der Szene emittiert werden, wodurch das vom Detektor 1024 für einen bestimmten Winkel empfangene Signal reduziert wird. Ein langsamerer Abtastvorgang kann die Zeit zwischen aufeinanderfolgenden Abtastungen eines Bereichs verlängern (oder die Bildrate der Daten verringern), wodurch sich die Latenzzeit erhöht, was bei Anwendungen, die eine Echtzeitsteuerung erfordern, zu Problemen führen kann. Bei aktiven Stereotiefensensoren strahlt ein Projektor mit strukturiertem Licht ein Lichtmuster auf eine Szene ab, das Punkte und/oder Linien enthalten kann, wobei lokale Flecken im gesamten Muster eindeutig sind. Die Winkelauflösung des Systems wird jedoch durch die Auflösung des Punktmusters eingeschränkt.
  • Daher beziehen sich einige Aspekte der Ausführungsformen der vorliegenden Offenbarung auf die Erzeugung von 3-D-Modellen höherer Qualität durch die Verschmelzung von spärlichen Punktwolken, die von aktiven 3-D-Scansystemen erfasst werden, mit Oberflächennormalen, die aus Polarisationsdaten berechnet werden, die von einem Polarisationskamerasystem erfasst werden.
  • 10B ist ein Flussdiagramm, das ein Verfahren 1050 zum Verschmelzen des von einem aktiven 3D-Scannersystem erfassten 3D-Modells mit den von einer Polarisationskamera erfassten Oberflächennormalen gemäß einer Ausführungsform der vorliegenden Offenbarung darstellt. Mit Bezug auf 10B steuert ein Verarbeitungssystem 1030 im Verfahrensschritt 1051 einen aktiven Scanner 1020 (z.B. Lidar, Radar, aktives Stereo, Time-of-Flight, etc.), um eine Punktwolke einer Szene 1001 zu erfassen. Im Verfahrensschritt 1052 steuert das Verarbeitungssystem 1030 das Polarisationskamerasystem 1010, um Polarisationsrohbilder 1018 zu erfassen. In einigen Ausführungsformen werden die Verfahrensschritte 1051 und 1052 gleichzeitig ausgeführt, so dass im Wesentlichen dieselbe Szene von beiden Systemen erfasst wird (z. B. kann sich die Szene in dynamischen Situationen wie beim Fahren im Straßenverkehr aufgrund der Bewegung des Fahrzeugs, auf dem das ADAS oder das automatisierte Fahrsystem montiert ist, sowie aufgrund der Bewegung anderer Fahrzeuge und Objekte in der Umgebung kontinuierlich ändern). Im Verfahrensschritt 1053 werden Oberflächennormalen aus den Polarisationsrohbildern berechnet, z. B. durch Anwendung der oben beschriebenen Techniken (z. B. Extrahieren von Tensoren in den Darstellungsräumen AOLP ϕ und DOLP p und Berechnen von Oberflächennormalen gemäß den Gleichungen (2), (3), (4) und (5)). Im Verfahrensschritt 1054 werden die Oberflächennormalen über den Abtastraum integriert, um eine 3-D-Oberfläche zu berechnen, und im Verfahrensschritt 1055 wird die 3-D-Oberfläche, die basierend auf den Oberflächennormalen berechnet wurde, in Übereinstimmung mit den Einschränkungen der spärlichen Punktwolke, die durch den aktiven Scanner 1020 erfasst wurde, korrigiert, um ein 3-D-Modell der Szene zu erzeugen, das von höherer Qualität ist als die Punktwolke, die durch den allein arbeitenden aktiven Scanner 1020 erfasst wurde.
  • Einige Aspekte von Ausführungsformen der vorliegenden Offenbarung beziehen sich ferner auf die Erzeugung von 3D-Modellen höherer Qualität einer Szene durch Strahlsteuerung des aktiven Scanners 1020, um Scans mit höherer Auflösung von bestimmten Bereichen von Interesse innerhalb der Szene durchzuführen. In einigen Ausführungsformen der vorliegenden Offenbarung ist ein Prädiktor 750 konfiguriert, um Bereiche von Interesse innerhalb einer bestimmten Szene zu identifizieren. In einigen Ausführungsformen wird zum Beispiel ein polarisiertes faltendes neuronales Netz trainiert, um eine Segmentierungsmaske zu berechnen, die Bereiche von Interesse identifiziert, basierend auf markierten Trainingsdaten. Um das Beispiel der Sensoren für ADAS und automatisierte Fahrsysteme fortzusetzen, kann ein Polarisations-CNN trainiert werden, um Objekte von Interesse in einer Szene zu identifizieren, die mit einem vergleichenden aktiven Abtastsystem, das allein mit seinem aktiven Sender 1022, der konfiguriert ist, um einen breiten Strahl zu emittieren, schwer zu erfassen oder zu analysieren sind (z. B. kleine Fahrzeuge wie Motorräder und Fahrräder, kleine und mittelgroße Objekte wie Verkehrskegel, Ketten und andere leichte Barrieren und dergleichen).
  • 10C ist ein Flussdiagramm, das ein Verfahren zur Erweiterung eines aktiven Erfassungssystems mittels Polarisation gemäß einer Ausführungsform der vorliegenden Offenbarung zeigt. Wie in 10C gezeigt, steuert das Verarbeitungssystem 1030 gemäß einem Verfahren 1060 das Polarisationskamerasystem 1010, um Polarisationsrohbilder im Verfahrensschritt 1061 zu erfassen. Im Verfahrensschritt 1062 identifiziert das Verarbeitungssystem 1030 Bereiche von Interesse in den Polarisationsrohbildern, z. B. durch Extrahieren von Polarisationsmerkmalen (oder Tensoren in Polarisationsdarstellungsräumen) aus den Polarisationsrohbildern und Liefern der Polarisationsmerkmale an ein polarisiertes faltendes neuronales Netz, das darauf trainiert ist, Objekte und Bereiche von Interesse für einen bestimmten Anwendungsfall zu identifizieren. Im Verfahrensschritt 1063 steuert das Verarbeitungssystem 1030 das aktive Scansystem (z. B. steuert es die Richtung und/oder den Raumwinkel eines vom aktiven Sender 1022 emittierten Strahls), um die identifizierten Bereiche von Interesse zu scannen und hochauflösende aktive Scans der Bereiche von Interesse zu erzeugen. Diese aktiven Abtastungen können genauere Informationen liefern als die Ausgabe der niedrig aufgelösten, breiten Abtastungen der Szene, die vom aktiven Erfassungssystem 1020 ohne Verwendung der Strahlsteuerung durchgeführt werden, und können auch andere Informationen liefern als die, die vom Polarisationskamerasystem 1010 ermittelt werden. Beispielsweise kann das Polarisationskamerasystem 1010 hochpräzise Winkeldaten bezüglich der Richtung einer bestimmten Oberfläche oder eines Bereichs von Interesse innerhalb einer Szene liefern, ist aber möglicherweise nicht in der Lage, genaue Informationen über den Abstand oder die dreidimensionale Form der Oberfläche von Interesse zu liefern. Andererseits ermöglicht die Fokussierung oder Lenkung des von einem aktiven Strahler 1022 ausgesandten Strahls auf die Oberfläche oder den interessierenden Bereich hochpräzise Messungen dieser Oberflächen (z. B. basierend auf der Flugzeit zu Punkten innerhalb der identifizierten Bereiche). Als spezifisches Beispiel für die Strahlsteuerung kann im Falle von Lidar ein Standardabtastzyklus des Lidarsystems auf die Abtastung nur der identifizierten Bereiche von Interesse fokussiert werden, wodurch die auf diese Bereiche von Interesse abgestrahlte Energie erhöht wird und dadurch das Signal, das vom Detektor 1024 erfasst werden kann, erhöht wird. In ähnlicher Weise können beim Radar Strahlformungstechniken (z. B. unter Verwendung einer phasengesteuerten Anordnung) eingesetzt werden, um den auszusendenden Strahl breiter oder schmaler zu gestalten und die Richtung, in der die Signale ausgesendet werden, zu steuern. Bei einem aktiven Stereo-Abtastsystem kann das strukturierte Lichtmuster so fokussiert werden, dass es nur die bestimmten Bereiche von Interesse abdeckt, wodurch die Auflösung des Musters in diesen Bereichen von Interesse erhöht wird und somit ein Blockabgleich mit höherer Auflösung über die Oberflächen im Bereich von Interesse möglich ist. In einigen Ausführungsformen ist eine selektive Strahlsteuerung über mehrere Bilder durch Verfolgung in den registrierten/fusionierten Polardaten möglich. Dementsprechend kann ein gelenkter Strahl zum Beispiel höher aufgelöste 3D-Punktwolken bestimmter Bereiche von Interesse liefern. In einigen Ausführungsformen werden diese 3D-Punktwolken mit höherer Auflösung weiter verbessert, indem Oberflächennormalen verwendet werden, die aus den vom Polarisationskamerasystem 1010 erfassten Polarisationsrohbildern berechnet werden.
  • Das Erfassen von 3D-Modellen höherer Qualität von Objekten unter Verwendung aktiver Abtastsysteme (z. B. durch Strahlsteuerung und/oder durch die Verbesserung der Oberflächenformerfassung unter Verwendung von Oberflächennormalen, die aus der Polarisation berechnet werden) bietet Verbesserungen bei der Objekterfassung und -klassifizierung aufgrund von Modellen mit höherer Auflösung, die als Eingabe für den Klassifikator dienen. Ein neuronales Netz, das für die Klassifizierung von Objekten trainiert ist (z. B. für die Unterscheidung zwischen einem Hund und einem Hydranten), wird genauere Ergebnisse liefern, wenn die Eingabe für das neuronale Netz von höherer Qualität ist. Dementsprechend können Aspekte von Ausführungsformen der vorliegenden Offenbarung, die eine Sensorfusion zwischen aktiven Erfassungssystemen 1020 und Polarisationskamerasystemen 1010 implementieren, die Genauigkeit und Reaktionsfähigkeit von Objekterkennungssystemen verbessern.
  • Dateiformate mit Oberflächennormalen aus Polarisation
  • Bei den oben beschriebenen Ansätzen für die Formgebung aus der Polarisation werden Oberflächennormalen aus den von einem Polarisationsbildgebungssystem erfassten Polarisationsmerkmalen wiederhergestellt. Oberflächennormalen liefern wertvolle Informationen über die abgebildete Oberfläche, die eine breite Palette von Möglichkeiten für die visuelle Inspektion der gescannten Oberflächen eröffnen, die in verschiedenen vertikalen Fertigungsbereichen benötigt werden, wie z. B.: Fahrzeuge (z. B. Autos, Flugzeuge und Wasserfahrzeuge) und Fahrzeugteile (z. B. Reifen, Motorblöcke, Getriebe, lackierte Oberflächen usw.), 3D-Metall- oder polymerbasierter Druck, gedruckte Leiterplatten (PCBs) und einsatzkritische medizinische Geräte (z. B. Beatmungsgeräte, Pumpen, Stents und dergleichen).
  • Die Speicherung von Oberflächennormalen zusammen mit den Bildern ermöglicht eine interaktive Nachvisualisierung der gescannten Oberfläche für eine Vielzahl von Anwendungsfällen. Beispiele hierfür sind: Prüfung auf Oberflächenanomalien auf der gescannten Oberfläche; und die Möglichkeit, die gescannte Oberfläche für beliebige Lichtverhältnisse neu zu beleuchten.
  • Oberflächenprofiluntersuchungen sind wichtig, um die intrinsischen Form- und Krümmungseigenschaften von Oberflächen zu analysieren. Diese zeigen häufig ein anomales Verhalten, das bei einfachen isoparametrischen Oberflächendigitalisierungen von Objekten mit dem bloßen Auge nicht sofort erkennbar ist. Die Fähigkeit der polarisationsverstärkten Bildgebung, die Genauigkeit der Oberflächennormalen um Größenordnungen zu verbessern, kann ihre Anwendung in der Hochpräzisionsfertigung von Industrieteilen zur Erkennung von Glätte und Formtreue ermöglichen.
  • Der Bedarf an ebenen oder glatten Oberflächenformen kann durch unterschiedliche Faktoren in verschiedenen Marktsegmenten begründet sein. Im Automobilbau steht die Ästhetik im Vordergrund, während in der Flugzeug- und Schiffsbauindustrie die aerodynamische Strömung für die Treibstoffeffizienz entscheidend ist. Die Glätte von Oberflächen hängt mit vielen verschiedenen Merkmalen zusammen, wie z. B.: Kontinuität zwischen benachbarten Flächen in Bezug auf Tangenten und Krümmung, Krümmungsverteilung, flache Punkte und Konvexität, die direkt von der Differentialgeometrie der Oberfläche abhängen. Ästhetisch glatte Oberflächen können keine Unebenheiten oder Dellen aufweisen, da es sich dabei im Wesentlichen um Variationen der lokalen Krümmung handelt, die wiederum durch die Oberflächennormalen definiert sind. Die Erkennung von Oberflächenfehlern, wie z. B. das Überschreiten von Krümmungsgrenzen und starke Krümmungsvariationen, kann das Versagen von Algorithmen zur Erzeugung von Werkzeugwegen für die Steuerung des Entnahmeroboters verhindern.
  • Die Visualisierung differentieller geometrischer Merkmale wie Krümmungsverhalten, parabolische Linien und iso- oder geodätische Linien sowie deren Variationsverhalten in Gegenwart von Umgebungsreizen wie Temperatur oder Feuchtigkeit sind entscheidend für die Analyse der Oberflächeneigenschaften der gefertigten Teile unter einsatzkritischen Bedingungen. In allen oben genannten Fällen kann die Möglichkeit, die Oberfläche in Echtzeit zu scannen, die durch die polarisationsverstärkte Bildgebung gegeben ist, wesentliche Verbesserungen bei der Echtzeitüberwachung und -kontrolle bieten. In einigen Fällen bietet die Verfolgung von Oberflächennormalen in Echtzeit erhebliche Verbesserungen in der Chirurgie, indem sie dem Chirurgen Echtzeitinformationen über die induzierte oder eingebaute Belastung des operierten Oberflächengewebes (z. B. Gehirngewebe) liefert. Diese Informationen sind für Chirurgen oft von entscheidender Bedeutung, da sie nun in Echtzeit auf ihre chirurgische Pfadplanung als Reaktion auf Variationen der Oberflächenbelastung der betroffenen Bereiche reagieren können.
  • Dementsprechend beziehen sich einige Aspekte der Ausführungsformen der vorliegenden Offenbarung auf Dateiformate zur Speicherung von Informationen über Oberflächennormalen, die von Polarisationskamerasystemen erfasst wurden. Zusätzlich zur Speicherung der Oberflächennormalen der gescannten Oberfläche zusammen mit den Bildinformationen (z. B. rote, grüne, blaue und in einigen Fällen Alpha-Farbkanäle) in gängigen Dateiformaten (wie JPEG, TIFF, PNG) umfassen zusätzliche Informationen aus der Polarisation den Grad und den Winkel der Polarisation (DOLP p und AOLP ϕ). Diese zusätzlichen Informationskanäle bieten visuelle Anhaltspunkte bei der Oberflächeninspektion und sorgen oft für einen verbesserten Kontrast (selbst wenn das Originalbild aufgrund von unzureichender Belichtung oder Blendung von schlechter Qualität ist). Die Speicherung dieser Bilder in komprimierter Form bietet einen großen Spielraum bei der Erstellung visueller Überlagerungen, die ein besseres visuelles Verständnis von Oberflächenanomalien ermöglichen. Diese können auch dazu beitragen, Tiefenkarten mit einem viel höheren Präzisionsgrad zu verfeinern, als dies mit den derzeit verfügbaren konventionellen Nicht-Polarisationstechnologien möglich ist.
  • Ein Beispiel für die Speicherung von Polarisationsdaten (z. B. DOLP und AOLP) zusammen mit Farbinformationen ist die Verwendung der „Anwendungsmarker“ des JPEG File Interchange Format (JFIF). Metadaten können in JFIF unter Verwendung von sechzehn „Anwendungsmarkern“ gespeichert werden, was es einem Decoder ermöglicht, das Austauschformat zu analysieren und nur die erforderlichen Segmente der Bilddaten zu dekodieren. Obwohl der aktuelle JFIF-Standard die Anwendungsmarker auf jeweils 64 KByte begrenzt, ist es möglich, dieselbe Marker-ID mehrfach zu verwenden und auf verschiedene Speichersegmente zu verweisen. Dadurch ist es möglich, normale Oberflächeninformationen in komprimierten oder unkomprimierten Formaten zu speichern. Zusätzlich wird in einigen Ausführungsformen der vorliegenden Offenbarung einer der Anwendungsmarker verwendet, um spezifische Zusatzinformationen wie Grad und Winkel von Polarisationsbildern zu speichern. Während eine Ausführungsform der vorliegenden Offenbarung hier im Hinblick auf die Speicherung von Polarisationsdaten zusammen mit Farbbilddaten unter Verwendung des JFIF-Standards beschrieben wird, sind die Ausführungsformen der vorliegenden Offenbarung nicht darauf beschränkt.
  • In einigen Ausführungsformen werden Oberflächennormalen als dreidimensionale Vektoren dargestellt und können daher viel mehr Platz einnehmen als die Größe des Originalbildes (z. B. mehr als die Größe eines entsprechenden RGB-Farb- oder Graustufenbildes). Um Platz zu sparen, kann eine komprimierte Form der Oberflächennormale gespeichert werden, indem der Exponent auf die drei Dimensionen aufgeteilt und 8 Bits für jeden der Exponenten im Festkommaformat verwendet werden. Eine weitere Verkleinerung kann erreicht werden, indem nur die Azimut- und Zenitwinkel oder nur der DOLP und AOLP gespeichert werden, was allerdings mit einer Neuberechnung der Normalen entlang der drei Dimensionen zur Renderzeit einhergeht.
  • In einigen Ausführungsformen der vorliegenden Offenbarung wird ein bestehendes Bildformat, das in der Lage ist, Dreikanalinformationen (z. B. rote, grüne und blaue Farbinformationen) zu speichern, wiederverwendet, um dreidimensionale Oberflächennormalinformationen zu speichern. Obwohl solche Ausführungsformen möglicherweise nicht mehr in der Lage sind, Farbinformationen zu speichern (z. B. können Farbinformationen in einer separaten Datei gespeichert werden), ermöglichen diese Ansätze die Nutzung vorhandener Merkmale wie Bildkomprimierung und progressive Anzeige und erlauben auch die Verwendung vorhandener Softwaretools zum Schreiben von Daten in solche Formate und zum Auslesen von Daten aus solchen Formaten. In einigen Ausführungsformen der vorliegenden Offenbarung ist die Zuordnung zwischen den Kanälen des Bildformats und den dreidimensionalen Richtungen (z. B. x-, y- und z-Richtungen) festgelegt oder anderweitig im Voraus vereinbart, um eine Fehlinterpretation der Ausrichtungen der Oberflächennormalen zu vermeiden.
  • Erweiterung von DSLR- und Videokameras mit polarisierter Bildgebung
  • Einige Aspekte von Ausführungsformen der vorliegenden Offenbarung beziehen sich auf die Erweiterung von digitalen Kamerasystemen wie digitalen Spiegelreflexkameras (DSLR) und Videokameras mit polarisierten Bildern. In einigen Ausführungsformen der vorliegenden Offenbarung bezieht sich dies auf die Montage eines Polarisationskamerasystems auf ein zugrunde liegendes Standard-Farbkamerasystem (z. B. kann das Polarisationskamerasystem eine einzelne Polarisationskamera umfassen, die in der Lage ist, Daten bei mehreren verschiedenen Polarisationswinkeln zu erfassen, ein Polarisationskamera-Array, bei dem jedes Kamera-Array konfiguriert ist, um Licht eines anderen Polarisationszustands zu erfassen, und/oder ein Stereo-Polarisationskamerasystem wie oben beschrieben). Gemäß einigen Ausführungsformen der vorliegenden Offenbarung können das Polarisationskamerasystem und das zugrundeliegende Kamerasystem durch die Abbildung von Kalibrierungszielen (z. B. ein Schachbrettmuster) registriert werden, um die extrinsischen Kameraparameter für die Abbildung zwischen den vom Polarisationskamerasystem und dem zugrundeliegenden Kamerasystem erfassten Mehrfachansichten zu berechnen. Dies ermöglicht es einer erweiterten DSLR-Kamera und/oder einem erweiterten Videokamerasystem, die Oberflächennormalen zu extrahieren und, im Falle von Stereokamerasystemen, eine Tiefenschätzung vorzunehmen.
  • Verschiedene Anwendungen der Kombination von Farbbildern mit Polarisationsbildern sind oben beschrieben. In Ausführungsformen der vorliegenden Offenbarung, in denen ein Farbkamerasystem durch ein Polarisationskamerasystem erweitert wird, ist das Polarisationskamerasystem konfiguriert, um seine Erfassung von Polarisationsrohbildern mit der Erfassung von Bildern durch das zugrunde liegende System zu synchronisieren. So kann beispielsweise ein und derselbe Auslöser an der DSLR verwendet werden, um sowohl die Aufnahme von Bildern durch die DSLR als auch durch das Polarisationskamerasystem auszulösen. Ebenso kann dieselbe „Aufnahmetaste“ an einem Videokamerasystem verwendet werden, um das Polarisationskamerasystem zu steuern, damit es Polarisationsrohbilder erfasst, die zeitlich so indiziert sind, dass sie mit den vom zugrunde liegenden Videokamerasystem erfassten Bildern übereinstimmen. In einigen Ausführungsformen der vorliegenden Offenbarung ist ein Polarisationskamerasystem konfiguriert, um in den Blitzschuh zu passen oder anderweitig konfiguriert, um durch das Blitzsystem des zugrunde liegenden Kamerasystems gesteuert zu werden, um die Synchronisation zwischen der Auslösung der zugrunde liegenden Kamera und den Polarisationskamerasystemen bereitzustellen.
  • Wie oben beschrieben, können verschiedene Dateiformate verwendet werden, um die Polarisationsdaten und/oder Oberflächennormalen, wie sie vom Polarisationskamerasystem erfasst werden, zusammen mit den Farb- oder Graustufenbilddaten zu speichern, die von der zugrunde liegenden Kamera erfasst werden, und/oder durch Umwidmung von Standard-Farbbilddateiformaten, um Oberflächennormaldaten zu speichern.
  • Das Erfassen von Polarisationsrohbildern (und dementsprechend von Oberflächennormalen von Objekten in einer Szene) gleichzeitig mit Farbvideodaten kann verwendet werden, um eine weitere Analyse einer Szene durchzuführen, z. B. durch das Bereitstellen genauerer Tiefenschätzungen, die für das Bereitstellen einer zusätzlichen Fokussteuerung verwendet werden können (z. B. das Vorhersagen, welche Bereiche einer Szene basierend auf der Tiefe von der Kamera im Fokus sein werden). Das Erfassen von Stereo-Polarisationsrohbildern kann auch die gleichzeitige Erfassung von Tiefenkarten zusammen mit Farbtexturinformationen einer Szene ermöglichen.
  • In einigen Ausführungsformen der vorliegenden Offenbarung werden die Oberflächennormalen, die aus den vom Kamerasystem erfassten Polarisationsrohbildern berechnet werden, zur Unterstützung bei der Bewegungserfassung der Bewegung von Personen oder Objekten in einer Szene verwendet. Genauer gesagt können die Oberflächennormalen Informationen über den Ort und die Ausrichtung von Bewegungserfassungsmarkem auf Objekten in einer Szene liefern, während vergleichbare Techniken nur den Ort der Marker verfolgen können. Auch bei der Bewegungserfassung ohne Marker können die Oberflächennormalen Informationen über die Ausrichtung der verschiedenen Oberflächen liefern und so die Genauigkeit der Erfassung verbessern. Die auf Polarisation basierende Bildgebung kann auch die vorübergehende Unsichtbarkeit von Markern oder Oberflächen von bewegungserfassten Objekten in einer Szene aufgrund von Spiegelreflexionen oder Blendung vermeiden, wie oben beschrieben. Dementsprechend kann die Anwendung von Polarisationskamerasystemen auf Bewegungserfassungstechniken die Genauigkeit und den Umfang von Bewegungserfassungsdaten verbessern.
  • Computergestützte Fotografie mit Polarisation
  • Wenn polarisiertes Licht in einen Polarisationsfilter eintritt, ändert sich die Intensität des austretenden Lichts je nach dem relativen Winkel zwischen dem polarisierten einfallenden Licht und dem Polarisationsfilter. Durch die Aufnahme der Szene unter mehreren Polarisationswinkeln ist es möglich, Blendung, spiegelnde Reflexionen und Mehrfachreflexionen in mindestens einem der unter mehreren Polarisationswinkeln aufgenommenen Bilder zu vermeiden. Diese Ansätze können in industriellen Bildgebungsanwendungen verwendet werden, um schwer abzubildende Szenen zu visualisieren, die durch Blendung oder spiegelnde Reflexionen beeinträchtigt werden. Die Polarisation kann jedoch auch in der Computerfotografie eingesetzt werden, um die Aufnahme von Fotos für den menschlichen Sehvorgang zu verbessern. Einige Aspekte der Ausführungsformen der vorliegenden Offenbarung beziehen sich auf die Synthese von Bildern mit hohem Dynamikbereich unter Verwendung mehrerer polarisierter Eingangsbilder, die auch die Schärfe der aufgenommenen Bilder verbessern können.
  • Bei der Bildgebung mit hohem Dynamikbereich (HDR) werden im Allgemeinen mehrere Bilder einer Szene mit unterschiedlichen Belichtungen aufgenommen, um den vollen Umfang des intrinsischen Dynamikbereichs der Szene zu erfassen. Die unterschiedlichen Belichtungen führen jedoch zu unterschiedlich scharfen Kanten in den Bildern, so dass diese nur schwer oder bestenfalls unvollkommen aufeinander abgestimmt werden können, was zu weicher wirkenden (z. B. unschärferen) Bildern führt. Bei einigen vergleichenden Ansätzen werden Bilder mit konstanter Belichtung aufgenommen, was die Ausrichtung robuster macht, wobei die Belichtung niedrig genug eingestellt wird, um ein Ausblasen der Glanzlichter zu vermeiden. Das daraus resultierende zusammengesetzte HDR-Bild hat saubere Schatten und eine hohe Bittiefe. Dies funktioniert jedoch nur, solange keine Bewegung in der Szene vorhanden ist (z. B. Bewegung der Kamera und/oder Bewegung von Objekten in der Szene). Jede Bewegung bei der Aufnahme von Bildern mit konstanter Belichtung kann zu Unschärfe und unerwünschten Artefakten (z. B. Geisterbilder) an den Rändern führen.
  • Dementsprechend beziehen sich einige Aspekte der Ausführungsformen der vorliegenden Offenbarung auf die Verwendung der Aufnahme von Polarisationsrohbildern mit denselben Belichtungseinstellungen und die Synthese von Bildern mit hohem Dynamikbereich bei Vorhandensein von Szenenbewegungen unter Verwendung der Polarisationsrohbilder.
  • Der Einsatz von Multikamerasystemen mit unterschiedlichen Polarisationsfiltern zusammen mit einer Referenzkamera mit nominalen Bayer-Filtern ermöglicht die gleichzeitige Aufnahme mehrerer Bilder (z. B. gleichzeitig) mit den gleichen Belichtungseinstellungen für alle Kameras. Dies ermöglicht die Fusion dieser mehreren Bilder, ohne die Auswirkungen von Anomalien, die durch Bewegung über zeitliche Rahmen (z. B. Rahmen, die zu unterschiedlichen Zeiten aufgenommen wurden) entstehen. Darüber hinaus ermöglichen es die verschiedenen Polarisationsfilter, dieselbe Szene mit unterschiedlichen Intensitäten zu erfassen, als ob sie mit verschiedenen „Neutraldichte“-Filtern aufgenommen worden wären. Da die Polarisationsfilter auf natürliche Weise die Intensität des auf das Kamerasystem (z. B. auf den Bildsensor) einfallenden Lichts verringern, muss die Belichtung, mit der diese Bilder aufgenommen werden, möglicherweise nicht so niedrig sein wie bei dem oben beschriebenen vergleichenden Ansatz, da in diesem Fall nichts das auf das Kamerasystem einfallende Licht abschwächt und somit sorgfältig kalibrierte niedrigere Belichtungen erforderlich sind.
  • Darüber hinaus ermöglicht das Zusammenführen von Polarisationsrohbildern die Wiederherstellung von Details in geblendeten oder anderweitig gesättigten Bereichen der Szene aufgrund von Spiegelreflexionen. Bei dem vergleichenden Ansatz, bei dem mehrere Bilder mit geringerer Belichtung von einer Szene aufgenommen werden, ist es beispielsweise immer noch möglich, dass Bereiche der Szene aufgrund von Glanzlichtern bis zum Punkt der Sättigung überbelichtet werden. Andererseits ist es durch die Aufnahme von Polarisationsrohbildern der Szene unter Verwendung verschiedener Polarisationszustände und, im Falle eines Kamera-Arrays und/oder eines Stereo-Polarisationskamerasystems, aus verschiedenen Blickpunkten unwahrscheinlich, dass ein bestimmter Oberflächenbereich der Szene aus allen Blickpunkten Glanzlichter aufweist. Dies wiederum ermöglicht die Wiederherstellung von Details aus Bereichen, die im Falle eines Standard-Kamerasystems, das keine Polarisationsrohbilder verwendet, verloren gehen würden.
  • 11 ist ein Flussdiagramm, das ein Verfahren zur Synthese eines Bildes mit hohem Dynamikbereich (HDR) aus Polarisationsrohbildern zeigt. Im Verfahrensschritt 1101 steuert ein Verarbeitungssystem (z.B. ein Controller eines Kamerasystems) ein Polarisationskamerasystem, um Polarisationsrohbilder zu erfassen, und synthetisiert im Verfahrensschritt 1102 ein HDR-Bild (High Dynamic Range) basierend auf den Polarisationsrohbildern. Wie oben erwähnt, werden in einigen Ausführungsformen der vorliegenden Offenbarung die Polarisationsrohbilder basierend auf Techniken zum Kombinieren mehrerer niedrig belichteter Bilder (z. B. mit einer kleinen Blende und/oder kurzen Belichtungszeit aufgenommen) kombiniert. In einigen Ausführungsformen der vorliegenden Offenbarung kann die Auswirkung von Blendung und/oder Spiegelung entfernt werden, und Details können in Bereichen des Bildes wiederhergestellt werden, die durch Fallenlassen überbelichtet würden, oder in Bereichen der Bilder, die in einigen Polarisationsrohbildern gesättigt sind und in anderen Polarisationsrohbildern mit größerer Wahrscheinlichkeit richtig belichtet werden.
  • Während die vorliegende Erfindung im Zusammenhang mit bestimmten beispielhaften Ausführungsformen beschrieben worden ist, ist es zu verstehen, dass die Erfindung nicht auf die offengelegten Ausführungsformen beschränkt ist, sondern im Gegenteil dazu bestimmt ist, verschiedene Modifikationen und äquivalente Anordnungen abzudecken, die im Rahmen des Geistes und des Umfangs der beigefügten Ansprüche und deren Äquivalente enthalten sind.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • US 62/911952 [0001]
    • US 62/942113 [0001, 0108, 0122]
    • US 63/001445 [0001, 0108, 0122]
    • US 10260866 [0079]
    • US 10557705 [0079]

Claims (20)

  1. Ein multimodales Sensorsystem, das umfasst: ein zugrunde liegendes Sensorsystem; ein Polarisationskamerasystem, das konfiguriert ist, um Polarisationsrohbilder zu erfassen, die einer Vielzahl von unterschiedlichen Polarisationszuständen entsprechen; und ein Verarbeitungssystem mit einem Prozessor und einem Speicher, wobei das Verarbeitungssystem konfiguriert ist, um das zugrunde liegende Sensorsystem und das Polarisationskamerasystem zu steuern, wobei der Speicher Anweisungen speichert, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen: das zugrundeliegende Sensorsystem zu steuern, um ein Erfassen an einer Szene durchzuführen, und das Polarisationskamerasystem zu steuern, um eine Vielzahl von Polarisationsrohbildern der Szene zu erfassen; erste Tensoren in Polarisationsdarstellungsräumen basierend auf der Vielzahl von Polarisationsrohbildern zu extrahieren; und eine Charakterisierungsausgabe basierend auf einer Ausgabe des zugrunde liegenden Sensorsystems und den ersten Tensoren in Polarisationsdarstellungsräumen zu berechnen.
  2. Das multimodale Sensorsystem nach Anspruch 1, wobei das Polarisationskamerasystem ein Polarisationskameramodul umfasst, das folgendes umfasst: eine erste Polarisationskamera, die einen ersten Polarisationsfilter mit einer ersten Polarisationsausrichtung umfasst, wobei die erste Polarisationskamera eine erste optische Achse aufweist; eine zweite Polarisationskamera mit einem zweiten Polarisationsfilter mit einer zweiten Polarisationsausrichtung, wobei die zweite Polarisationskamera eine zweite optische Achse aufweist, die im Wesentlichen parallel zur ersten optischen Achse verläuft; und eine dritte Polarisationskamera, die einen dritten Polarisationsfilter mit einer dritten Polarisationsausrichtung umfasst, wobei die dritte Polarisationskamera eine dritte optische Achse aufweist, die im Wesentlichen parallel zur ersten optischen Achse verläuft.
  3. Das multimodale Sensorsystem nach Anspruch 2, wobei das Polarisationskameramodul ferner eine vierte Polarisationskamera umfasst, die einen vierten Polarisationsfilter mit einer vierten Polarisationsausrichtung umfasst, wobei die vierte Polarisationskamera eine vierte optische Achse aufweist, die im Wesentlichen parallel zur ersten optischen Achse verläuft.
  4. Das multimodale Sensorsystem nach Anspruch 2, wobei die ersten Tensoren einen Grad der linearen Polarisation (DOLP) und einen Winkel der linearen Polarisation (AOLP) umfassen, und wobei der Speicher ferner Anweisungen speichert, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen, den DOLP und den AOLP basierend auf Polarisationsrohbildern zu berechnen, die von der ersten Polarisationskamera, der zweiten Polarisationskamera und der dritten Polarisationskamera erfasst wurden, wobei die Anweisungen Anweisungen umfassen, um: eine geschätzte DOLP und eine geschätzte AOLP basierend auf Stokes-Vektoren zu initialisieren; eine Szenengeometrie basierend auf Parallaxenverschiebungen in den Polarisationsrohbildern zu schätzen, um ein Grobmodell zu erzeugen; und iterativ: das Grobmodell basierend auf dem geschätzten DOLP und dem geschätzten AOLP zu verfeinern, um eine geschätzte Geometrie zu erzeugen; und das geschätzte DOLP und das geschätzte AOLP basierend auf der geschätzten Geometrie zu aktualisieren, bis eine Änderung des geschätzten DOLP und eine Änderung des geschätzten AOLP beide kleiner als entsprechende Schwellenwerte sind.
  5. Das multimodale Sensorsystem nach Anspruch 1, wobei das Polarisationskamerasystem ein Stereo-Polarisationskamerasystem umfasst, das Folgendes umfasst ein erstes Polarisationskameramodul mit einer ersten optischen Achse, wobei das erste Polarisationskameramodul konfiguriert ist, um eine erste Vielzahl von Polarisationsrohbildern zu erfassen, die einer ersten Vielzahl von unterschiedlichen Polarisationszuständen entsprechen; und ein zweites Polarisationskameramodul mit einer zweiten optischen Achse, das von dem ersten Polarisationskameramodul entlang einer Grundlinie beabstandet ist, wobei das zweite Polarisationskameramodul konfiguriert ist, um eine zweite Vielzahl von Polarisationsrohbildern zu erfassen, die einer zweiten Vielzahl von unterschiedlichen Polarisationszuständen entsprechen, wobei die erste optische Achse im Wesentlichen parallel zu der zweiten optischen Achse verläuft.
  6. Das multimodale Sensorsystem nach Anspruch 5, wobei das erste Polarisationskameramodul eine erste Vielzahl von Farbfiltern umfasst, die konfiguriert sind, um Licht in drei oder mehr verschiedenen ersten Farbspektren zu transmittieren, und wobei das zweite Polarisationskameramodul eine zweite Vielzahl von Farbfiltern umfasst, die konfiguriert sind, um Licht in drei oder mehr verschiedenen zweiten Farbspektren zu transmittieren, wobei die drei oder mehr zweiten Farbspektren von den drei oder mehr ersten Farbspektren verschieden sind.
  7. Das multimodale Sensorsystem nach Anspruch 6, wobei der Speicher weiterhin Anweisungen speichert, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen: das Stereo-Polarisationskamerasystem zu steuern, um multispektrale Stereo-Polarisationsbildgebungsdaten in den ersten Farbspektren und in den zweiten Farbspektren zu erfassen; und erste Tensoren in Polarisationsdarstellungsräumen aus den multispektralen Stereo-Polarisationsbildgebungsdaten zu extrahieren.
  8. Das multimodale Sensorsystem nach Anspruch 1, wobei das zugrunde liegende Sensorsystem ein aktives Abtastsystem mit einem aktiven Emitter und einem Detektor umfasst.
  9. Das multimodale Sensorsystem nach Anspruch 8, wobei das aktive Abtastsystem ein Radarsystem umfasst.
  10. Das multimodale Sensorsystem nach Anspruch 8, wobei das aktive Abtastsystem ein Lidarsystem umfasst.
  11. Das multimodale Sensorsystem nach Anspruch 8, wobei das aktive Abtastsystem ein aktives Stereo-Tiefenkamerasystem umfasst.
  12. Das multimodale Sensorsystem nach Anspruch 8, wobei das multimodale Sensorsystem an einem Fahrzeug angebracht ist.
  13. Das multimodale Sensorsystem nach Anspruch 8, wobei der Speicher ferner Anweisungen speichert, die, wenn sie vom Prozessor des Verarbeitungssystems ausgeführt werden, den Prozessor veranlassen: eine spärliche Punktwolke basierend auf der Ausgabe des zugrunde liegenden Sensorsystems zu berechnen; Oberflächennormalen aus den Polarisationsrohbildern zu berechnen; eine 3D-Oberfläche basierend auf den Oberflächennormalen zu berechnen; und die 3D-Oberfläche basierend auf der spärlichen Punktwolke zu korrigieren, um ein 3D-Modell der Szene zu berechnen.
  14. Das multimodale Sensorsystem nach Anspruch 8, wobei der Speicher ferner Anweisungen speichert, die, wenn sie von dem Prozessor des Verarbeitungssystems ausgeführt werden, den Prozessor veranlassen: eine Segmentierungskarte basierend auf den ersten Tensoren in den Polarisationsdarstellungsräumen zu berechnen, wobei die Segmentierungskarte eine oder mehrere Bereiche von Interesse in der Szene identifiziert; den aktiven Emitter zu steuern, um Strahlen in Richtung der einen oder mehreren Bereiche von Interesse zu emittieren; und eine Reflexion der von dem aktiven Emitter emittierten Strahlen unter Verwendung des Detektors des aktiven Abtastsystems zu erfassen.
  15. Das multimodale Sensorsystem nach Anspruch 1, wobei der Speicher Anweisungen speichert, die den Prozessor veranlassen, ein faltendes neuronales Netz zu implementieren, das trainiert ist, um eine Segmentierungskarte basierend auf den ersten Tensoren zu berechnen.
  16. Das multimodale Sensorsystem nach Anspruch 1, wobei das zugrunde liegende Sensorsystem ein Farbkamerasystem umfasst.
  17. Das multimodale Sensorsystem nach Anspruch 16, wobei das Farbkamerasystem eine digitale einäugige Spiegelreflexkamera oder eine Videokamera ist.
  18. Das multimodale Sensorsystem nach Anspruch 16, wobei die Ausgabe der Farbkamera des zugrunde liegenden Sensorsystems ein Farbbild umfasst, und wobei der Speicher ferner Anweisungen speichert, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen: eine Vielzahl von Oberflächennormalen der Szene basierend auf den ersten Tensoren zu berechnen; und die berechneten Oberflächennormalen der Szene in derselben Datei zu speichern wie das von der Farbkamera aufgenommene Farbbild.
  19. Ein Polarisationskamerasystem, das Folgendes umfasst: eine Polarisationskamera, die konfiguriert ist, um Polarisationsrohbilder einer Szene zu erfassen, wobei die Polarisationsrohbilder einer Vielzahl von unterschiedlichen Polarisationszuständen entsprechen; und ein Verarbeitungssystem mit einem Prozessor und einem Speicher, wobei das Verarbeitungssystem konfiguriert ist, um die Polarisationskamera zu steuern, wobei der Speicher Anweisungen speichert, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen: die Polarisationskamera zu steuern, um eine Vielzahl von Polarisationsrohbildern zu erfassen, und ein HDR (High Dynamic Range)-Bild basierend auf den Polarisationsrohbildern zu synthetisieren.
  20. Polarisationskamerasystem nach Anspruch 19, wobei jedes der Polarisationsrohbilder basierend auf einem gleichen Satz von Belichtungseinstellungen aufgenommen wird, wobei mindestens eines der Polarisationsrohbilder gesättigte Pixel in einem Bereich des Polarisationsrohbildes aufgrund von spiegelnder Reflexion von einer Oberfläche in der Szene enthält, wobei der Speicher ferner Anweisungen speichert, die, wenn sie von dem Prozessor ausgeführt werden, den Prozessor veranlassen, das HDR-Bild ohne gesättigte Pixel in einem Bereich des HDR-Bildes, der dem Bereich des Polarisationsrohbildes entspricht, basierend auf Daten aus entsprechenden Bereichen von anderen der Polarisationsrohbilder zu synthetisieren.
DE112020004813.6T 2019-10-07 2020-10-07 System zur Erweiterung von Sensorsystemen und Bildgebungssystemen mit Polarisation Active DE112020004813B4 (de)

Applications Claiming Priority (7)

Application Number Priority Date Filing Date Title
US201962911952P 2019-10-07 2019-10-07
US62/911,952 2019-10-07
US201962942113P 2019-11-30 2019-11-30
US62/942,113 2019-11-30
US202063001445P 2020-03-29 2020-03-29
US63/001,445 2020-03-29
PCT/US2020/054641 WO2021071992A1 (en) 2019-10-07 2020-10-07 Systems and methods for augmentation of sensor systems and imaging systems with polarization

Publications (2)

Publication Number Publication Date
DE112020004813T5 true DE112020004813T5 (de) 2022-07-14
DE112020004813B4 DE112020004813B4 (de) 2023-02-09

Family

ID=75436889

Family Applications (2)

Application Number Title Priority Date Filing Date
DE112020004810.1T Active DE112020004810B4 (de) 2019-10-07 2020-10-07 Systeme und Verfahren zur Erfassung von Oberflächennormalen mit Polarisation
DE112020004813.6T Active DE112020004813B4 (de) 2019-10-07 2020-10-07 System zur Erweiterung von Sensorsystemen und Bildgebungssystemen mit Polarisation

Family Applications Before (1)

Application Number Title Priority Date Filing Date
DE112020004810.1T Active DE112020004810B4 (de) 2019-10-07 2020-10-07 Systeme und Verfahren zur Erfassung von Oberflächennormalen mit Polarisation

Country Status (10)

Country Link
US (3) US11525906B2 (de)
EP (2) EP4042101A4 (de)
JP (2) JP7330376B2 (de)
KR (2) KR102538645B1 (de)
CN (2) CN114766003B (de)
BR (2) BR112022006617A2 (de)
CA (2) CA3157194C (de)
DE (2) DE112020004810B4 (de)
MX (2) MX2022004163A (de)
WO (2) WO2021071992A1 (de)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8866920B2 (en) * 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
FR3093215B1 (fr) * 2019-02-22 2021-08-27 Fogale Nanotech Procédé et dispositif de surveillance de l’environnement d’un robot
MX2022004163A (es) 2019-10-07 2022-07-19 Boston Polarimetrics Inc Sistemas y metodos para la deteccion de estandares de superficie con polarizacion.
CN115428028A (zh) * 2020-01-30 2022-12-02 因思创新有限责任公司 用于合成用于在包括偏振图像的不同成像模态下训练统计模型的数据的***和方法
US11619722B2 (en) * 2020-02-12 2023-04-04 Ford Global Technologies, Llc Vehicle lidar polarization
IL279275A (en) * 2020-12-06 2022-07-01 Elbit Systems C4I And Cyber Ltd Devices, systems and methods for acquiring an image of a scene
GB2603951A (en) * 2021-02-22 2022-08-24 Imperial College Innovations Ltd Image Processing
JP2022164390A (ja) * 2021-04-16 2022-10-27 ax株式会社 画像生成装置、画像生成方法、プログラム
TWI787800B (zh) * 2021-04-29 2022-12-21 國立臺灣大學 光場合成方法及系統
US20220414928A1 (en) * 2021-06-25 2022-12-29 Intrinsic Innovation Llc Systems and methods for generating and using visual datasets for training computer vision models
US11546508B1 (en) * 2021-07-21 2023-01-03 Black Sesame Technologies Inc. Polarization imaging system with super resolution fusion
CN113705375A (zh) * 2021-08-10 2021-11-26 武汉理工大学 一种船舶航行环境视觉感知设备及方法
US20230119076A1 (en) * 2021-09-01 2023-04-20 Arizona Board Of Regents On Behalf Of Arizona State University Autonomous polarimetric imaging for photovoltaic module inspection and methods thereof
CN114367459B (zh) * 2022-01-11 2024-03-08 宁波市全盛壳体有限公司 一种自动涂漆uv固化设备视频识别检测方法
CN115223018B (zh) * 2022-06-08 2023-07-04 东北石油大学 伪装对象协同检测方法及装置、电子设备和存储介质
EP4289747A1 (de) * 2022-06-09 2023-12-13 Honeywell International Inc. Aktiver landemarkierer
US11865696B1 (en) 2022-08-10 2024-01-09 Wilder Systems Inc. Balancing compute for robotic operations
US11620764B1 (en) * 2022-08-31 2023-04-04 Illuscio, Inc. Systems and methods for generating point-accurate three-dimensional models with point-accurate color information from a non-cosited capture
CN115265786B (zh) * 2022-09-30 2023-01-10 长春理工大学 一种自动调节曝光值的强光偏振探测装置及其探测方法
US20240129604A1 (en) * 2022-10-14 2024-04-18 Motional Ad Llc Plenoptic sensor devices, systems, and methods
CN116433532B (zh) * 2023-05-06 2023-09-26 合肥工业大学 一种基于注意力引导滤波的红外偏振图像融合去噪方法
CN116630310B (zh) * 2023-07-21 2023-11-17 锋睿领创(珠海)科技有限公司 一种石英玻璃的检测方法、装置、设备及介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10260866B2 (en) 2015-03-06 2019-04-16 Massachusetts Institute Of Technology Methods and apparatus for enhancing depth maps with polarization cues

Family Cites Families (1089)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4124798A (en) 1965-12-09 1978-11-07 Thompson Kenneth B Optical viewing apparatus
US4198646A (en) 1978-10-13 1980-04-15 Hughes Aircraft Company Monolithic imager for near-IR
US4323925A (en) 1980-07-07 1982-04-06 Avco Everett Research Laboratory, Inc. Method and apparatus for arraying image sensor modules
JPS5769476A (en) 1980-10-16 1982-04-28 Fuji Xerox Co Ltd Reader control system
JPS6028672Y2 (ja) 1981-09-28 1985-08-30 新日本製鐵株式会社 高炉炉頂装入装置
JPS5925483A (ja) 1982-08-04 1984-02-09 Hitachi Denshi Ltd 固体撮像装置
US4652909A (en) 1982-09-14 1987-03-24 New York Institute Of Technology Television camera and recording system for high definition television having imagers of different frame rate
US4460449A (en) 1983-01-03 1984-07-17 Amerace Corporation Apparatus for making a tool
US4888645A (en) 1984-01-16 1989-12-19 International Business Machines Corporation Method for encoding and decoding a digital image
JPS60228564A (ja) 1984-04-27 1985-11-13 Tokuyama Soda Co Ltd 液晶性組成物
JPS6129851U (ja) 1984-07-26 1986-02-22 日新電機株式会社 比重差選別装置
JPS6140709U (ja) 1984-08-20 1986-03-14 三洋電機株式会社 磁気ヘツド
EP0289885A1 (de) 1987-05-08 1988-11-09 Siemens Aktiengesellschaft Blendensystem zur Erzeugung mehrerer Teilchensonden mit veränderbarem Querschnitt
JPS6437177A (en) 1987-08-03 1989-02-07 Canon Kk Image pickup device
DE58902538D1 (de) 1988-05-19 1992-12-03 Siemens Ag Verfahren zur beobachtung einer szene und einrichtung zur durchfuehrung des verfahrens.
JPH02285772A (ja) 1989-04-26 1990-11-26 Toshiba Corp 画像読取装置
US5070414A (en) 1988-09-20 1991-12-03 Kabushiki Kaisha Toshiba Method and apparatus for reading image information formed on material
US4962425A (en) 1988-10-27 1990-10-09 National Research Council Of Canada/Conseil National Deresherches Canada Photometric device
US5157499A (en) 1990-06-29 1992-10-20 Kabushiki Kaisha N A C High-speed video camera using solid-state image sensor
US5144448A (en) 1990-07-31 1992-09-01 Vidar Systems Corporation Scanning apparatus using multiple CCD arrays and related method
JPH0467543U (de) 1990-10-19 1992-06-16
JP2505611Y2 (ja) 1990-10-19 1996-07-31 ダイハツ工業株式会社 自動車用樹脂バンパ
US5463464A (en) 1991-10-04 1995-10-31 Kms Fusion, Inc. Electro-optical system for gauging surface profile deviations using infrared radiation
US5325449A (en) 1992-05-15 1994-06-28 David Sarnoff Research Center, Inc. Method for fusing images and apparatus therefor
JP3032382B2 (ja) 1992-07-13 2000-04-17 シャープ株式会社 デジタル信号のサンプリング周波数変換装置
JPH06129851A (ja) 1992-10-13 1994-05-13 Sumitomo Electric Ind Ltd ステレオカメラの校正方法
US5670935A (en) 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
DE69422803T2 (de) 1993-03-03 2000-06-15 Graham Stewart B Street Bildausrichtung und Gerät
US5659424A (en) 1993-05-25 1997-08-19 Hitachi, Ltd. Projecting lens and image display device
JPH0715457A (ja) 1993-06-18 1995-01-17 Hitachi Ltd ディジタル通信切替方式
DE69430153T2 (de) 1993-06-21 2002-09-05 Nippon Telegraph & Telephone Verfahren und Vorrichtung zur dreidimensionalen Bilderzeugung von Objekten
US6095989A (en) 1993-07-20 2000-08-01 Hay; Sam H. Optical recognition methods for locating eyes
US6419638B1 (en) 1993-07-20 2002-07-16 Sam H. Hay Optical recognition methods for locating eyes
JP2761837B2 (ja) 1993-08-19 1998-06-04 株式会社日鉄エレックス 立体像表示装置
EP0677821A3 (de) 1994-04-14 1996-03-06 Hewlett Packard Co Vergrösserung von digitalen Farbbildern zur Nachlaufsynchronisation.
AU1742895A (en) 1994-06-09 1996-01-04 Kollmorgen Instrument Corporation Stereoscopic electro-optical system for automated inspection and/or alignment of imaging devices on a production assembly line
US5517236A (en) 1994-06-22 1996-05-14 Philips Electronics North America Corporation Video surveillance system
JPH0877356A (ja) 1994-09-09 1996-03-22 Fujitsu Ltd 三次元多眼画像の処理方法及び処理装置
US5703961A (en) 1994-12-29 1997-12-30 Worldscape L.L.C. Image transformation and synthesis methods
US20020195548A1 (en) 2001-06-06 2002-12-26 Dowski Edward Raymond Wavefront coding interference contrast imaging systems
US5629524A (en) 1995-02-21 1997-05-13 Advanced Scientific Concepts, Inc. High speed crystallography detector
US5933190A (en) 1995-04-18 1999-08-03 Imec Vzw Pixel structure, image sensor using such pixel structure and corresponding peripheral circuitry
US5963664A (en) 1995-06-22 1999-10-05 Sarnoff Corporation Method and system for image combination using a parallax-based technique
US6005607A (en) 1995-06-29 1999-12-21 Matsushita Electric Industrial Co., Ltd. Stereoscopic computer graphics image generating apparatus and stereoscopic TV apparatus
US5675377A (en) 1995-06-30 1997-10-07 Telefonaktiebolaget Lm Ericsson True three-dimensional imaging and display system
GB2302978A (en) 1995-07-04 1997-02-05 Sharp Kk LIquid crystal device
US5880691A (en) 1995-11-07 1999-03-09 California Institute Of Technology Capacitively coupled successive approximation ultra low power analog-to-digital converter
US5757425A (en) 1995-12-19 1998-05-26 Eastman Kodak Company Method and apparatus for independently calibrating light source and photosensor arrays
JP3502713B2 (ja) 1995-12-21 2004-03-02 本田技研工業株式会社 車両用距離測定装置
JPH09181913A (ja) 1995-12-26 1997-07-11 Olympus Optical Co Ltd カメラシステム
US5793900A (en) 1995-12-29 1998-08-11 Stanford University Generating categorical depth maps using passive defocus sensing
US5973844A (en) 1996-01-26 1999-10-26 Proxemics Lenslet array systems and methods
US6124974A (en) 1996-01-26 2000-09-26 Proxemics Lenslet array systems and methods
US6493465B2 (en) 1996-02-21 2002-12-10 Canon Kabushiki Kaisha Matching point extracting method and apparatus therefor
US5832312A (en) 1996-02-22 1998-11-03 Eastman Kodak Company Watertight body for accommodating a photographic camera
US5867584A (en) 1996-02-22 1999-02-02 Nec Corporation Video object tracking method for interactive multimedia applications
US5911008A (en) 1996-04-30 1999-06-08 Nippon Telegraph And Telephone Corporation Scheme for detecting shot boundaries in compressed video data using inter-frame/inter-field prediction coding and intra-frame/intra-field coding
US6084979A (en) 1996-06-20 2000-07-04 Carnegie Mellon University Method for creating virtual reality
US6002743A (en) 1996-07-17 1999-12-14 Telymonde; Timothy D. Method and apparatus for image acquisition from a plurality of cameras
GB9616262D0 (en) 1996-08-02 1996-09-11 Philips Electronics Nv Post-processing generation of focus/defocus effects for computer graphics images
US6141048A (en) 1996-08-19 2000-10-31 Eastman Kodak Company Compact image capture device
US6137535A (en) 1996-11-04 2000-10-24 Eastman Kodak Company Compact digital camera with segmented fields of view
US5808350A (en) 1997-01-03 1998-09-15 Raytheon Company Integrated IR, visible and NIR sensor and methods of fabricating same
JPH10232626A (ja) 1997-02-20 1998-09-02 Canon Inc 立体画像表示装置
JPH10253351A (ja) 1997-03-14 1998-09-25 Kyocera Corp 測距装置
US5801919A (en) 1997-04-04 1998-09-01 Gateway 2000, Inc. Adjustably mounted camera assembly for portable computers
US6097394A (en) 1997-04-28 2000-08-01 Board Of Trustees, Leland Stanford, Jr. University Method and system for light field rendering
NO304715B1 (no) 1997-05-06 1999-02-01 Dimensions As FremgangsmÕte ved bildebehandling
US6515701B2 (en) 1997-07-24 2003-02-04 Polaroid Corporation Focal plane exposure control system for CMOS area image sensors
US6563537B1 (en) 1997-07-31 2003-05-13 Fuji Photo Film Co., Ltd. Image signal interpolation
JP3430935B2 (ja) 1997-10-20 2003-07-28 富士ゼロックス株式会社 画像読取装置及びレンズ
JP4243779B2 (ja) 1997-11-14 2009-03-25 株式会社ニコン 拡散板の製造方法および拡散板、並びにマイクロレンズアレイの製造方法およびマイクロレンズアレイ
NO305728B1 (no) 1997-11-14 1999-07-12 Reidar E Tangen Optoelektronisk kamera og fremgangsmÕte ved bildeformatering i samme
US6069365A (en) 1997-11-25 2000-05-30 Alan Y. Chow Optical processor based imaging system
JPH11242189A (ja) 1997-12-25 1999-09-07 Olympus Optical Co Ltd 像形成法、像形成装置
US6721008B2 (en) 1998-01-22 2004-04-13 Eastman Kodak Company Integrated CMOS active pixel digital camera
US6833863B1 (en) 1998-02-06 2004-12-21 Intel Corporation Method and apparatus for still image capture during video streaming operations of a tethered digital camera
JPH11223708A (ja) 1998-02-09 1999-08-17 Nikon Corp 圧子およびマイクロ光学素子アレイの製造方法
US6198577B1 (en) 1998-03-10 2001-03-06 Glaxo Wellcome, Inc. Doubly telecentric lens and imaging system for multiwell plates
US6054703A (en) 1998-03-20 2000-04-25 Syscan, Inc. Sensing module for accelerating signal readout from image sensors
US6160909A (en) 1998-04-01 2000-12-12 Canon Kabushiki Kaisha Depth control for stereoscopic images
KR100307883B1 (ko) 1998-04-13 2001-10-19 박호군 정합화소수를이용한유사도측정방법및이를구현하기위한장치
JP3745117B2 (ja) 1998-05-08 2006-02-15 キヤノン株式会社 画像処理装置及び画像処理方法
JP3931936B2 (ja) 1998-05-11 2007-06-20 セイコーエプソン株式会社 マイクロレンズアレイ基板及びその製造方法並びに表示装置
JP3284190B2 (ja) 1998-05-14 2002-05-20 富士重工業株式会社 ステレオカメラの画像補正装置
US6198852B1 (en) 1998-06-01 2001-03-06 Yeda Research And Development Co., Ltd. View synthesis from plural images using a trifocal tensor data structure in a multi-view parallax geometry
US6205241B1 (en) 1998-06-01 2001-03-20 Canon Kabushiki Kaisha Compression of stereoscopic images
US6137100A (en) 1998-06-08 2000-10-24 Photobit Corporation CMOS image sensor with different pixel sizes for different colors
US6069351A (en) 1998-07-16 2000-05-30 Intel Corporation Focal plane processor for scaling information from image sensors
US6903770B1 (en) 1998-07-27 2005-06-07 Sanyo Electric Co., Ltd. Digital camera which produces a single image based on two exposures
US6340994B1 (en) 1998-08-12 2002-01-22 Pixonics, Llc System and method for using temporal gamma and reverse super-resolution to process images for use in digital display systems
DE19838362C1 (de) 1998-08-18 2000-02-10 Deutsch Zentr Luft & Raumfahrt Fokalebenenplatte für eine hochauflösende CCD-Kamera
US6269175B1 (en) 1998-08-28 2001-07-31 Sarnoff Corporation Method and apparatus for enhancing regions of aligned images using flow estimation
US6185529B1 (en) 1998-09-14 2001-02-06 International Business Machines Corporation Speech recognition aided by lateral profile image
US6879735B1 (en) 1998-09-14 2005-04-12 University Of Utah Reasearch Foundation Method of digital image enhancement and sharpening
US6310650B1 (en) 1998-09-23 2001-10-30 Honeywell International Inc. Method and apparatus for calibrating a tiled display
GB2343320B (en) 1998-10-31 2003-03-26 Ibm Camera system for three dimentional images and video
JP3596314B2 (ja) 1998-11-02 2004-12-02 日産自動車株式会社 物体端の位置計測装置および移動体の通行判断装置
WO2000028518A2 (en) 1998-11-09 2000-05-18 Broadcom Corporation Graphics display system
US6611289B1 (en) 1999-01-15 2003-08-26 Yanbin Yu Digital cameras using multiple sensors with multiple lenses
JP3875423B2 (ja) 1999-01-19 2007-01-31 日本放送協会 固体撮像素子およびそれ用の映像信号出力装置
US6603513B1 (en) 1999-02-16 2003-08-05 Micron Technology, Inc. Using a single control line to provide select and reset signals to image sensors in two rows of a digital imaging device
JP3634677B2 (ja) 1999-02-19 2005-03-30 キヤノン株式会社 画像の補間方法、画像処理方法、画像表示方法、画像処理装置、画像表示装置、及びコンピュータプログラム記憶媒体
US6563540B2 (en) 1999-02-26 2003-05-13 Intel Corporation Light sensor with increased dynamic range
US6350804B2 (en) 1999-04-14 2002-02-26 General Electric Co. Compositions with enhanced ductility
US20020063807A1 (en) 1999-04-19 2002-05-30 Neal Margulis Method for Performing Image Transforms in a Digital Display System
US6819358B1 (en) 1999-04-26 2004-11-16 Microsoft Corporation Error calibration for digital image sensors and apparatus using the same
US6292713B1 (en) 1999-05-20 2001-09-18 Compaq Computer Corporation Robotic telepresence system
US6864916B1 (en) 1999-06-04 2005-03-08 The Trustees Of Columbia University In The City Of New York Apparatus and method for high dynamic range imaging using spatially varying exposures
JP2001008235A (ja) 1999-06-25 2001-01-12 Minolta Co Ltd 3次元データの再構成のための画像入力方法及び多眼式データ入力装置
JP2001042042A (ja) 1999-07-27 2001-02-16 Canon Inc 撮像装置
US6801653B1 (en) 1999-08-05 2004-10-05 Sony Corporation Information processing apparatus and method as well as medium
US7015954B1 (en) 1999-08-09 2006-03-21 Fuji Xerox Co., Ltd. Automatic video system using multiple cameras
US6647142B1 (en) 1999-08-19 2003-11-11 Mitsubishi Electric Research Laboratories, Inc. Badge identification system
US6771833B1 (en) 1999-08-20 2004-08-03 Eastman Kodak Company Method and system for enhancing digital images
US6628330B1 (en) 1999-09-01 2003-09-30 Neomagic Corp. Color interpolator and horizontal/vertical edge enhancer using two line buffer and alternating even/odd filters for digital camera
US6358862B1 (en) 1999-09-02 2002-03-19 Micron Technology, Inc Passivation integrity improvements
JP3280001B2 (ja) 1999-09-16 2002-04-30 富士重工業株式会社 ステレオ画像の位置ずれ調整装置
US6639596B1 (en) 1999-09-20 2003-10-28 Microsoft Corporation Stereo reconstruction from multiperspective panoramas
US6628845B1 (en) 1999-10-20 2003-09-30 Nec Laboratories America, Inc. Method for subpixel registration of images
US6774941B1 (en) 1999-10-26 2004-08-10 National Semiconductor Corporation CCD output processing stage that amplifies signals from colored pixels based on the conversion efficiency of the colored pixels
US6671399B1 (en) 1999-10-27 2003-12-30 Canon Kabushiki Kaisha Fast epipolar line adjustment of stereo pairs
US6674892B1 (en) 1999-11-01 2004-01-06 Canon Kabushiki Kaisha Correcting an epipolar axis for skew and offset
JP2001195050A (ja) 1999-11-05 2001-07-19 Mitsubishi Electric Corp グラフィックアクセラレータ
WO2001039512A1 (en) 1999-11-26 2001-05-31 Sanyo Electric Co., Ltd. Device and method for converting two-dimensional video to three-dimensional video
JP3950926B2 (ja) 1999-11-30 2007-08-01 エーユー オプトロニクス コーポレイション 画像表示方法、ホスト装置、画像表示装置、およびディスプレイ用インターフェイス
JP3728160B2 (ja) 1999-12-06 2005-12-21 キヤノン株式会社 奥行き画像計測装置及び方法、並びに複合現実感提示システム
KR100307456B1 (ko) 1999-12-08 2001-10-17 김순택 박막 트랜지스터의 제조 방법
US7068851B1 (en) 1999-12-10 2006-06-27 Ricoh Co., Ltd. Multiscale sharpening and smoothing with wavelets
FI107680B (fi) 1999-12-22 2001-09-14 Nokia Oyj Menetelmä videokuvien lähettämiseksi, tiedonsiirtojärjestelmä, lähettävä videopäätelaite ja vastaanottava videopäätelaite
US6476805B1 (en) 1999-12-23 2002-11-05 Microsoft Corporation Techniques for spatial displacement estimation and multi-resolution operations on light fields
US6502097B1 (en) 1999-12-23 2002-12-31 Microsoft Corporation Data structure for efficient access to variable-size data objects
JP2001194114A (ja) 2000-01-14 2001-07-19 Sony Corp 画像処理装置および画像処理方法、並びにプログラム提供媒体
JP2003522576A (ja) 2000-02-18 2003-07-29 ウィリアム・ボーモント・ホスピタル 平坦なパネル画像装置を有するコーンビームコンピュータ断層撮像装置
US6523046B2 (en) 2000-02-25 2003-02-18 Microsoft Corporation Infrastructure and method for supporting generic multimedia metadata
JP2001264033A (ja) 2000-03-17 2001-09-26 Sony Corp 三次元形状計測装置とその方法、三次元モデリング装置とその方法、およびプログラム提供媒体
US6571466B1 (en) 2000-03-27 2003-06-03 Amkor Technology, Inc. Flip chip image sensor package fabrication method
JP2001277260A (ja) 2000-03-30 2001-10-09 Seiko Epson Corp マイクロレンズアレイ、その製造方法及びその製造用原盤並びに表示装置
WO2001075949A1 (fr) 2000-04-04 2001-10-11 Advantest Corporation Appareil d'exposition multifaisceau comprenant une lentille electronique multiaxe, et procede de fabrication d'un dispositif a semi-conducteur
US20020015536A1 (en) 2000-04-24 2002-02-07 Warren Penny G. Apparatus and method for color image fusion
JP2001337263A (ja) 2000-05-25 2001-12-07 Olympus Optical Co Ltd 測距装置
JP4501239B2 (ja) 2000-07-13 2010-07-14 ソニー株式会社 カメラ・キャリブレーション装置及び方法、並びに、記憶媒体
US7245761B2 (en) 2000-07-21 2007-07-17 Rahul Swaminathan Method and apparatus for reducing distortion in images
KR20030028553A (ko) 2000-07-21 2003-04-08 더 트러스티스 오브 콜롬비아 유니버시티 인 더 시티 오브 뉴욕 이미지 모자이크 방법 및 장치
US7154546B1 (en) 2000-08-07 2006-12-26 Micron Technology, Inc. Pixel optimization for color
US7200261B2 (en) 2000-08-25 2007-04-03 Fujifilm Corporation Parallax image capturing apparatus and parallax image processing apparatus
US7085409B2 (en) 2000-10-18 2006-08-01 Sarnoff Corporation Method and apparatus for synthesizing new video and/or still imagery from a collection of real video and/or still imagery
US6734905B2 (en) 2000-10-20 2004-05-11 Micron Technology, Inc. Dynamic range extension for CMOS image sensors
US6774889B1 (en) 2000-10-24 2004-08-10 Microsoft Corporation System and method for transforming an ordinary computer monitor screen into a touch screen
US7262799B2 (en) 2000-10-25 2007-08-28 Canon Kabushiki Kaisha Image sensing apparatus and its control method, control program, and storage medium
US6476971B1 (en) 2000-10-31 2002-11-05 Eastman Kodak Company Method of manufacturing a microlens array mold and a microlens array
JP3918499B2 (ja) 2000-11-01 2007-05-23 セイコーエプソン株式会社 間隙測定方法、間隙測定装置、形状測定方法、形状測定装置並びに液晶装置の製造方法
US6573912B1 (en) 2000-11-07 2003-06-03 Zaxel Systems, Inc. Internet system for virtual telepresence
US6788338B1 (en) 2000-11-20 2004-09-07 Petko Dimitrov Dinev High resolution video camera apparatus having two image sensors and signal processing
US7490774B2 (en) 2003-11-13 2009-02-17 Metrologic Instruments, Inc. Hand-supportable imaging based bar code symbol reader employing automatic light exposure measurement and illumination control subsystem integrated therein
JP2002171537A (ja) 2000-11-30 2002-06-14 Canon Inc 複眼撮像系、撮像装置および電子機器
WO2002045003A1 (en) 2000-12-01 2002-06-06 Imax Corporation Techniques and systems for developing high-resolution imagery
WO2002047031A2 (en) 2000-12-05 2002-06-13 Yeda Research And Development Co. Ltd. Apparatus and method for alignment of spatial or temporal non-overlapping image sequences
JP2002252338A (ja) 2000-12-18 2002-09-06 Canon Inc 撮像装置及び撮像システム
JP2002195910A (ja) 2000-12-26 2002-07-10 Omron Corp 光学部品の検査装置
JP2002209226A (ja) 2000-12-28 2002-07-26 Canon Inc 撮像装置
US7805680B2 (en) 2001-01-03 2010-09-28 Nokia Corporation Statistical metering and filtering of content via pixel-based metadata
JP3957460B2 (ja) 2001-01-15 2007-08-15 沖電気工業株式会社 伝送ヘッダ圧縮装置、動画像符号化装置及び動画像伝送システム
JP2002250607A (ja) 2001-02-27 2002-09-06 Optex Co Ltd 物体検知センサ
CN2488005Y (zh) 2001-03-15 2002-04-24 左耀太 型煤燃烧器
US6635941B2 (en) 2001-03-21 2003-10-21 Canon Kabushiki Kaisha Structure of semiconductor device with improved reliability
JP2002324743A (ja) 2001-04-24 2002-11-08 Canon Inc 露光方法及び装置
US6443579B1 (en) 2001-05-02 2002-09-03 Kenneth Myers Field-of-view controlling arrangements
US7235785B2 (en) 2001-05-11 2007-06-26 Irvine Sensors Corp. Imaging device with multiple fields of view incorporating memory-based temperature compensation of an uncooled focal plane array
US20020167537A1 (en) 2001-05-11 2002-11-14 Miroslav Trajkovic Motion-based tracking with pan-tilt-zoom camera
WO2002096096A1 (en) 2001-05-16 2002-11-28 Zaxel Systems, Inc. 3d instant replay system and method
AU2002305780A1 (en) 2001-05-29 2002-12-09 Transchip, Inc. Patent application cmos imager for cellular applications and methods of using such
US7738013B2 (en) 2001-05-29 2010-06-15 Samsung Electronics Co., Ltd. Systems and methods for power conservation in a CMOS imager
US6482669B1 (en) 2001-05-30 2002-11-19 Taiwan Semiconductor Manufacturing Company Colors only process to reduce package yield loss
US6525302B2 (en) 2001-06-06 2003-02-25 The Regents Of The University Of Colorado Wavefront coding phase contrast imaging systems
US7113634B2 (en) 2001-07-31 2006-09-26 Canon Kabushiki Kaisha Stereoscopic image forming apparatus, stereoscopic image forming method, stereoscopic image forming system and stereoscopic image forming program
US20030025227A1 (en) 2001-08-02 2003-02-06 Zograph, Llc Reproduction of relief patterns
US8675119B2 (en) 2001-08-09 2014-03-18 Trustees Of Columbia University In The City Of New York Adaptive imaging using digital light processing
DE60141901D1 (de) 2001-08-31 2010-06-02 St Microelectronics Srl Störschutzfilter für Bayermusterbilddaten
JP2003091726A (ja) * 2001-09-17 2003-03-28 Nhk Engineering Services Inc 反射パラメータ取得装置、反射成分分離装置、反射パラメータ取得用プログラム、及び反射成分分離用プログラム
JP3978706B2 (ja) 2001-09-20 2007-09-19 セイコーエプソン株式会社 微細構造体の製造方法
JP2003139910A (ja) 2001-10-30 2003-05-14 Sony Corp 光学素子、その製造方法およびその製造装置、並びにそれを用いた液晶表示装置および画像投影型表示装置
DE10153237A1 (de) 2001-10-31 2003-05-15 Lfk Gmbh Verfahren und Vorrichtung zur automatisierten Bestimmung der Modulations-Transfer-Funktion (MTF) von Focal-Plane-Array (FPA)- Kameras
JP3705766B2 (ja) 2001-11-28 2005-10-12 独立行政法人科学技術振興機構 画像入力装置
EP1468314A4 (de) 2001-12-18 2006-12-13 Univ Rochester Abbildung unter verwendung einer asphärischen mehrfokallinse zur erhaltung einer erweiterten schärfentiefe
US7212228B2 (en) 2002-01-16 2007-05-01 Advanced Telecommunications Research Institute International Automatic camera calibration method
US7302118B2 (en) 2002-02-07 2007-11-27 Microsoft Corporation Transformation of images
US20030179418A1 (en) 2002-03-19 2003-09-25 Eastman Kodak Company Producing a defective pixel map from defective cluster pixels in an area array image sensor
US8369607B2 (en) 2002-03-27 2013-02-05 Sanyo Electric Co., Ltd. Method and apparatus for processing three-dimensional images
JP2003298920A (ja) 2002-03-29 2003-10-17 Fuji Photo Film Co Ltd デジタルカメラ
US20030188659A1 (en) 2002-04-05 2003-10-09 Canadian Bank Note Company Limited Method and apparatus for reproducing a color image based on monochrome images derived therefrom
AU2003226047A1 (en) 2002-04-10 2003-10-27 Pan-X Imaging, Inc. A digital imaging system
US6856314B2 (en) 2002-04-18 2005-02-15 Stmicroelectronics, Inc. Method and system for 3D reconstruction of multiple views with altering search path and occlusion modeling
US6917702B2 (en) 2002-04-24 2005-07-12 Mitsubishi Electric Research Labs, Inc. Calibration of multiple cameras for a turntable-based 3D scanner
JP3567327B2 (ja) 2002-05-08 2004-09-22 富士写真光機株式会社 撮像レンズ
US6783900B2 (en) 2002-05-13 2004-08-31 Micron Technology, Inc. Color filter imaging array and method of formation
JP2004048644A (ja) 2002-05-21 2004-02-12 Sony Corp 情報処理装置、情報処理システム、及び対話者表示方法
JP2003347192A (ja) 2002-05-24 2003-12-05 Toshiba Corp エネルギービーム露光方法および露光装置
US7013318B2 (en) 2002-05-29 2006-03-14 Raytheon Company Method and system for encapsulating cells
JP2004088713A (ja) 2002-06-27 2004-03-18 Olympus Corp 撮像レンズユニットおよび撮像装置
US7129981B2 (en) 2002-06-27 2006-10-31 International Business Machines Corporation Rendering system and method for images having differing foveal area and peripheral view area resolutions
JP4147059B2 (ja) 2002-07-03 2008-09-10 株式会社トプコン キャリブレーション用データ測定装置、測定方法及び測定プログラム、並びにコンピュータ読取可能な記録媒体、画像データ処理装置
JP2004037924A (ja) 2002-07-04 2004-02-05 Minolta Co Ltd 撮像装置
EP1537550A2 (de) 2002-07-15 2005-06-08 Magna B.S.P. Ltd. Verfahren und vorrichtung zur implementierung eines mehrzweck überwachungssystems
US20040012689A1 (en) 2002-07-16 2004-01-22 Fairchild Imaging Charge coupled devices in tiled arrays
JP2004078296A (ja) 2002-08-09 2004-03-11 Victor Co Of Japan Ltd 画像生成装置
US20070166447A1 (en) 2002-08-27 2007-07-19 Select Milk Producers, Inc. Dairy compositions and method of making
AU2003274951A1 (en) 2002-08-30 2004-03-19 Orasee Corp. Multi-dimensional image system for digital image input and output
US7447380B2 (en) 2002-09-12 2008-11-04 Inoe Technologies, Llc Efficient method for creating a viewpoint from plurality of images
US20040050104A1 (en) 2002-09-18 2004-03-18 Eastman Kodak Company Forming information transfer lens array
US20040207836A1 (en) 2002-09-27 2004-10-21 Rajeshwar Chhibber High dynamic range optical inspection system and method
US7084904B2 (en) 2002-09-30 2006-08-01 Microsoft Corporation Foveated wide-angle imaging system and method for capturing and viewing wide-angle images in real time
US7477781B1 (en) 2002-10-10 2009-01-13 Dalsa Corporation Method and apparatus for adaptive pixel correction of multi-color matrix
US20040075654A1 (en) 2002-10-16 2004-04-22 Silicon Integrated Systems Corp. 3-D digital image processor and method for visibility processing for use in the same
JP4171786B2 (ja) 2002-10-25 2008-10-29 コニカミノルタホールディングス株式会社 画像入力装置
US7742088B2 (en) 2002-11-19 2010-06-22 Fujifilm Corporation Image sensor and digital camera
KR101237945B1 (ko) 2002-11-21 2013-02-28 비젼 Ⅲ 이미징 인코퍼레이티드 무안경식 디스플레이를 위한 시차 이미지의 특정한 정렬시스템 및 방법
US20040105021A1 (en) 2002-12-02 2004-06-03 Bolymedia Holdings Co., Ltd. Color filter patterns for image sensors
US20040114807A1 (en) 2002-12-13 2004-06-17 Dan Lelescu Statistical representation and coding of light field data
US6878918B2 (en) 2003-01-09 2005-04-12 Dialdg Semiconductor Gmbh APS pixel with reset noise suppression and programmable binning capability
US7340099B2 (en) 2003-01-17 2008-03-04 University Of New Brunswick System and method for image fusion
DE10301941B4 (de) 2003-01-20 2005-11-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kamera und Verfahren zur optischen Aufnahme eines Schirms
US7379592B2 (en) 2003-01-21 2008-05-27 United States Of America As Represented By The Secretary Of The Navy System and method for significant dust detection and enhancement of dust images over land and ocean
US7005637B2 (en) 2003-01-31 2006-02-28 Intevac, Inc. Backside thinning of image array devices
US7515747B2 (en) 2003-01-31 2009-04-07 The Circle For The Promotion Of Science And Engineering Method for creating high resolution color image, system for creating high resolution color image and program creating high resolution color image
US7308157B2 (en) 2003-02-03 2007-12-11 Photon Dynamics, Inc. Method and apparatus for optical inspection of a display
CN100369481C (zh) 2003-02-04 2008-02-13 松下电器产业株式会社 代码变换方法及其装置
US7595817B1 (en) 2003-02-12 2009-09-29 The Research Foundation Of State University Of New York Linear system based, qualitative independent motion detection from compressed MPEG surveillance video
US20040165090A1 (en) 2003-02-13 2004-08-26 Alex Ning Auto-focus (AF) lens and process
JP2004266369A (ja) 2003-02-21 2004-09-24 Sony Corp 固体撮像装置およびその駆動方法
US7106914B2 (en) 2003-02-27 2006-09-12 Microsoft Corporation Bayesian image super resolution
US7148861B2 (en) 2003-03-01 2006-12-12 The Boeing Company Systems and methods for providing enhanced vision imaging with decreased latency
US8218052B2 (en) 2003-03-07 2012-07-10 Iconix Video, Inc. High frame rate high definition imaging system and method
US7218320B2 (en) 2003-03-13 2007-05-15 Sony Corporation System and method for capturing facial and body motion
US6801719B1 (en) 2003-03-14 2004-10-05 Eastman Kodak Company Camera using beam splitter with micro-lens image amplification
US7206449B2 (en) 2003-03-19 2007-04-17 Mitsubishi Electric Research Laboratories, Inc. Detecting silhouette edges in images
US7425984B2 (en) 2003-04-04 2008-09-16 Stmicroelectronics, Inc. Compound camera and methods for implementing auto-focus, depth-of-field and high-resolution functions
US7373005B2 (en) 2003-04-10 2008-05-13 Micron Technology, Inc. Compression system for integrated sensor devices
US7221445B2 (en) 2003-04-11 2007-05-22 Metrolaser, Inc. Methods and apparatus for detecting and quantifying surface characteristics and material conditions using light scattering
US7097311B2 (en) 2003-04-19 2006-08-29 University Of Kentucky Research Foundation Super-resolution overlay in multi-projector displays
US6958862B1 (en) 2003-04-21 2005-10-25 Foveon, Inc. Use of a lenslet array with a vertically stacked pixel array
US7428330B2 (en) 2003-05-02 2008-09-23 Microsoft Corporation Cyclopean virtual imaging via generalized probabilistic smoothing
SE525665C2 (sv) 2003-05-08 2005-03-29 Forskarpatent I Syd Ab Matris av pixlar samt elektronisk bildanordning innefattande nämnda matris av pixlar
RU2005138159A (ru) 2003-05-13 2006-07-27 Экссид Имиджинг Лтд. (Il) Способ повышения разрешения в оптическом изображении и система для его осуществления
JP2004348674A (ja) 2003-05-26 2004-12-09 Noritsu Koki Co Ltd 領域検出方法及びその装置
US20040239782A1 (en) 2003-05-30 2004-12-02 William Equitz System and method for efficient improvement of image quality in cameras
CN1574894A (zh) 2003-06-02 2005-02-02 宾得株式会社 多焦距成像装置和具有该多焦距成像装置的移动装置
JP2004363478A (ja) 2003-06-06 2004-12-24 Sanyo Electric Co Ltd 半導体装置の製造方法
KR100539234B1 (ko) 2003-06-11 2005-12-27 삼성전자주식회사 투명 고분자 소재를 적용한 씨모스형 이미지 센서 모듈 및그 제조방법
US7362918B2 (en) 2003-06-24 2008-04-22 Microsoft Corporation System and method for de-noising multiple copies of a signal
US6818934B1 (en) 2003-06-24 2004-11-16 Omnivision International Holding Ltd Image sensor having micro-lens array separated with trench structures and method of making
US7495694B2 (en) 2004-07-28 2009-02-24 Microsoft Corp. Omni-directional camera with calibration and up look angle improvements
US20050117015A1 (en) 2003-06-26 2005-06-02 Microsoft Corp. Foveated panoramic camera system
US7315630B2 (en) 2003-06-26 2008-01-01 Fotonation Vision Limited Perfecting of digital image rendering parameters within rendering devices using face detection
US7388609B2 (en) 2003-07-07 2008-06-17 Zoran Corporation Dynamic identification and correction of defective pixels
US7090135B2 (en) 2003-07-07 2006-08-15 Symbol Technologies, Inc. Imaging arrangement and barcode imager for imaging an optical code or target at a plurality of focal planes
US20050007461A1 (en) 2003-07-11 2005-01-13 Novatek Microelectronic Co. Correction system and method of analog front end
JP3731589B2 (ja) 2003-07-18 2006-01-05 ソニー株式会社 撮像装置と同期信号発生装置
US7233737B2 (en) 2003-08-12 2007-06-19 Micron Technology, Inc. Fixed-focus camera module and associated method of assembly
US20050111705A1 (en) 2003-08-26 2005-05-26 Roman Waupotitsch Passive stereo sensing for 3D facial shape biometrics
US7643703B2 (en) 2003-09-03 2010-01-05 Battelle Energy Alliance, Llc Image change detection systems, methods, and articles of manufacture
US20050084179A1 (en) 2003-09-04 2005-04-21 Keith Hanna Method and apparatus for performing iris recognition from an image
WO2005027038A2 (en) 2003-09-08 2005-03-24 Honda Motor Co., Ltd. Systems and methods for directly generating a view using a layered approach
JP4015090B2 (ja) 2003-09-08 2007-11-28 株式会社東芝 立体表示装置および画像表示方法
JP4020850B2 (ja) 2003-10-06 2007-12-12 株式会社東芝 磁気記録媒体の製造方法、製造装置、インプリントスタンパ及びその製造方法
US7079251B2 (en) 2003-10-16 2006-07-18 4D Technology Corporation Calibration and error correction in multi-channel imaging
WO2005041562A1 (ja) 2003-10-22 2005-05-06 Matsushita Electric Industrial Co., Ltd. 撮像装置とその製造方法、携帯機器、及び撮像素子とその製造方法
US7840067B2 (en) 2003-10-24 2010-11-23 Arcsoft, Inc. Color matching and color correction for images forming a panoramic image
JP4118916B2 (ja) 2003-11-11 2008-07-16 オリンパス株式会社 マルチスペクトル画像撮影装置
JP4235539B2 (ja) 2003-12-01 2009-03-11 独立行政法人科学技術振興機構 画像構成装置及び画像構成方法
US7453510B2 (en) 2003-12-11 2008-11-18 Nokia Corporation Imaging device
US7328288B2 (en) 2003-12-11 2008-02-05 Canon Kabushiki Kaisha Relay apparatus for relaying communication from CPU to peripheral device
US20050128509A1 (en) 2003-12-11 2005-06-16 Timo Tokkonen Image creating method and imaging device
JP3859158B2 (ja) 2003-12-16 2006-12-20 セイコーエプソン株式会社 マイクロレンズ用凹部付き基板、マイクロレンズ基板、透過型スクリーン、およびリア型プロジェクタ
US7123298B2 (en) 2003-12-18 2006-10-17 Avago Technologies Sensor Ip Pte. Ltd. Color image sensor with imaging elements imaging on respective regions of sensor elements
US7511749B2 (en) 2003-12-18 2009-03-31 Aptina Imaging Corporation Color image sensor having imaging element array forming images on respective regions of sensor elements
US7376250B2 (en) 2004-01-05 2008-05-20 Honda Motor Co., Ltd. Apparatus, method and program for moving object detection
US7496293B2 (en) 2004-01-14 2009-02-24 Elbit Systems Ltd. Versatile camera for various visibility conditions
US7773143B2 (en) 2004-04-08 2010-08-10 Tessera North America, Inc. Thin color camera having sub-pixel resolution
US8134637B2 (en) 2004-01-28 2012-03-13 Microsoft Corporation Method and system to increase X-Y resolution in a depth (Z) camera using red, blue, green (RGB) sensing
US7453688B2 (en) 2004-01-29 2008-11-18 Inventec Corporation Multimedia device for portable computers
US7774044B2 (en) 2004-02-17 2010-08-10 Siemens Medical Solutions Usa, Inc. System and method for augmented reality navigation in a medical intervention procedure
US20050185711A1 (en) 2004-02-20 2005-08-25 Hanspeter Pfister 3D television system and method
SE527889C2 (sv) 2004-03-17 2006-07-04 Thomas Jeff Adamo Apparat för avbildning av ett objekt
JP2006047944A (ja) 2004-03-24 2006-02-16 Fuji Photo Film Co Ltd 撮影レンズ
JP4468442B2 (ja) 2004-03-31 2010-05-26 キヤノン株式会社 イメージングシステム性能測定
US7633511B2 (en) 2004-04-01 2009-12-15 Microsoft Corporation Pop-up light field
JP4665422B2 (ja) 2004-04-02 2011-04-06 ソニー株式会社 撮像装置
US8634014B2 (en) 2004-04-05 2014-01-21 Hewlett-Packard Development Company, L.P. Imaging device analysis systems and imaging device analysis methods
US7091531B2 (en) 2004-04-07 2006-08-15 Micron Technology, Inc. High dynamic range pixel amplifier
US8049806B2 (en) 2004-09-27 2011-11-01 Digitaloptics Corporation East Thin camera and associated methods
US7620265B1 (en) 2004-04-12 2009-11-17 Equinox Corporation Color invariant image fusion of visible and thermal infrared video
JP2005303694A (ja) 2004-04-13 2005-10-27 Konica Minolta Holdings Inc 複眼撮像装置
US7292735B2 (en) 2004-04-16 2007-11-06 Microsoft Corporation Virtual image artifact detection
US7773404B2 (en) 2005-01-07 2010-08-10 Invisage Technologies, Inc. Quantum dot optical devices with enhanced gain and sensitivity and methods of making same
US8218625B2 (en) 2004-04-23 2012-07-10 Dolby Laboratories Licensing Corporation Encoding, decoding and representing high dynamic range images
US20060034531A1 (en) 2004-05-10 2006-02-16 Seiko Epson Corporation Block noise level evaluation method for compressed images and control method of imaging device utilizing the evaluation method
JP4691552B2 (ja) 2004-05-14 2011-06-01 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 乳癌診断システム及び方法
JP4610411B2 (ja) 2004-05-17 2011-01-12 ミツビシ・エレクトリック・リサーチ・ラボラトリーズ・インコーポレイテッド 物体を含むシーンの様式化された画像を生成する方法
US7355793B2 (en) 2004-05-19 2008-04-08 The Regents Of The University Of California Optical system applicable to improving the dynamic range of Shack-Hartmann sensors
US20050265633A1 (en) 2004-05-25 2005-12-01 Sarnoff Corporation Low latency pyramid processor for image processing systems
JP2005354124A (ja) 2004-06-08 2005-12-22 Seiko Epson Corp 複数の低画素密度画像からの高画素密度画像の生成
US20060013318A1 (en) 2004-06-22 2006-01-19 Jennifer Webb Video error detection, recovery, and concealment
US7330593B2 (en) 2004-06-25 2008-02-12 Stmicroelectronics, Inc. Segment based image matching method and system
JP4408755B2 (ja) 2004-06-28 2010-02-03 Necエレクトロニクス株式会社 デインタリーブ装置、移動通信端末及びデインタリーブ方法
JP4479373B2 (ja) 2004-06-28 2010-06-09 ソニー株式会社 イメージセンサ
US7447382B2 (en) 2004-06-30 2008-11-04 Intel Corporation Computing a higher resolution image from multiple lower resolution images using model-based, robust Bayesian estimation
JP2006033228A (ja) 2004-07-14 2006-02-02 Victor Co Of Japan Ltd 画像撮像装置
JP2006033493A (ja) 2004-07-16 2006-02-02 Matsushita Electric Ind Co Ltd 撮像装置
US7189954B2 (en) 2004-07-19 2007-03-13 Micron Technology, Inc. Microelectronic imagers with optical devices and methods of manufacturing such microelectronic imagers
JP2006033570A (ja) 2004-07-20 2006-02-02 Olympus Corp 画像生成装置
US8027531B2 (en) 2004-07-21 2011-09-27 The Board Of Trustees Of The Leland Stanford Junior University Apparatus and method for capturing a scene using staggered triggering of dense camera arrays
GB0416496D0 (en) 2004-07-23 2004-08-25 Council Of The Central Lab Of Imaging device
US7068432B2 (en) 2004-07-27 2006-06-27 Micron Technology, Inc. Controlling lens shape in a microlens array
US20060023197A1 (en) 2004-07-27 2006-02-02 Joel Andrew H Method and system for automated production of autostereoscopic and animated prints and transparencies from digital and non-digital media
DE102004036469A1 (de) 2004-07-28 2006-02-16 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Kameramodul, hierauf basierendes Array und Verfahren zu dessen Herstellung
US20060028476A1 (en) 2004-08-03 2006-02-09 Irwin Sobel Method and system for providing extensive coverage of an object using virtual cameras
US7333652B2 (en) 2004-08-03 2008-02-19 Sony Corporation System and method for efficiently performing a depth map recovery procedure
JP2006050263A (ja) 2004-08-04 2006-02-16 Olympus Corp 画像生成方法および装置
WO2006017771A1 (en) 2004-08-06 2006-02-16 University Of Washington Variable fixation viewing distance scanned light displays
US7430339B2 (en) 2004-08-09 2008-09-30 Microsoft Corporation Border matting by dynamic programming
US7609302B2 (en) 2004-08-11 2009-10-27 Micron Technology, Inc. Correction of non-uniform sensitivity in an image array
US7645635B2 (en) 2004-08-16 2010-01-12 Micron Technology, Inc. Frame structure and semiconductor attach process for use therewith for fabrication of image sensor packages and the like, and resulting packages
US7061693B2 (en) 2004-08-16 2006-06-13 Xceed Imaging Ltd. Optical method and system for extended depth of focus
WO2006036398A2 (en) 2004-08-23 2006-04-06 Sarnoff Corporation Method and apparatus for producing a fused image
US8124929B2 (en) 2004-08-25 2012-02-28 Protarius Filo Ag, L.L.C. Imager module optical focus and assembly method
US7916180B2 (en) 2004-08-25 2011-03-29 Protarius Filo Ag, L.L.C. Simultaneous multiple field of view digital cameras
EP1812968B1 (de) 2004-08-25 2019-01-16 Callahan Cellular L.L.C. Vorrichtung für mehrere kameraeinrichtungen und verfahren zu ihrem betrieb
US7564019B2 (en) 2005-08-25 2009-07-21 Richard Ian Olsen Large dynamic range cameras
US7795577B2 (en) 2004-08-25 2010-09-14 Richard Ian Olsen Lens frame and optical focus assembly for imager module
CN100489599C (zh) 2004-08-26 2009-05-20 财团法人秋田企业活性化中心 液晶透镜
JP4057597B2 (ja) 2004-08-26 2008-03-05 独立行政法人科学技術振興機構 光学素子
US20060046204A1 (en) 2004-08-31 2006-03-02 Sharp Laboratories Of America, Inc. Directly patternable microlens
JP2006080852A (ja) 2004-09-09 2006-03-23 Olympus Corp 画像処理装置、電子カメラ、スキャナ、画像処理方法、および画像処理プログラム
US20060055811A1 (en) 2004-09-14 2006-03-16 Frtiz Bernard S Imaging system having modules with adaptive optical elements
US7145124B2 (en) 2004-09-15 2006-12-05 Raytheon Company Multispectral imaging chip using photonic crystals
JP4202991B2 (ja) 2004-09-29 2008-12-24 株式会社東芝 立体画像用データの記録方法及び表示再生方法
JP3977368B2 (ja) 2004-09-30 2007-09-19 クラリオン株式会社 駐車支援システム
DE102004049676A1 (de) 2004-10-12 2006-04-20 Infineon Technologies Ag Verfahren zur rechnergestützten Bewegungsschätzung in einer Vielzahl von zeitlich aufeinander folgenden digitalen Bildern, Anordnung zur rechnergestützten Bewegungsschätzung, Computerprogramm-Element und computerlesbares Speichermedium
JP2006119368A (ja) 2004-10-21 2006-05-11 Konica Minolta Opto Inc 広角光学系、撮像レンズ装置、モニタカメラ及びデジタル機器
JP4534715B2 (ja) 2004-10-22 2010-09-01 株式会社ニコン 撮像装置および画像処理プログラム
DE102004052994C5 (de) 2004-11-03 2010-08-26 Vistec Electron Beam Gmbh Multistrahlmodulator für einen Partikelstrahl und Verwendung des Multistrahlmodulators zur maskenlosen Substratsstrukturierung
KR100603601B1 (ko) 2004-11-08 2006-07-24 한국전자통신연구원 다시점 콘텐츠 생성 장치 및 그 방법
US7598996B2 (en) 2004-11-16 2009-10-06 Aptina Imaging Corporation System and method for focusing a digital camera
JP2006165795A (ja) 2004-12-03 2006-06-22 Canon Inc 画像形成装置およびその方法
EP1831657B1 (de) 2004-12-03 2018-12-05 Fluke Corporation Verfahren für eine kombinierte bildkamera für sichtbares licht und ir
US7483065B2 (en) 2004-12-15 2009-01-27 Aptina Imaging Corporation Multi-lens imaging systems and methods using optical filters having mosaic patterns
US8854486B2 (en) 2004-12-17 2014-10-07 Mitsubishi Electric Research Laboratories, Inc. Method and system for processing multiview videos for view synthesis using skip and direct modes
US7728878B2 (en) 2004-12-17 2010-06-01 Mitsubishi Electric Research Labortories, Inc. Method and system for processing multiview videos for view synthesis using side information
US20060139475A1 (en) 2004-12-23 2006-06-29 Esch John W Multiple field of view camera arrays
US20110102553A1 (en) 2007-02-28 2011-05-05 Tessera Technologies Ireland Limited Enhanced real-time face models from stereo imaging
CN101198964A (zh) 2005-01-07 2008-06-11 格斯图尔泰克股份有限公司 使用红外图案照射创建对象的三维图像
US7073908B1 (en) 2005-01-11 2006-07-11 Anthony Italo Provitola Enhancement of depth perception
US7767949B2 (en) 2005-01-18 2010-08-03 Rearden, Llc Apparatus and method for capturing still images and video using coded aperture techniques
US7671321B2 (en) 2005-01-18 2010-03-02 Rearden, Llc Apparatus and method for capturing still images and video using coded lens imaging techniques
US7602997B2 (en) 2005-01-19 2009-10-13 The United States Of America As Represented By The Secretary Of The Army Method of super-resolving images
US8700729B2 (en) 2005-01-21 2014-04-15 Robin Dua Method and apparatus for managing credentials through a wireless network
US7715590B2 (en) * 2005-02-02 2010-05-11 Intergraph Technologies Company Real-time image detection using polarization data
US7408627B2 (en) 2005-02-08 2008-08-05 Canesta, Inc. Methods and system to quantify depth data accuracy in three-dimensional sensors using single frame capture
US7965314B1 (en) 2005-02-09 2011-06-21 Flir Systems, Inc. Foveal camera systems and methods
US7561191B2 (en) 2005-02-18 2009-07-14 Eastman Kodak Company Camera phone using multiple lenses and image sensors to provide an extended zoom range
US20060187322A1 (en) 2005-02-18 2006-08-24 Janson Wilbert F Jr Digital camera using multiple fixed focal length lenses and multiple image sensors to provide an extended zoom range
CN101189487B (zh) 2005-03-11 2010-08-11 形创有限公司 三维扫描自动参考***和设备
JP2006258930A (ja) 2005-03-15 2006-09-28 Nikon Corp マイクロレンズの製造方法、及びマイクロレンズ用の型の製造方法
WO2006102181A1 (en) 2005-03-21 2006-09-28 Massachusetts Institute Of Technology (Mit) Real-time, continuous-wave terahertz imaging using a microbolometer focal-plane array
WO2006100903A1 (ja) 2005-03-23 2006-09-28 Matsushita Electric Industrial Co., Ltd. 車載撮像装置
US7297917B2 (en) 2005-03-24 2007-11-20 Micron Technology, Inc. Readout technique for increasing or maintaining dynamic range in image sensors
JP4545190B2 (ja) 2005-03-24 2010-09-15 パナソニック株式会社 撮像装置
US7683950B2 (en) 2005-04-26 2010-03-23 Eastman Kodak Company Method and apparatus for correcting a channel dependent color aberration in a digital image
US7956871B2 (en) 2005-04-28 2011-06-07 Samsung Electronics Co., Ltd. Color disparity correction in image sensors methods and circuits
US7656428B2 (en) 2005-05-05 2010-02-02 Avago Technologies General Ip (Singapore) Pte. Ltd. Imaging device employing optical motion sensor as gyroscope
WO2006123581A1 (ja) 2005-05-18 2006-11-23 Hitachi Medical Corporation 放射線撮影装置及び画像処理プログラム
US8411182B2 (en) 2005-06-02 2013-04-02 Xerox Corporation System for controlling integration times of photosensors in an imaging device
US7968888B2 (en) 2005-06-08 2011-06-28 Panasonic Corporation Solid-state image sensor and manufacturing method thereof
JP2006345233A (ja) 2005-06-09 2006-12-21 Fujifilm Holdings Corp 撮像装置及びデジタルカメラ
KR100813961B1 (ko) 2005-06-14 2008-03-14 삼성전자주식회사 영상 수신장치
US7364306B2 (en) 2005-06-20 2008-04-29 Digital Display Innovations, Llc Field sequential light source modulation for a digital display system
JP4826152B2 (ja) 2005-06-23 2011-11-30 株式会社ニコン 画像合成方法及び撮像装置
US20070102622A1 (en) 2005-07-01 2007-05-10 Olsen Richard I Apparatus for multiple camera devices and method of operating same
ES2375929T3 (es) 2005-07-04 2012-03-07 High Point Pharmaceuticals, Llc Antagonistas del receptor histamina h3.
JP4577126B2 (ja) 2005-07-08 2010-11-10 オムロン株式会社 ステレオ対応づけのための投光パターンの生成装置及び生成方法
WO2007014293A1 (en) 2005-07-25 2007-02-01 The Regents Of The University Of California Digital imaging system and method to produce mosaic images
CA2553473A1 (en) 2005-07-26 2007-01-26 Wa James Tam Generating a depth map from a tw0-dimensional source image for stereoscopic and multiview imaging
WO2007013250A1 (ja) 2005-07-26 2007-02-01 Matsushita Electric Industrial Co., Ltd. 複眼方式の撮像装置
JPWO2007013280A1 (ja) 2005-07-29 2009-02-05 株式会社Access プラグインモジュール実行方法、ブラウザ実行方法、メーラ実行方法、プログラム、端末装置、及び、ページデータが記録されたコンピュータ読み取り可能な記録媒体
US7969488B2 (en) 2005-08-03 2011-06-28 Micron Technologies, Inc. Correction of cluster defects in imagers
US7929801B2 (en) 2005-08-15 2011-04-19 Sony Corporation Depth information for auto focus using two pictures and two-dimensional Gaussian scale space theory
US20070041391A1 (en) 2005-08-18 2007-02-22 Micron Technology, Inc. Method and apparatus for controlling imager output data rate
US20070040922A1 (en) 2005-08-22 2007-02-22 Micron Technology, Inc. HDR/AB on multi-way shared pixels
US7964835B2 (en) 2005-08-25 2011-06-21 Protarius Filo Ag, L.L.C. Digital cameras with direct luminance and chrominance detection
US20070258006A1 (en) 2005-08-25 2007-11-08 Olsen Richard I Solid state camera optics frame and assembly
US20070083114A1 (en) 2005-08-26 2007-04-12 The University Of Connecticut Systems and methods for image resolution enhancement
JP4804856B2 (ja) 2005-09-29 2011-11-02 富士フイルム株式会社 単焦点レンズ
WO2007036055A1 (en) 2005-09-30 2007-04-05 Simon Fraser University Methods and apparatus for detecting defects in imaging arrays by image analysis
WO2007044725A2 (en) 2005-10-07 2007-04-19 The Board Of Trustees Of The Leland Stanford Junior University Microscopy arrangements and approaches
JP4773179B2 (ja) 2005-10-14 2011-09-14 富士フイルム株式会社 撮像装置
US8300085B2 (en) 2005-10-14 2012-10-30 Microsoft Corporation Occlusion handling in stereo imaging
US7806604B2 (en) 2005-10-20 2010-10-05 Honeywell International Inc. Face detection and tracking in a wide field of view
KR100730406B1 (ko) 2005-11-16 2007-06-19 광운대학교 산학협력단 중간 요소 영상을 이용한 입체 영상 표시 장치
JP4389865B2 (ja) 2005-11-17 2009-12-24 ソニー株式会社 固体撮像素子の信号処理装置および信号処理方法並びに撮像装置
JP4943695B2 (ja) 2005-11-21 2012-05-30 富士フイルム株式会社 多焦点カメラの撮影光学系
US7599547B2 (en) 2005-11-30 2009-10-06 Microsoft Corporation Symmetric stereo model for handling occlusion
EP1958458B1 (de) 2005-11-30 2016-08-17 Telecom Italia S.p.A. Verfahren zur bestimmung von streudisparitätsfeldern in der stereoskopie
JP4516516B2 (ja) 2005-12-07 2010-08-04 本田技研工業株式会社 人物検出装置、人物検出方法及び人物検出プログラム
TWI296480B (en) 2005-12-19 2008-05-01 Quanta Comp Inc Image camera of an electronic device
JP4501855B2 (ja) 2005-12-22 2010-07-14 ソニー株式会社 画像信号処理装置、撮像装置、および画像信号処理方法、並びにコンピュータ・プログラム
JP2007180730A (ja) 2005-12-27 2007-07-12 Eastman Kodak Co デジタルカメラおよびデータ管理方法
KR100789441B1 (ko) 2005-12-30 2007-12-28 엘에스산전 주식회사 인버터의 전류 검출 장치 및 방법
WO2007077283A1 (en) 2005-12-30 2007-07-12 Nokia Corporation Method and device for controlling auto focusing of a video camera by tracking a region-of-interest
US7855786B2 (en) 2006-01-09 2010-12-21 Bae Systems Spectral Solutions Llc Single camera multi-spectral imager
US7675080B2 (en) 2006-01-10 2010-03-09 Aptina Imaging Corp. Uniform color filter arrays in a moat
WO2007083579A1 (ja) 2006-01-20 2007-07-26 Matsushita Electric Industrial Co., Ltd. 複眼方式のカメラモジュール及びその製造方法
DE102006004802B4 (de) 2006-01-23 2008-09-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bilderfassungssystem und Verfahren zur Herstellung mindestens eines Bilderfassungssystems
US7856125B2 (en) 2006-01-31 2010-12-21 University Of Southern California 3D face reconstruction from 2D images
JP4834412B2 (ja) 2006-02-03 2011-12-14 富士フイルム株式会社 固体撮像装置およびこれを用いた電子内視鏡
US8075604B2 (en) 2006-02-16 2011-12-13 Warsaw Orthopedic, Inc. Multi-thread bone screw and method
US20070201859A1 (en) 2006-02-24 2007-08-30 Logitech Europe S.A. Method and system for use of 3D sensors in an image capture device
US7391572B2 (en) 2006-03-01 2008-06-24 International Business Machines Corporation Hybrid optical/electronic structures fabricated by a common molding process
US7924483B2 (en) 2006-03-06 2011-04-12 Smith Scott T Fused multi-array color image sensor
DE102006011707B4 (de) 2006-03-14 2010-11-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Verfahren und Vorrichtung zum Erzeugen einer strukturfreien fiberskopischen Aufnahme
US7616254B2 (en) 2006-03-16 2009-11-10 Sony Corporation Simple method for calculating camera defocus from an image scene
US8360574B2 (en) 2006-03-20 2013-01-29 High Performance Optics, Inc. High performance selective light wavelength filtering providing improved contrast sensitivity
JP4615468B2 (ja) 2006-03-23 2011-01-19 富士フイルム株式会社 撮影装置
US7606484B1 (en) 2006-03-23 2009-10-20 Flir Systems, Inc. Infrared and near-infrared camera hyperframing
CN101046882A (zh) 2006-03-27 2007-10-03 谷京陆 可直接输出的混合分辨率图像制作技术
US7342212B2 (en) 2006-03-31 2008-03-11 Micron Technology, Inc. Analog vertical sub-sampling in an active pixel sensor (APS) image sensor
US8044994B2 (en) 2006-04-04 2011-10-25 Mitsubishi Electric Research Laboratories, Inc. Method and system for decoding and displaying 3D light fields
US7916934B2 (en) 2006-04-04 2011-03-29 Mitsubishi Electric Research Laboratories, Inc. Method and system for acquiring, encoding, decoding and displaying 3D light fields
TW200740212A (en) 2006-04-10 2007-10-16 Sony Taiwan Ltd A stitching accuracy improvement method with lens distortion correction
US20070242141A1 (en) 2006-04-14 2007-10-18 Sony Corporation And Sony Electronics Inc. Adjustable neutral density filter system for dynamic range compression from scene to imaging sensor
CN101064780B (zh) 2006-04-30 2012-07-04 台湾新力国际股份有限公司 利用透镜失真校正的影像接合准确度改善方法及装置
US20070263114A1 (en) 2006-05-01 2007-11-15 Microalign Technologies, Inc. Ultra-thin digital imaging device of high resolution for mobile electronic devices and method of imaging
US7580620B2 (en) 2006-05-08 2009-08-25 Mitsubishi Electric Research Laboratories, Inc. Method for deblurring images using optimized temporal coding patterns
US8350957B2 (en) * 2006-05-09 2013-01-08 Technion Research And Development Foundation Ltd. Imaging systems and methods for recovering object visibility
US9736346B2 (en) 2006-05-09 2017-08-15 Stereo Display, Inc Imaging system improving image resolution of the system with low resolution image sensor
US7889264B2 (en) 2006-05-12 2011-02-15 Ricoh Co., Ltd. End-to-end design of superresolution electro-optic imaging systems
US7916362B2 (en) 2006-05-22 2011-03-29 Eastman Kodak Company Image sensor with improved light sensitivity
US8139142B2 (en) 2006-06-01 2012-03-20 Microsoft Corporation Video manipulation of red, green, blue, distance (RGB-Z) data including segmentation, up-sampling, and background substitution techniques
IES20070229A2 (en) 2006-06-05 2007-10-03 Fotonation Vision Ltd Image acquisition method and apparatus
US8081207B2 (en) 2006-06-06 2011-12-20 Point Grey Research Inc. High accuracy stereo camera
US20070177004A1 (en) 2006-06-08 2007-08-02 Timo Kolehmainen Image creating method and imaging device
US20070291995A1 (en) 2006-06-09 2007-12-20 Rivera Paul G System, Method, and Apparatus for Preventing Identity Fraud Associated With Payment and Identity Cards
JP4631811B2 (ja) 2006-06-12 2011-02-16 株式会社日立製作所 撮像装置
JP5106870B2 (ja) 2006-06-14 2012-12-26 株式会社東芝 固体撮像素子
FR2902530A1 (fr) 2006-06-19 2007-12-21 St Microelectronics Rousset Procede de fabrication de lentilles, notamment pour imageur comprenant un diaphragme
TWI362550B (en) 2007-06-21 2012-04-21 Ether Precision Inc The method for manufacturing the image captures unit
US7925117B2 (en) 2006-06-27 2011-04-12 Honeywell International Inc. Fusion of sensor data and synthetic data to form an integrated image
FR2903155B1 (fr) 2006-07-03 2008-10-17 Poclain Hydraulics Ind Soc Par Circuit hydraulique de recuperation d'energie
KR100793369B1 (ko) 2006-07-06 2008-01-11 삼성전자주식회사 분해능이 향상되는 이미지 센서 및 이를 이용한 이미지감지 방법
US20080024683A1 (en) 2006-07-31 2008-01-31 Niranjan Damera-Venkata Overlapped multi-projector system with dithering
JP2008039852A (ja) 2006-08-01 2008-02-21 Agc Techno Glass Co Ltd ガラス光学素子及びその製造方法
US20080030592A1 (en) 2006-08-01 2008-02-07 Eastman Kodak Company Producing digital image with different resolution portions
US8406562B2 (en) 2006-08-11 2013-03-26 Geo Semiconductor Inc. System and method for automated calibration and correction of display geometry and color
US20080044170A1 (en) 2006-08-16 2008-02-21 Choon Hwee Yap Image Capturing System And Method Of Operating The Same
EP1892688B1 (de) 2006-08-24 2010-09-01 Valeo Vision Verfahren zur Bestimmung der Durchfahrt eines Fahrzeugs durch eine engen Durchlass
US8306063B2 (en) 2006-08-29 2012-11-06 EXFO Services Assurance, Inc. Real-time transport protocol stream detection system and method
US8687087B2 (en) 2006-08-29 2014-04-01 Csr Technology Inc. Digital camera with selectively increased dynamic range by control of parameters during image acquisition
KR100746360B1 (ko) 2006-08-31 2007-08-06 삼성전기주식회사 스템퍼 제조방법
NO326372B1 (no) 2006-09-21 2008-11-17 Polight As Polymerlinse
US7918555B2 (en) 2006-09-25 2011-04-05 Ophthonix, Inc. Methods and lenses for correction of chromatic aberration
JP4403162B2 (ja) 2006-09-29 2010-01-20 株式会社東芝 立体画像表示装置および立体画像の作製方法
US20080080028A1 (en) 2006-10-02 2008-04-03 Micron Technology, Inc. Imaging method, apparatus and system having extended depth of field
US8031258B2 (en) 2006-10-04 2011-10-04 Omnivision Technologies, Inc. Providing multiple video signals from single sensor
WO2008044937A1 (en) 2006-10-11 2008-04-17 Ignis Display As Design of compact adjustable lens
US8883019B2 (en) 2006-10-11 2014-11-11 Polight As Method for manufacturing adjustable lens
US8073196B2 (en) 2006-10-16 2011-12-06 University Of Southern California Detection and tracking of moving objects from a moving platform in presence of strong parallax
US7702229B2 (en) 2006-10-18 2010-04-20 Eastman Kodak Company Lens array assisted focus detection
JP4349456B2 (ja) 2006-10-23 2009-10-21 ソニー株式会社 固体撮像素子
US20100103175A1 (en) 2006-10-25 2010-04-29 Tokyo Institute Of Technology Method for generating a high-resolution virtual-focal-plane image
US7888159B2 (en) 2006-10-26 2011-02-15 Omnivision Technologies, Inc. Image sensor having curved micro-mirrors over the sensing photodiode and method for fabricating
JP4452951B2 (ja) 2006-11-02 2010-04-21 富士フイルム株式会社 距離画像生成方法及びその装置
KR20080043106A (ko) 2006-11-13 2008-05-16 삼성전자주식회사 광학렌즈 및 그 제조방법
US8059162B2 (en) 2006-11-15 2011-11-15 Sony Corporation Imaging apparatus and method, and method for designing imaging apparatus
US20080118241A1 (en) 2006-11-16 2008-05-22 Tekolste Robert Control of stray light in camera systems employing an optics stack and associated methods
CN201043890Y (zh) 2006-11-17 2008-04-02 中国科学院上海光学精密机械研究所 单孔径多重成像的光学成像测距装置
EP2084491A2 (de) 2006-11-21 2009-08-05 Mantisvision Ltd. Geometrische modellierung in 3d und videoinhaltserzeugung in 3d
KR20080047002A (ko) 2006-11-24 2008-05-28 엘지이노텍 주식회사 카메라모듈의 렌즈 어셈블리 및 그 제작 방법
JP4406937B2 (ja) 2006-12-01 2010-02-03 富士フイルム株式会社 撮影装置
US8559705B2 (en) 2006-12-01 2013-10-15 Lytro, Inc. Interactive refocusing of electronic images
US8570426B2 (en) 2008-11-25 2013-10-29 Lytro, Inc. System of and method for video refocusing
US20100265385A1 (en) 2009-04-18 2010-10-21 Knight Timothy J Light Field Camera Image, File and Configuration Data, and Methods of Using, Storing and Communicating Same
JP5040493B2 (ja) 2006-12-04 2012-10-03 ソニー株式会社 撮像装置及び撮像方法
US8242426B2 (en) 2006-12-12 2012-08-14 Dolby Laboratories Licensing Corporation Electronic camera having multiple sensors for capturing high dynamic range images and related methods
US7646549B2 (en) 2006-12-18 2010-01-12 Xceed Imaging Ltd Imaging system and method for providing extended depth of focus, range extraction and super resolved imaging
US8558929B2 (en) 2006-12-20 2013-10-15 Carestream Health, Inc. Imaging array for multiple frame capture
US8213500B2 (en) 2006-12-21 2012-07-03 Sharp Laboratories Of America, Inc. Methods and systems for processing film grain noise
TWI324015B (en) 2006-12-22 2010-04-21 Ind Tech Res Inst Autofocus searching method
US8103111B2 (en) 2006-12-26 2012-01-24 Olympus Imaging Corp. Coding method, electronic camera, recording medium storing coded program, and decoding method
US20080158259A1 (en) 2006-12-28 2008-07-03 Texas Instruments Incorporated Image warping and lateral color correction
US20080158698A1 (en) 2006-12-29 2008-07-03 Chao-Chi Chang Lens barrel array and lens array and the method of making the same
US7973823B2 (en) 2006-12-29 2011-07-05 Nokia Corporation Method and system for image pre-processing
US20080165257A1 (en) 2007-01-05 2008-07-10 Micron Technology, Inc. Configurable pixel array system and method
JP4993578B2 (ja) 2007-01-15 2012-08-08 オリンパスイメージング株式会社 画像ファイル再生装置,画像ファイル加工編集装置
US8655052B2 (en) 2007-01-26 2014-02-18 Intellectual Discovery Co., Ltd. Methodology for 3D scene reconstruction from 2D image sequences
JP5024992B2 (ja) 2007-02-02 2012-09-12 株式会社ジャパンディスプレイセントラル 表示装置
US7792423B2 (en) 2007-02-06 2010-09-07 Mitsubishi Electric Research Laboratories, Inc. 4D light field cameras
US7667824B1 (en) 2007-02-06 2010-02-23 Alpha Technology, LLC Range gated shearography systems and related methods
JP4969474B2 (ja) 2007-02-09 2012-07-04 オリンパスイメージング株式会社 復号方法、復号装置、及び復号プログラム
JP4185956B2 (ja) 2007-02-27 2008-11-26 トヨタ自動車株式会社 旅行時間演算サーバ、車両用旅行時間演算装置及び旅行時間演算システム
JP2008209761A (ja) 2007-02-27 2008-09-11 Nikon Corp 焦点検出装置および撮像装置
JP4386083B2 (ja) 2007-02-27 2009-12-16 トヨタ自動車株式会社 駐車支援装置
JP4153013B1 (ja) 2007-03-06 2008-09-17 シャープ株式会社 撮像レンズ、撮像ユニットおよびそれを備えた携帯型情報端末
US7755679B2 (en) 2007-03-07 2010-07-13 Altasens, Inc. Apparatus and method for reducing edge effect in an image sensor
US7683962B2 (en) 2007-03-09 2010-03-23 Eastman Kodak Company Camera using multiple lenses and image sensors in a rangefinder configuration to provide a range map
US7729602B2 (en) 2007-03-09 2010-06-01 Eastman Kodak Company Camera using multiple lenses and image sensors operable in a default imaging mode
US7676146B2 (en) 2007-03-09 2010-03-09 Eastman Kodak Company Camera using multiple lenses and image sensors to provide improved focusing capability
US7859588B2 (en) 2007-03-09 2010-12-28 Eastman Kodak Company Method and apparatus for operating a dual lens camera to augment an image
US8593506B2 (en) 2007-03-15 2013-11-26 Yissum Research Development Company Of The Hebrew University Of Jerusalem Method and system for forming a panoramic image of a scene having minimal aspect distortion
JP2008242658A (ja) 2007-03-26 2008-10-09 Funai Electric Co Ltd 立体物体の撮像装置
JP4915859B2 (ja) 2007-03-26 2012-04-11 船井電機株式会社 物体の距離導出装置
US7738017B2 (en) 2007-03-27 2010-06-15 Aptina Imaging Corporation Method and apparatus for automatic linear shift parallax correction for multi-array image systems
US8055466B2 (en) 2007-03-30 2011-11-08 Mitutoyo Corporation Global calibration for stereo vision probe
US8165418B2 (en) 2007-03-30 2012-04-24 Brother Kogyo Kabushiki Kaisha Image processor
TWI433052B (zh) 2007-04-02 2014-04-01 Primesense Ltd 使用投影圖案之深度製圖
US8098941B2 (en) 2007-04-03 2012-01-17 Aptina Imaging Corporation Method and apparatus for parallelization of image compression encoders
US8213711B2 (en) 2007-04-03 2012-07-03 Her Majesty The Queen In Right Of Canada As Represented By The Minister Of Industry, Through The Communications Research Centre Canada Method and graphical user interface for modifying depth maps
JP4310348B2 (ja) 2007-04-04 2009-08-05 シャープ株式会社 固体撮像装置およびそれを備えた電子機器
JP2008258885A (ja) 2007-04-04 2008-10-23 Texas Instr Japan Ltd 撮像装置および撮像装置の駆動方法
CN101281282A (zh) 2007-04-04 2008-10-08 鸿富锦精密工业(深圳)有限公司 镜头模组
EP2156244B1 (de) 2007-04-16 2016-01-27 Nagappan Muthusamy Sundarar Solid-vision
US7923801B2 (en) 2007-04-18 2011-04-12 Invisage Technologies, Inc. Materials, systems and methods for optoelectronic devices
WO2009023044A2 (en) 2007-04-24 2009-02-19 21 Ct, Inc. Method and system for fast dense stereoscopic ranging
KR100869219B1 (ko) 2007-05-03 2008-11-18 동부일렉트로닉스 주식회사 이미지 센서 및 그 제조방법
GB0708655D0 (en) 2007-05-04 2007-06-13 Imp Innovations Ltd Imaging of moving objects
US8462220B2 (en) 2007-05-09 2013-06-11 Aptina Imaging Corporation Method and apparatus for improving low-light performance for small pixel image sensors
US7812869B2 (en) 2007-05-11 2010-10-12 Aptina Imaging Corporation Configurable pixel array system and method
JP4341695B2 (ja) 2007-05-17 2009-10-07 ソニー株式会社 画像入力処理装置、撮像信号処理回路、および、撮像信号のノイズ低減方法
JP4337911B2 (ja) 2007-05-24 2009-09-30 ソニー株式会社 撮像装置、撮像回路、および撮像方法
US20080298674A1 (en) 2007-05-29 2008-12-04 Image Masters Inc. Stereoscopic Panoramic imaging system
US7733575B2 (en) 2007-05-31 2010-06-08 Artificial Muscle, Inc. Optical systems employing compliant electroactive materials
US8290358B1 (en) 2007-06-25 2012-10-16 Adobe Systems Incorporated Methods and apparatus for light-field imaging
KR101545008B1 (ko) 2007-06-26 2015-08-18 코닌클리케 필립스 엔.브이. 3d 비디오 신호를 인코딩하기 위한 방법 및 시스템, 동봉된 3d 비디오 신호, 3d 비디오 신호용 디코더에 대한 방법 및 시스템
JP5160643B2 (ja) 2007-07-12 2013-03-13 トムソン ライセンシング 2次元画像からの3次元オブジェクト認識システム及び方法
US8125619B2 (en) 2007-07-25 2012-02-28 Eminent Electronic Technology Corp. Integrated ambient light sensor and distance sensor
JP5006727B2 (ja) 2007-07-26 2012-08-22 株式会社リコー 画像処理装置およびデジタルカメラ
US8019215B2 (en) 2007-08-06 2011-09-13 Adobe Systems Incorporated Method and apparatus for radiance capture by multiplexing in the frequency domain
EP2034338A1 (de) 2007-08-11 2009-03-11 ETH Zurich Flüssiglinsesystem
EP2026563A1 (de) 2007-08-14 2009-02-18 Deutsche Thomson OHG Vorrichtung und Verfahren zur Erkennung defekter Pixel
US7782364B2 (en) 2007-08-21 2010-08-24 Aptina Imaging Corporation Multi-array sensor with integrated sub-array for parallax detection and photometer functionality
EP2031592A1 (de) 2007-08-30 2009-03-04 DTR Limited Verfahren und System für beschreibbare DVDs
US20090066693A1 (en) 2007-09-06 2009-03-12 Roc Carson Encoding A Depth Map Into An Image Using Analysis Of Two Consecutive Captured Frames
US7973834B2 (en) 2007-09-24 2011-07-05 Jianwen Yang Electro-optical foveated imaging and tracking system
US20090079862A1 (en) 2007-09-25 2009-03-26 Micron Technology, Inc. Method and apparatus providing imaging auto-focus utilizing absolute blur value
US20090086074A1 (en) 2007-09-27 2009-04-02 Omnivision Technologies, Inc. Dual mode camera solution apparatus, system, and method
US7940311B2 (en) 2007-10-03 2011-05-10 Nokia Corporation Multi-exposure pattern for enhancing dynamic range of images
JP5172267B2 (ja) 2007-10-09 2013-03-27 富士フイルム株式会社 撮像装置
US8049289B2 (en) 2007-10-11 2011-11-01 Dongbu Hitek Co., Ltd. Image sensor and method for manufacturing the same
US8938009B2 (en) 2007-10-12 2015-01-20 Qualcomm Incorporated Layered encoded bitstream structure
US7956924B2 (en) 2007-10-18 2011-06-07 Adobe Systems Incorporated Fast computational camera based on two arrays of lenses
US7787112B2 (en) 2007-10-22 2010-08-31 Visiongate, Inc. Depth of field extension for optical tomography
US7920193B2 (en) 2007-10-23 2011-04-05 Aptina Imaging Corporation Methods, systems and apparatuses using barrier self-calibration for high dynamic range imagers
US7777804B2 (en) 2007-10-26 2010-08-17 Omnivision Technologies, Inc. High dynamic range sensor with reduced line memory for color interpolation
WO2009061814A2 (en) 2007-11-05 2009-05-14 University Of Florida Research Foundation, Inc. Lossless data compression and real-time decompression
US20090128644A1 (en) 2007-11-15 2009-05-21 Camp Jr William O System and method for generating a photograph
US7852461B2 (en) 2007-11-15 2010-12-14 Microsoft International Holdings B.V. Dual mode depth imaging
US20090131800A1 (en) 2007-11-15 2009-05-21 Carestream Health, Inc. Multimodal imaging system for tissue imaging
US8351685B2 (en) 2007-11-16 2013-01-08 Gwangju Institute Of Science And Technology Device and method for estimating depth map, and method for generating intermediate image and method for encoding multi-view video using the same
US8126279B2 (en) 2007-11-19 2012-02-28 The University Of Arizona Lifting-based view compensated compression and remote visualization of volume rendered images
JP5010445B2 (ja) 2007-11-29 2012-08-29 パナソニック株式会社 マイクロレンズアレイ用金型の製造方法
KR20090055803A (ko) 2007-11-29 2009-06-03 광주과학기술원 다시점 깊이맵 생성 방법 및 장치, 다시점 영상에서의변이값 생성 방법
GB2455316B (en) 2007-12-04 2012-08-15 Sony Corp Image processing apparatus and method
WO2009073950A1 (en) 2007-12-13 2009-06-18 Keigo Izuka Camera system and method for amalgamating images to create an omni-focused image
DE602007012734D1 (de) 2007-12-21 2011-04-07 Caterpillar Inc Steuern der Antriebsgeschwindigkeit einer Maschine
TWI353778B (en) 2007-12-21 2011-12-01 Ind Tech Res Inst Moving object detection apparatus and method
US7880807B2 (en) 2007-12-26 2011-02-01 Sony Ericsson Mobile Communications Ab Camera system with mirror arrangement for generating self-portrait panoramic pictures
US8233077B2 (en) 2007-12-27 2012-07-31 Qualcomm Incorporated Method and apparatus with depth map generation
US20110031381A1 (en) 2007-12-28 2011-02-10 Hiok-Nam Tay Light guide array for an image sensor
TWI362628B (en) 2007-12-28 2012-04-21 Ind Tech Res Inst Methof for producing an image with depth by using 2d image
WO2009089127A1 (en) 2008-01-04 2009-07-16 3M Innovative Properties Company Image signatures for use in motion-based three-dimensional reconstruction
JP4413261B2 (ja) 2008-01-10 2010-02-10 シャープ株式会社 撮像装置及び光軸制御方法
JP5198295B2 (ja) 2008-01-15 2013-05-15 富士フイルム株式会社 撮像素子の位置調整方法、カメラモジュール製造方法及び装置、カメラモジュール
US7962033B2 (en) 2008-01-23 2011-06-14 Adobe Systems Incorporated Methods and apparatus for full-resolution light-field capture and rendering
US8189065B2 (en) 2008-01-23 2012-05-29 Adobe Systems Incorporated Methods and apparatus for full-resolution light-field capture and rendering
JP4956452B2 (ja) 2008-01-25 2012-06-20 富士重工業株式会社 車両用環境認識装置
US8824833B2 (en) 2008-02-01 2014-09-02 Omnivision Technologies, Inc. Image data fusion systems and methods
GB0802290D0 (en) 2008-02-08 2008-03-12 Univ Kent Canterbury Camera adapter based optical imaging apparatus
US8319301B2 (en) 2008-02-11 2012-11-27 Omnivision Technologies, Inc. Self-aligned filter for an image sensor
JP2009206922A (ja) 2008-02-28 2009-09-10 Funai Electric Co Ltd 複眼撮像装置
CN101520532A (zh) 2008-02-29 2009-09-02 鸿富锦精密工业(深圳)有限公司 复合镜片
US9094675B2 (en) 2008-02-29 2015-07-28 Disney Enterprises Inc. Processing image data from multiple cameras for motion pictures
TWI489394B (zh) 2008-03-03 2015-06-21 Videoiq Inc 用於追蹤、索引及搜尋之物件匹配
US8072599B2 (en) 2008-03-14 2011-12-06 Teledyne Scientific & Imaging, Llc Real-time, hybrid amplitude-time division polarimetric imaging camera
WO2009115947A1 (en) 2008-03-18 2009-09-24 Koninklijke Philips Electronics N.V. Apparatus for skin imaging, system for skin analysis
US8098955B2 (en) 2008-03-25 2012-01-17 Point Grey Research Inc. Efficient selection and application of regions of interest in digital imaging
WO2009119229A1 (ja) 2008-03-26 2009-10-01 コニカミノルタホールディングス株式会社 3次元撮像装置及び3次元撮像装置の校正方法
CN101551586A (zh) 2008-04-03 2009-10-07 晶宏半导体股份有限公司 高速摄影方法及其装置
US8497905B2 (en) 2008-04-11 2013-07-30 nearmap australia pty ltd. Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
US8259208B2 (en) 2008-04-15 2012-09-04 Sony Corporation Method and apparatus for performing touch-based adjustments within imaging devices
US7843554B2 (en) 2008-04-25 2010-11-30 Rockwell Collins, Inc. High dynamic range sensor system and method
US8155456B2 (en) 2008-04-29 2012-04-10 Adobe Systems Incorporated Method and apparatus for block-based compression of light-field images
US8280194B2 (en) 2008-04-29 2012-10-02 Sony Corporation Reduced hardware implementation for a two-picture depth map algorithm
US8724921B2 (en) 2008-05-05 2014-05-13 Aptina Imaging Corporation Method of capturing high dynamic range images with objects in the scene
JP2009273035A (ja) 2008-05-09 2009-11-19 Toshiba Corp 画像圧縮装置、画像伸張装置及び画像処理装置
EP2283644A4 (de) 2008-05-09 2011-10-26 Ecole Polytech Bildsensor mit nichtlinearer reaktion
US8208543B2 (en) 2008-05-19 2012-06-26 Microsoft Corporation Quantization and differential coding of alpha image data
US20100097444A1 (en) 2008-10-16 2010-04-22 Peter Lablans Camera System for Creating an Image From a Plurality of Images
CN101755190B (zh) 2008-05-19 2012-02-22 松下电器产业株式会社 校准方法、校准装置及具备该校准装置的校准***
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
KR101733443B1 (ko) 2008-05-20 2017-05-10 펠리칸 이매징 코포레이션 이종 이미저를 구비한 모놀리식 카메라 어레이를 이용한 이미지의 캡처링 및 처리
US8442355B2 (en) 2008-05-23 2013-05-14 Samsung Electronics Co., Ltd. System and method for generating a multi-dimensional image
US8125559B2 (en) 2008-05-25 2012-02-28 Avistar Communications Corporation Image formation for large photosensor array surfaces
US8131097B2 (en) 2008-05-28 2012-03-06 Aptina Imaging Corporation Method and apparatus for extended depth-of-field image restoration
US8244058B1 (en) 2008-05-30 2012-08-14 Adobe Systems Incorporated Method and apparatus for managing artifacts in frequency domain processing of light-field images
CN101593350B (zh) 2008-05-30 2013-01-09 日电(中国)有限公司 深度自适应视频拼接的方法、装置和***
JP4435867B2 (ja) * 2008-06-02 2010-03-24 パナソニック株式会社 法線情報を生成する画像処理装置、方法、コンピュータプログラム、および、視点変換画像生成装置
JP2009300268A (ja) 2008-06-13 2009-12-24 Nippon Hoso Kyokai <Nhk> 3次元情報検出装置
KR20100002032A (ko) 2008-06-24 2010-01-06 삼성전자주식회사 영상 생성 방법, 영상 처리 방법, 및 그 장치
WO2009157273A1 (ja) 2008-06-25 2009-12-30 コニカミノルタオプト株式会社 撮像光学系及び撮像用レンズの製造方法
US7710667B2 (en) 2008-06-25 2010-05-04 Aptina Imaging Corp. Imaging module with symmetrical lens system and method of manufacture
KR101000531B1 (ko) 2008-06-26 2010-12-14 에스디씨마이크로 주식회사 데이터 전송 범위가 증대되는 무선랜을 이용한 씨씨티브이관리시스템
US7916396B2 (en) 2008-06-27 2011-03-29 Micron Technology, Inc. Lens master devices, lens structures, imaging devices, and methods and apparatuses of making the same
US8326069B2 (en) 2008-06-30 2012-12-04 Intel Corporation Computing higher resolution images from multiple lower resolution images
US7773317B2 (en) 2008-07-01 2010-08-10 Aptina Imaging Corp. Lens system with symmetrical optics
US7920339B2 (en) 2008-07-02 2011-04-05 Aptina Imaging Corporation Method and apparatus providing singlet wafer lens system with field flattener
CN100576934C (zh) 2008-07-03 2009-12-30 浙江大学 基于深度和遮挡信息的虚拟视点合成方法
US8456517B2 (en) 2008-07-09 2013-06-04 Primesense Ltd. Integrated processor for 3D mapping
KR101445185B1 (ko) 2008-07-10 2014-09-30 삼성전자주식회사 복수 개의 영상촬영유닛을 구비한 플렉시블 영상촬영장치및 그 제조방법
US8284240B2 (en) 2008-08-06 2012-10-09 Creaform Inc. System for adaptive three-dimensional scanning of surface characteristics
WO2010021666A1 (en) 2008-08-20 2010-02-25 Thomson Licensing Refined depth map
CN101656259A (zh) 2008-08-20 2010-02-24 鸿富锦精密工业(深圳)有限公司 影像感测器封装结构、封装方法及相机模组
US7924312B2 (en) 2008-08-22 2011-04-12 Fluke Corporation Infrared and visible-light image registration
US8736751B2 (en) 2008-08-26 2014-05-27 Empire Technology Development Llc Digital presenter for displaying image captured by camera with illumination system
JP5161706B2 (ja) 2008-08-27 2013-03-13 キヤノン株式会社 撮像装置及びその制御方法
US8102428B2 (en) 2008-08-28 2012-01-24 Adobe Systems Incorporated Content-aware video stabilization
JP5105482B2 (ja) 2008-09-01 2012-12-26 船井電機株式会社 光学的条件設計方法及び複眼撮像装置
US20110181797A1 (en) 2008-09-01 2011-07-28 Lensvector Inc. Wafer-level fabrication of liquid crystal optoelectronic devices
US8098297B2 (en) 2008-09-03 2012-01-17 Sony Corporation Pre- and post-shutter signal image capture and sort for digital camera
KR20100028344A (ko) 2008-09-04 2010-03-12 삼성전자주식회사 휴대단말의 영상 편집 방법 및 장치
US9025136B2 (en) 2008-09-23 2015-05-05 Applied Materials, Inc. System and method for manufacturing three dimensional integrated circuits
JP5238429B2 (ja) 2008-09-25 2013-07-17 株式会社東芝 立体映像撮影装置および立体映像撮影システム
US8553093B2 (en) 2008-09-30 2013-10-08 Sony Corporation Method and apparatus for super-resolution imaging using digital imaging devices
CN102239506B (zh) 2008-10-02 2014-07-09 弗兰霍菲尔运输应用研究公司 中间视合成和多视点数据信号的提取
US9619917B2 (en) 2008-10-03 2017-04-11 Apple Inc. Depth of field for a camera in a media-editing application
US9064476B2 (en) 2008-10-04 2015-06-23 Microsoft Technology Licensing, Llc Image super-resolution using gradient profile prior
US8310525B2 (en) 2008-10-07 2012-11-13 Seiko Epson Corporation One-touch projector alignment for 3D stereo display
JP5547739B2 (ja) 2008-10-15 2014-07-16 イノベイティブ テクノロジー ディストリビューターズ エルエルシー オプティカルフローの決定のためのデジタル処理方法およびシステム
US8416282B2 (en) 2008-10-16 2013-04-09 Spatial Cam Llc Camera for creating a panoramic image
JP2010096723A (ja) 2008-10-20 2010-04-30 Funai Electric Co Ltd 物体の距離導出装置
US8436909B2 (en) 2008-10-21 2013-05-07 Stmicroelectronics S.R.L. Compound camera sensor and related method of processing digital images
WO2010050728A2 (ko) 2008-10-27 2010-05-06 엘지전자 주식회사 가상 뷰 이미지 합성 방법 및 장치
US8063975B2 (en) 2008-10-29 2011-11-22 Jabil Circuit, Inc. Positioning wafer lenses on electronic imagers
KR101502597B1 (ko) 2008-11-13 2015-03-13 삼성전자주식회사 고심도 입체 영상 표시가 가능한 디스플레이 장치 및 방법
WO2010057081A1 (en) 2008-11-14 2010-05-20 The Scripps Research Institute Image analysis platform for identifying artifacts in samples and laboratory consumables
AU2008246243B2 (en) 2008-11-19 2011-12-22 Canon Kabushiki Kaisha DVC as generic file format for plenoptic camera
JP5485288B2 (ja) 2008-11-25 2014-05-07 テトラビュー, インコーポレイテッド 高解像度三次元撮像のシステムおよび方法
JP4852591B2 (ja) 2008-11-27 2012-01-11 富士フイルム株式会社 立体画像処理装置、方法及び記録媒体並びに立体撮像装置
US8289440B2 (en) 2008-12-08 2012-10-16 Lytro, Inc. Light field data acquisition devices, and methods of using and manufacturing same
US8013904B2 (en) 2008-12-09 2011-09-06 Seiko Epson Corporation View projection matrix based high performance low latency display pipeline
KR101200490B1 (ko) 2008-12-10 2012-11-12 한국전자통신연구원 영상 정합 장치 및 방법
JP5311016B2 (ja) 2008-12-10 2013-10-09 コニカミノルタ株式会社 ステレオカメラユニット及びステレオマッチング方法
US8149323B2 (en) 2008-12-18 2012-04-03 Qualcomm Incorporated System and method to autofocus assisted by autoexposure control
JP4631966B2 (ja) 2008-12-22 2011-02-16 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
CN101770060B (zh) 2008-12-27 2014-03-26 鸿富锦精密工业(深圳)有限公司 相机模组及其组装方法
US8405742B2 (en) 2008-12-30 2013-03-26 Massachusetts Institute Of Technology Processing images having different focus
US8259212B2 (en) 2009-01-05 2012-09-04 Applied Quantum Technologies, Inc. Multiscale optical system
US9354490B2 (en) 2009-01-09 2016-05-31 New York University Method, computer-accessible, medium and systems for facilitating dark flash photography
US9177389B2 (en) 2009-01-09 2015-11-03 Konica Minolta Holdings, Inc. Motion vector generation apparatus and motion vector generation method
US20100177411A1 (en) 2009-01-09 2010-07-15 Shashikant Hegde Wafer level lens replication on micro-electrical-mechanical systems
US8315476B1 (en) 2009-01-20 2012-11-20 Adobe Systems Incorporated Super-resolution with the focused plenoptic camera
US8189089B1 (en) 2009-01-20 2012-05-29 Adobe Systems Incorporated Methods and apparatus for reducing plenoptic camera artifacts
US8300108B2 (en) 2009-02-02 2012-10-30 L-3 Communications Cincinnati Electronics Corporation Multi-channel imaging devices comprising unit cells
US20100194860A1 (en) 2009-02-03 2010-08-05 Bit Cauldron Corporation Method of stereoscopic 3d image capture using a mobile device, cradle or dongle
US8761491B2 (en) 2009-02-06 2014-06-24 Himax Technologies Limited Stereo-matching processor using belief propagation
US8290301B2 (en) 2009-02-06 2012-10-16 Raytheon Company Optimized imaging system for collection of high resolution imagery
KR101776955B1 (ko) 2009-02-10 2017-09-08 소니 주식회사 고체 촬상 장치와 그 제조 방법, 및 전자 기기
JP4915423B2 (ja) 2009-02-19 2012-04-11 ソニー株式会社 画像処理装置、フォーカルプレーン歪み成分算出方法、画像処理プログラム及び記録媒体
WO2010095440A1 (ja) 2009-02-20 2010-08-26 パナソニック株式会社 記録媒体、再生装置、及び集積回路
US8520970B2 (en) 2010-04-23 2013-08-27 Flir Systems Ab Infrared resolution and contrast enhancement with fusion
KR20100099896A (ko) 2009-03-04 2010-09-15 삼성전자주식회사 메타데이터 생성 방법 및 장치, 그 메타데이터를 이용하여 영상을 처리하는 방법 및 장치
US8207759B2 (en) 2009-03-12 2012-06-26 Fairchild Semiconductor Corporation MIPI analog switch for automatic selection of multiple inputs based on clock voltages
CN105681633B (zh) 2009-03-19 2019-01-18 数字光学公司 双传感器照相机及其方法
US8106949B2 (en) 2009-03-26 2012-01-31 Seiko Epson Corporation Small memory footprint light transport matrix capture
US8450821B2 (en) 2009-03-26 2013-05-28 Micron Technology, Inc. Method and apparatus providing combined spacer and optical lens element
US8437537B2 (en) * 2009-03-27 2013-05-07 Mitsubishi Electric Research Laboratories, Inc. Method and system for estimating 3D pose of specular objects
US7901095B2 (en) 2009-03-27 2011-03-08 Seiko Epson Corporation Resolution scalable view projection
JP4529010B1 (ja) 2009-03-30 2010-08-25 シャープ株式会社 撮像装置
JP5222205B2 (ja) 2009-04-03 2013-06-26 Kddi株式会社 画像処理装置、方法及びプログラム
WO2010116366A1 (en) 2009-04-07 2010-10-14 Nextvision Stabilized Systems Ltd Video motion compensation and stabilization gimbaled imaging system
US20100259610A1 (en) 2009-04-08 2010-10-14 Celsia, Llc Two-Dimensional Display Synced with Real World Object Movement
US8294099B2 (en) 2009-04-10 2012-10-23 Bae Systems Information And Electronic Systems Integration Inc. On-wafer butted microbolometer imaging array
JP5463718B2 (ja) 2009-04-16 2014-04-09 ソニー株式会社 撮像装置
US8717417B2 (en) 2009-04-16 2014-05-06 Primesense Ltd. Three-dimensional mapping and imaging
US8908058B2 (en) 2009-04-18 2014-12-09 Lytro, Inc. Storage and transmission of pictures including multiple frames
US20120249550A1 (en) 2009-04-18 2012-10-04 Lytro, Inc. Selective Transmission of Image Data Based on Device Attributes
ATE551841T1 (de) 2009-04-22 2012-04-15 Raytrix Gmbh Digitales bildgebungsverfahren zum synthetisieren eines bildes unter verwendung der mit einer plenoptischen kamera aufgezeichneten daten
CN101527046B (zh) 2009-04-28 2012-09-05 青岛海信数字多媒体技术国家重点实验室有限公司 一种运动检测方法、装置和***
KR101671021B1 (ko) 2009-04-30 2016-11-10 삼성전자주식회사 스테레오스코픽 영상 데이터 전송 장치 및 방법
US8358365B2 (en) 2009-05-01 2013-01-22 Samsung Electronics Co., Ltd. Photo detecting device and image pickup device and method thereon
US8271544B2 (en) 2009-05-01 2012-09-18 Creative Technology Ltd Data file having more than one mode of operation
DE102009003110A1 (de) 2009-05-14 2010-11-18 Robert Bosch Gmbh Bildverarbeitungsverfahren zur Bestimmung von Tiefeninformation aus wenigstens zwei mittels eines Stereokamerasystems aufgenommenen Eingangsbildern
US8203633B2 (en) 2009-05-27 2012-06-19 Omnivision Technologies, Inc. Four-channel color filter array pattern
KR20100130423A (ko) 2009-06-03 2010-12-13 삼성전자주식회사 웨이퍼-레벨 렌즈 모듈 및 이를 구비하는 촬상 모듈
US8766808B2 (en) 2010-03-09 2014-07-01 Flir Systems, Inc. Imager with multiple sensor arrays
US10091439B2 (en) 2009-06-03 2018-10-02 Flir Systems, Inc. Imager with array of multiple infrared imaging modules
US8872910B1 (en) 2009-06-04 2014-10-28 Masoud Vaziri Method and apparatus for a compact and high resolution eye-view recorder
US8745677B2 (en) 2009-06-12 2014-06-03 Cygnus Broadband, Inc. Systems and methods for prioritization of data for intelligent discard in a communication network
CN101931742B (zh) 2009-06-18 2013-04-24 鸿富锦精密工业(深圳)有限公司 影像感测模组及取像模组
US20100321640A1 (en) 2009-06-22 2010-12-23 Industrial Technology Research Institute Projection display chip
JP5254893B2 (ja) 2009-06-26 2013-08-07 キヤノン株式会社 画像変換方法及び装置並びにパターン識別方法及び装置
WO2011008443A2 (en) 2009-06-29 2011-01-20 Lensvector Inc. Wafer level camera module with active optical element
US8208746B2 (en) 2009-06-29 2012-06-26 DigitalOptics Corporation Europe Limited Adaptive PSF estimation technique using a sharp preview and a blurred image
JP2011030184A (ja) 2009-07-01 2011-02-10 Sony Corp 画像処理装置、及び、画像処理方法
US8212197B2 (en) 2009-07-02 2012-07-03 Xerox Corporation Image sensor with integration time compensation
JP2011017764A (ja) 2009-07-07 2011-01-27 Konica Minolta Opto Inc 撮像レンズ,撮像装置及び携帯端末
US8345144B1 (en) 2009-07-15 2013-01-01 Adobe Systems Incorporated Methods and apparatus for rich image capture with focused plenoptic cameras
US20110019243A1 (en) 2009-07-21 2011-01-27 Constant Jr Henry J Stereoscopic form reader
CN101964866B (zh) 2009-07-24 2013-03-20 鸿富锦精密工业(深圳)有限公司 计算摄像型数码相机
GB0912970D0 (en) 2009-07-27 2009-09-02 St Microelectronics Res & Dev Improvements in or relating to a sensor and sensor system for a camera
US8436893B2 (en) 2009-07-31 2013-05-07 3Dmedia Corporation Methods, systems, and computer-readable storage media for selecting image capture positions to generate three-dimensional (3D) images
WO2011017204A1 (en) 2009-08-03 2011-02-10 Qualcomm Mems Technologies, Inc. Microstructures for light guide illumination
EP2293586A1 (de) 2009-08-04 2011-03-09 Samsung Electronics Co., Ltd. Verfahren und System zur Umwandlung von Stereoinhalt
US8577183B2 (en) 2009-08-05 2013-11-05 Raytheon Company Resolution on demand
WO2011018678A1 (en) 2009-08-11 2011-02-17 Ether Precision, Inc. Method and device for aligning a lens with an optical system
CA2771018C (en) 2009-08-14 2017-06-13 Genesis Group Inc. Real-time image and video matting
JP2011044801A (ja) 2009-08-19 2011-03-03 Toshiba Corp 画像処理装置
US8154632B2 (en) 2009-08-24 2012-04-10 Lifesize Communications, Inc. Detection of defective pixels in an image sensor
JP2011052064A (ja) 2009-08-31 2011-03-17 Toyobo Co Ltd ポリイミドおよびその製造方法
KR101680300B1 (ko) 2009-08-31 2016-11-28 삼성전자주식회사 액체 렌즈 및 그 제조방법
US9274699B2 (en) 2009-09-03 2016-03-01 Obscura Digital User interface for a large scale multi-user, multi-touch system
US8411146B2 (en) 2009-09-04 2013-04-02 Lockheed Martin Corporation Single camera color and infrared polarimetric imaging
WO2011026527A1 (en) 2009-09-07 2011-03-10 Nokia Corporation An apparatus
FR2950153B1 (fr) 2009-09-15 2011-12-23 Commissariat Energie Atomique Dispositif optique a membrane deformable a actionnement piezoelectrique
US20140076336A1 (en) 2009-09-17 2014-03-20 Ascentia Health, Inc. Ear insert for relief of tmj discomfort and headaches
US9497386B1 (en) 2009-09-22 2016-11-15 Altia Systems Inc. Multi-imager video camera with automatic exposure control
KR101727094B1 (ko) 2009-10-02 2017-04-17 코닌클리케 필립스 엔.브이. 3d 비디오에서 추가 뷰들을 생성하기 위한 뷰포인트들을 선택하는 방법
KR101695809B1 (ko) 2009-10-09 2017-01-13 엘지전자 주식회사 이동 단말기 및 그 제어방법
DE102009049387B4 (de) 2009-10-14 2016-05-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Bildverarbeitungsvorrichtung und Verfahren zur optischen Abbildung
KR101807886B1 (ko) 2009-10-14 2017-12-11 돌비 인터네셔널 에이비 깊이 맵 처리를 위한 방법 및 디바이스
US8199165B2 (en) 2009-10-14 2012-06-12 Hewlett-Packard Development Company, L.P. Methods and systems for object segmentation in digital images
US8502909B2 (en) 2009-10-19 2013-08-06 Pixar Super light-field lens
WO2011056574A1 (en) 2009-10-26 2011-05-12 Olaf Andrew Hall-Holt Dental imaging system and method
KR20120084775A (ko) 2009-10-30 2012-07-30 휴렛-팩커드 디벨롭먼트 컴퍼니, 엘.피. 입체 디스플레이 시스템
WO2011053711A1 (en) 2009-10-30 2011-05-05 Invisage Technologies, Inc. Systems and methods for color binning
WO2011055655A1 (ja) 2009-11-05 2011-05-12 コニカミノルタオプト株式会社 撮像装置、光学ユニット、ウエハレンズ積層体及びウエハレンズ積層体の製造方法
JPWO2011055654A1 (ja) 2009-11-05 2013-03-28 コニカミノルタアドバンストレイヤー株式会社 撮像装置及びこの撮像装置の製造方法
WO2011058876A1 (ja) 2009-11-13 2011-05-19 富士フイルム株式会社 測距装置、測距方法、測距プログラムおよび測距システムならびに撮像装置
TR200908688A2 (tr) 2009-11-17 2011-06-21 Vestel Elektron�K San. Ve T�C. A.�. Çoklu görüntülü videoda derinlik dengelemeli gürültü azaltımı.
US8643701B2 (en) 2009-11-18 2014-02-04 University Of Illinois At Urbana-Champaign System for executing 3D propagation for depth image-based rendering
JP5399215B2 (ja) 2009-11-18 2014-01-29 シャープ株式会社 多眼カメラ装置および電子情報機器
US8514491B2 (en) 2009-11-20 2013-08-20 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
WO2011066275A2 (en) 2009-11-25 2011-06-03 Massachusetts Institute Of Technology Actively addressable aperture light field camera
KR101608970B1 (ko) 2009-11-27 2016-04-05 삼성전자주식회사 광 필드 데이터를 이용한 영상 처리 장치 및 방법
US8400555B1 (en) 2009-12-01 2013-03-19 Adobe Systems Incorporated Focused plenoptic camera employing microlenses with different focal lengths
US8730338B2 (en) 2009-12-01 2014-05-20 Nokia Corporation Set of camera modules hinged on a body and functionally connected to a single actuator
JP5446797B2 (ja) 2009-12-04 2014-03-19 株式会社リコー 撮像装置
US8446492B2 (en) 2009-12-10 2013-05-21 Honda Motor Co., Ltd. Image capturing device, method of searching for occlusion region, and program
JP5387377B2 (ja) 2009-12-14 2014-01-15 ソニー株式会社 画像処理装置、および画像処理方法、並びにプログラム
US9030530B2 (en) 2009-12-15 2015-05-12 Thomson Licensing Stereo-image quality and disparity/depth indications
KR101281961B1 (ko) 2009-12-21 2013-07-03 한국전자통신연구원 깊이 영상 편집 방법 및 장치
US20110153248A1 (en) 2009-12-23 2011-06-23 Yeming Gu Ophthalmic quality metric system
EP2518995B1 (de) 2009-12-24 2018-08-22 Sharp Kabushiki Kaisha Bildaufnahmevorrichtung mit mehreren blickwinkeln und bildaufnahmeverfahren mit mehreren blickwinkeln
JP4983905B2 (ja) 2009-12-25 2012-07-25 カシオ計算機株式会社 撮像装置、3dモデリングデータ生成方法、および、プログラム
KR101643607B1 (ko) 2009-12-30 2016-08-10 삼성전자주식회사 영상 데이터 생성 방법 및 장치
CN102118551A (zh) 2009-12-31 2011-07-06 鸿富锦精密工业(深圳)有限公司 成像装置
CN102117576A (zh) 2009-12-31 2011-07-06 鸿富锦精密工业(深圳)有限公司 电子相框
CN102131044B (zh) 2010-01-20 2014-03-26 鸿富锦精密工业(深圳)有限公司 相机模组
WO2011097508A2 (en) 2010-02-04 2011-08-11 University Of Southern California Combined spectral and polarimetry imaging and diagnostics
US8593512B2 (en) 2010-02-05 2013-11-26 Creative Technology Ltd Device and method for scanning an object on a working surface
US8326142B2 (en) 2010-02-12 2012-12-04 Sri International Optical image systems
EP2536997B1 (de) 2010-02-15 2020-12-16 Ricoh Company, Ltd. System zur erkennung transparenter objekte und system zur erkennung transparenter flacher platten
JP5387856B2 (ja) 2010-02-16 2014-01-15 ソニー株式会社 画像処理装置、画像処理方法、画像処理プログラムおよび撮像装置
US8648918B2 (en) 2010-02-18 2014-02-11 Sony Corporation Method and system for obtaining a point spread function using motion information
EP2537332A1 (de) 2010-02-19 2012-12-26 Dual Aperture, Inc. Verarbeitung von bilddaten mit mehreren aperturen
KR101802238B1 (ko) 2010-02-23 2017-11-29 삼성전자주식회사 휴대용 단말기에서 입체 영상 데이터를 생성하기 위한 장치 및 방법
KR20110097690A (ko) 2010-02-23 2011-08-31 삼성전자주식회사 다시점 정지 영상 서비스 제공 방법 및 그 장치, 다시점 정지 영상 서비스 수신 방법 및 그 장치
WO2011106798A1 (en) 2010-02-28 2011-09-01 Osterhout Group, Inc. Local advertising content on an interactive head-mounted eyepiece
US20130278631A1 (en) 2010-02-28 2013-10-24 Osterhout Group, Inc. 3d positioning of augmented reality information
JP5776173B2 (ja) 2010-03-01 2015-09-09 株式会社リコー 撮像装置及び距離測定装置
US8860833B2 (en) 2010-03-03 2014-10-14 Adobe Systems Incorporated Blended rendering of focused plenoptic camera data
US20110222757A1 (en) 2010-03-10 2011-09-15 Gbo 3D Technology Pte. Ltd. Systems and methods for 2D image and spatial data capture for 3D stereo imaging
US20110221950A1 (en) 2010-03-12 2011-09-15 Doeke Jolt Oostra Camera device, wafer scale package
WO2011116203A1 (en) 2010-03-17 2011-09-22 Pelican Imaging Corporation Fabrication process for mastering imaging lens arrays
US8736733B2 (en) 2010-03-19 2014-05-27 Invisage Technologies, Inc. Dark current reduction in image sensors via dynamic electrical biasing
JP5679978B2 (ja) 2010-03-19 2015-03-04 パナソニックIpマネジメント株式会社 立体視用画像位置合わせ装置、立体視用画像位置合わせ方法、及びそのプログラム
US8310538B2 (en) 2010-03-19 2012-11-13 Fujifilm Corporation Imaging apparatus, method, program, and recording medium used in the program
WO2011118135A1 (ja) 2010-03-25 2011-09-29 パナソニック株式会社 送信装置、受信装置、送信方法および受信方法
US8558903B2 (en) 2010-03-25 2013-10-15 Apple Inc. Accelerometer / gyro-facilitated video stabilization
US8285033B2 (en) 2010-04-01 2012-10-09 Seiko Epson Corporation Bi-affinity filter: a bilateral type filter for color images
WO2011121117A1 (en) 2010-04-02 2011-10-06 Imec Virtual camera system
US20110242355A1 (en) 2010-04-05 2011-10-06 Qualcomm Incorporated Combining data from multiple image sensors
US8896668B2 (en) 2010-04-05 2014-11-25 Qualcomm Incorporated Combining data from multiple image sensors
US20110255786A1 (en) 2010-04-20 2011-10-20 Andrew Hunter Method and apparatus for determining flicker in the illumination of a subject
US8600186B2 (en) 2010-04-26 2013-12-03 City University Of Hong Kong Well focused catadioptric image acquisition
US20110267264A1 (en) 2010-04-29 2011-11-03 Mccarthy John Display system with multiple optical sensors
US9053573B2 (en) 2010-04-29 2015-06-09 Personify, Inc. Systems and methods for generating a virtual camera viewpoint for an image
US20130250150A1 (en) 2010-05-03 2013-09-26 Michael R. Malone Devices and methods for high-resolution image and video capture
US9256974B1 (en) 2010-05-04 2016-02-09 Stephen P Hines 3-D motion-parallax portable display software application
US8885890B2 (en) 2010-05-07 2014-11-11 Microsoft Corporation Depth map confidence filtering
KR20110124473A (ko) 2010-05-11 2011-11-17 삼성전자주식회사 다중시점 영상을 위한 3차원 영상 생성 장치 및 방법
KR101756910B1 (ko) 2010-05-11 2017-07-26 삼성전자주식회사 감쇠 패턴을 포함하는 마스크를 이용한 광 필드 영상 처리 장치 및 방법
JP5545016B2 (ja) 2010-05-12 2014-07-09 ソニー株式会社 撮像装置
US20130147979A1 (en) 2010-05-12 2013-06-13 Pelican Imaging Corporation Systems and methods for extending dynamic range of imager arrays by controlling pixel analog gain
WO2011143501A1 (en) 2010-05-12 2011-11-17 Pelican Imaging Corporation Architectures for imager arrays and array cameras
WO2011142774A1 (en) 2010-05-14 2011-11-17 Omnivision Technologies, Inc. Alternative color image array and associated methods
US8576293B2 (en) 2010-05-18 2013-11-05 Aptina Imaging Corporation Multi-channel imager
SG176327A1 (en) 2010-05-20 2011-12-29 Sony Corp A system and method of image processing
US8602887B2 (en) 2010-06-03 2013-12-10 Microsoft Corporation Synthesis of information from multiple audiovisual sources
US20120062697A1 (en) 2010-06-09 2012-03-15 Chemimage Corporation Hyperspectral imaging sensor for tracking moving targets
DE102010024666A1 (de) 2010-06-18 2011-12-22 Hella Kgaa Hueck & Co. Verfahren zur optischen Selbstdiagnose eines Kamerasystems und Vorrichtung zur Durchführung eines solchen Verfahrens
US20110310980A1 (en) 2010-06-22 2011-12-22 Qualcomm Mems Technologies, Inc. Apparatus and methods for processing frames of video data across a display interface using a block-based encoding scheme and a tag id
CN102184720A (zh) 2010-06-22 2011-09-14 上海盈方微电子有限公司 一种支持多层多格式输入的图像合成显示的方法及装置
KR20120000485A (ko) 2010-06-25 2012-01-02 삼성전자주식회사 예측 모드를 이용한 깊이 영상 부호화 장치 및 방법
EP2403234A1 (de) 2010-06-29 2012-01-04 Koninklijke Philips Electronics N.V. Verfahren und System zur Erstellung eines zusammengesetzten Bildes aus von einer Anordnung von Bildaufnahmevorrichtungen erhaltenen Daten
CN101883291B (zh) 2010-06-29 2012-12-19 上海大学 感兴趣区域增强的视点绘制方法
US8493432B2 (en) 2010-06-29 2013-07-23 Mitsubishi Electric Research Laboratories, Inc. Digital refocusing for wide-angle images using axial-cone cameras
WO2012001975A1 (ja) 2010-06-30 2012-01-05 富士フイルム株式会社 立体視表示用撮像の際の撮像領域内の障害物を判定する装置、方法およびプログラム
JP5392199B2 (ja) 2010-07-09 2014-01-22 ソニー株式会社 画像処理装置および方法
US9406132B2 (en) 2010-07-16 2016-08-02 Qualcomm Incorporated Vision-based quality metric for three dimensional video
GB2482022A (en) 2010-07-16 2012-01-18 St Microelectronics Res & Dev Method for measuring resolution and aberration of lens and sensor
US8386964B2 (en) 2010-07-21 2013-02-26 Microsoft Corporation Interactive image matting
US9344701B2 (en) 2010-07-23 2016-05-17 3Dmedia Corporation Methods, systems, and computer-readable storage media for identifying a rough depth map in a scene and for determining a stereo-base distance for three-dimensional (3D) content creation
US20120019700A1 (en) 2010-07-26 2012-01-26 American Technologies Network Corporation Optical system with automatic mixing of daylight and thermal vision digital video signals
US20120026342A1 (en) 2010-07-27 2012-02-02 Xiaoguang Yu Electronic system communicating with image sensor
US20120026451A1 (en) 2010-07-29 2012-02-02 Lensvector Inc. Tunable liquid crystal lens with single sided contacts
US8605136B2 (en) 2010-08-10 2013-12-10 Sony Corporation 2D to 3D user interface content data conversion
CN102375199B (zh) 2010-08-11 2015-06-03 鸿富锦精密工业(深圳)有限公司 相机模组
US8428342B2 (en) 2010-08-12 2013-04-23 At&T Intellectual Property I, L.P. Apparatus and method for providing three dimensional media content
US8836793B1 (en) 2010-08-13 2014-09-16 Opto-Knowledge Systems, Inc. True color night vision (TCNV) fusion
US8493482B2 (en) 2010-08-18 2013-07-23 Apple Inc. Dual image sensor image processing system and method
US8749694B2 (en) 2010-08-27 2014-06-10 Adobe Systems Incorporated Methods and apparatus for rendering focused plenoptic camera data using super-resolved demosaicing
US8665341B2 (en) 2010-08-27 2014-03-04 Adobe Systems Incorporated Methods and apparatus for rendering output images with simulated artistic effects from focused plenoptic camera data
US8724000B2 (en) 2010-08-27 2014-05-13 Adobe Systems Incorporated Methods and apparatus for super-resolution in integral photography
WO2012029298A1 (ja) 2010-08-31 2012-03-08 パナソニック株式会社 撮影装置および画像処理方法
GB2483434A (en) 2010-08-31 2012-03-14 Sony Corp Detecting stereoscopic disparity by comparison with subset of pixel change points
US20120056982A1 (en) 2010-09-08 2012-03-08 Microsoft Corporation Depth camera based on structured light and stereo vision
US9013550B2 (en) 2010-09-09 2015-04-21 Qualcomm Incorporated Online reference generation and tracking for multi-user augmented reality
US9013634B2 (en) 2010-09-14 2015-04-21 Adobe Systems Incorporated Methods and apparatus for video completion
WO2012037075A1 (en) 2010-09-14 2012-03-22 Thomson Licensing Method of presenting three-dimensional content with disparity adjustments
WO2012036903A1 (en) 2010-09-14 2012-03-22 Thomson Licensing Compression methods and apparatus for occlusion data
US8780251B2 (en) 2010-09-20 2014-07-15 Canon Kabushiki Kaisha Image capture with focus adjustment
WO2012039043A1 (ja) 2010-09-22 2012-03-29 富士通株式会社 ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム
US20120086803A1 (en) 2010-10-11 2012-04-12 Malzbender Thomas G Method and system for distance estimation using projected symbol sequences
US20140192238A1 (en) 2010-10-24 2014-07-10 Linx Computational Imaging Ltd. System and Method for Imaging and Image Processing
JP5657343B2 (ja) 2010-10-28 2015-01-21 株式会社ザクティ 電子機器
US8531535B2 (en) 2010-10-28 2013-09-10 Google Inc. Methods and systems for processing a video for stabilization and retargeting
WO2012056437A1 (en) 2010-10-29 2012-05-03 École Polytechnique Fédérale De Lausanne (Epfl) Omnidirectional sensor array system
US9137503B2 (en) 2010-11-03 2015-09-15 Sony Corporation Lens and color filter arrangement, super-resolution camera system and method
US9065991B2 (en) 2010-11-04 2015-06-23 Lensvector Inc. Methods of adjustment free manufacture of focus free camera modules
US20120113232A1 (en) 2010-11-10 2012-05-10 Sony Pictures Technologies Inc. Multiple camera system and method for selectable interaxial separation
WO2012064106A2 (en) 2010-11-12 2012-05-18 Samsung Electronics Co., Ltd. Method and apparatus for video stabilization by compensating for view direction of camera
US8576276B2 (en) 2010-11-18 2013-11-05 Microsoft Corporation Head-mounted display device which provides surround video
MY150361A (en) 2010-12-03 2013-12-31 Mimos Berhad Method of image segmentation using intensity and depth information
WO2012078126A1 (en) 2010-12-08 2012-06-14 Thomson Licensing System and method for trinocular depth acquisition with triangular sensor
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
JP5963422B2 (ja) 2010-12-17 2016-08-03 キヤノン株式会社 撮像装置、表示装置、コンピュータプログラムおよび立体像表示システム
US8682107B2 (en) 2010-12-22 2014-03-25 Electronics And Telecommunications Research Institute Apparatus and method for creating 3D content for oriental painting
US9177381B2 (en) 2010-12-22 2015-11-03 Nani Holdings IP, LLC Depth estimate determination, systems and methods
US8565709B2 (en) 2010-12-30 2013-10-22 Apple Inc. Digital signal filter
TWI535292B (zh) 2010-12-31 2016-05-21 派力肯影像公司 使用具有異質的成像器的整體式相機陣列的影像捕捉和處理
JP5699609B2 (ja) 2011-01-06 2015-04-15 ソニー株式会社 画像処理装置および画像処理方法
EP2666048A4 (de) 2011-01-20 2014-06-04 Fivefocal Llc Passiv athermalisiertes infrarot-abbildungssystem und herstellungsverfahren dafür
US8717467B2 (en) 2011-01-25 2014-05-06 Aptina Imaging Corporation Imaging systems with array cameras for depth sensing
US8581995B2 (en) 2011-01-25 2013-11-12 Aptina Imaging Corporation Method and apparatus for parallax correction in fused array imaging systems
JP5594477B2 (ja) 2011-01-26 2014-09-24 Nltテクノロジー株式会社 画像表示装置、画像表示方法、及びプログラム
EP2668617A1 (de) 2011-01-27 2013-12-04 Metaio GmbH Verfahren zur korrespondenzdefinition zwischen einem ersten und einem zweiten bild und verfahren zur bestimmung der position einer kamera
US20120200726A1 (en) 2011-02-09 2012-08-09 Research In Motion Limited Method of Controlling the Depth of Field for a Small Sensor Camera Using an Extension for EDOF
CA2767023C (en) 2011-02-09 2014-09-09 Research In Motion Limited Increased low light sensitivity for image sensors by combining quantum dot sensitivity to visible and infrared light
US8698885B2 (en) 2011-02-14 2014-04-15 Intuitive Surgical Operations, Inc. Methods and apparatus for demosaicing images with highly correlated color channels
US20140176592A1 (en) 2011-02-15 2014-06-26 Lytro, Inc. Configuring two-dimensional image processing based on light-field parameters
KR20130096754A (ko) 2011-02-18 2013-08-30 도소 가부시키가이샤 전해 이산화망간 및 그 제조 방법, 그리고 리튬망간계 복합 산화물의 제조 방법
RU2551649C2 (ru) 2011-02-28 2015-05-27 Фуджифилм Корпорэйшн Устройство формирования цветного изображения
US8406548B2 (en) 2011-02-28 2013-03-26 Sony Corporation Method and apparatus for performing a blur rendering process on an image
US8537245B2 (en) 2011-03-04 2013-09-17 Hand Held Products, Inc. Imaging and decoding device with quantum dot imager
CA2769358C (en) 2011-03-08 2016-06-07 Research In Motion Limited Quantum dot image sensor with dummy pixels used for intensity calculations
US9565449B2 (en) 2011-03-10 2017-02-07 Qualcomm Incorporated Coding multiview video plus depth content
KR101792501B1 (ko) 2011-03-16 2017-11-21 한국전자통신연구원 특징기반의 스테레오 매칭 방법 및 장치
US8824821B2 (en) 2011-03-28 2014-09-02 Sony Corporation Method and apparatus for performing user inspired visual effects rendering on an image
US20120249853A1 (en) 2011-03-28 2012-10-04 Marc Krolczyk Digital camera for reviewing related images
US8422770B2 (en) 2011-03-30 2013-04-16 Mckesson Financial Holdings Method, apparatus and computer program product for displaying normalized medical images
US9030528B2 (en) 2011-04-04 2015-05-12 Apple Inc. Multi-zone imaging sensor and lens array
FR2974449A1 (fr) 2011-04-22 2012-10-26 Commissariat Energie Atomique Circuit integre imageur et dispositif de capture d'images stereoscopiques
US20120274626A1 (en) 2011-04-29 2012-11-01 Himax Media Solutions, Inc. Stereoscopic Image Generating Apparatus and Method
WO2012149971A1 (en) 2011-05-04 2012-11-08 Sony Ericsson Mobile Communications Ab Method, graphical user interface, and computer program product for processing of a light field image
WO2012155119A1 (en) 2011-05-11 2012-11-15 Pelican Imaging Corporation Systems and methods for transmitting and receiving array camera image data
US8843346B2 (en) 2011-05-13 2014-09-23 Amazon Technologies, Inc. Using spatial information with device interaction
CN102164298B (zh) 2011-05-18 2012-10-03 长春理工大学 全景成像***中基于立体匹配的元素图像获取方法
US8629901B2 (en) 2011-05-19 2014-01-14 National Taiwan University System and method of revising depth of a 3D image pair
US20120293489A1 (en) 2011-05-20 2012-11-22 Himax Technologies Limited Nonlinear depth remapping system and method thereof
JP5797016B2 (ja) 2011-05-30 2015-10-21 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP5762142B2 (ja) 2011-05-31 2015-08-12 キヤノン株式会社 撮像装置、画像処理装置およびその方法
US8648919B2 (en) 2011-06-06 2014-02-11 Apple Inc. Methods and systems for image stabilization
US8823813B2 (en) 2011-06-06 2014-09-02 Apple Inc. Correcting rolling shutter using image stabilization
US9635274B2 (en) 2011-06-15 2017-04-25 Microsoft Technology Licensing, Llc High resolution multispectral image capture
JP2013005259A (ja) 2011-06-17 2013-01-07 Sony Corp 画像処理装置、および画像処理方法、並びにプログラム
JP2014521117A (ja) 2011-06-28 2014-08-25 ペリカン イメージング コーポレイション アレイカメラで使用するための光学配列
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
US8773513B2 (en) 2011-07-01 2014-07-08 Seiko Epson Corporation Context and epsilon stereo constrained correspondence matching
US9300946B2 (en) 2011-07-08 2016-03-29 Personify, Inc. System and method for generating a depth map and fusing images from a camera array
KR101216123B1 (ko) 2011-07-08 2012-12-27 김호 시청자 얼굴 추적정보 생성방법 및 생성장치, 그 기록매체 및 3차원 디스플레이 장치
JP5780865B2 (ja) 2011-07-14 2015-09-16 キヤノン株式会社 画像処理装置、撮像システム、画像処理システム
JP2013024886A (ja) 2011-07-14 2013-02-04 Sanyo Electric Co Ltd 撮像装置
US9363535B2 (en) 2011-07-22 2016-06-07 Qualcomm Incorporated Coding motion depth maps with depth range variation
US9264689B2 (en) 2011-08-04 2016-02-16 Semiconductor Components Industries, Llc Systems and methods for color compensation in multi-view video
BR112014003165A2 (pt) 2011-08-09 2017-03-01 Samsung Electronics Co Ltd método para codificar um mapa de profundidade de dados de vídeo de múltiplas visualizações, aparelho para codificar um mapa de profundidade de dados de vídeo de múltiplas visualizações, método para decodificar um mapa de profundidade de dados de vídeo de múltiplas visualizações, e aparelho para decodificar um mapa de profundidade de dados de vídeo de múltiplas visualizações
US8432435B2 (en) 2011-08-10 2013-04-30 Seiko Epson Corporation Ray image modeling for fast catadioptric light field rendering
US8866951B2 (en) 2011-08-24 2014-10-21 Aptina Imaging Corporation Super-resolution imaging systems
US8704895B2 (en) 2011-08-29 2014-04-22 Qualcomm Incorporated Fast calibration of displays using spectral-based colorimetrically calibrated multicolor camera
US9009952B2 (en) 2011-08-29 2015-04-21 Asm Technology Singapore Pte. Ltd. Apparatus for assembling a lens module and an image sensor to form a camera module, and a method of assembling the same
WO2013043751A1 (en) 2011-09-19 2013-03-28 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super resolution processing using pixel apertures
JP5879549B2 (ja) 2011-09-20 2016-03-08 パナソニックIpマネジメント株式会社 ライトフィールド撮像装置、および画像処理装置
CN103828361B (zh) 2011-09-21 2015-04-29 富士胶片株式会社 图像处理装置、方法,立体图像获取装置,便携式电子设备,打印机和立体图像播放器装置
US8724893B2 (en) 2011-09-27 2014-05-13 Thomson Licensing Method and system for color look up table generation
US8908083B2 (en) 2011-09-28 2014-12-09 Apple Inc. Dynamic autofocus operations
IN2014CN02708A (de) 2011-09-28 2015-08-07 Pelican Imaging Corp
US9003397B2 (en) 2011-09-29 2015-04-07 Oracle International Corporation System and method for supporting automatically deploying/undeploying application components in a transactional middleware machine environment
JP5831105B2 (ja) 2011-09-30 2015-12-09 ソニー株式会社 撮像装置及び撮像方法
CN104185808A (zh) 2011-10-11 2014-12-03 派力肯影像公司 包括自适应光学元件的透镜堆叠阵列
EP2582128A3 (de) 2011-10-12 2013-06-19 Canon Kabushiki Kaisha Bilderfassungsvorrichtung
US20130107072A1 (en) 2011-10-31 2013-05-02 Ankit Kumar Multi-resolution ip camera
US9692991B2 (en) 2011-11-04 2017-06-27 Qualcomm Incorporated Multispectral imaging system
JP5149435B1 (ja) 2011-11-04 2013-02-20 株式会社東芝 映像処理装置および映像処理方法
EP2590138B1 (de) 2011-11-07 2019-09-11 Flir Systems AB Gasvisualisierungsanordnungen, Vorrichtungen und Verfahren
GB201119405D0 (en) 2011-11-10 2011-12-21 Univ East Anglia Spectral estimation method,system and reference target design system
WO2013072875A2 (en) 2011-11-15 2013-05-23 Technion Research & Development Foundation Ltd. Method and system for transmitting light
US20130121559A1 (en) 2011-11-16 2013-05-16 Sharp Laboratories Of America, Inc. Mobile device with three dimensional augmented reality
US20130127988A1 (en) 2011-11-17 2013-05-23 Sen Wang Modifying the viewpoint of a digital image
JP6019568B2 (ja) 2011-11-28 2016-11-02 ソニー株式会社 画像処理装置および方法、記録媒体、並びに、プログラム
US9661310B2 (en) 2011-11-28 2017-05-23 ArcSoft Hanzhou Co., Ltd. Image depth recovering method and stereo image fetching device thereof
EP2600316A1 (de) 2011-11-29 2013-06-05 Inria Institut National de Recherche en Informatique et en Automatique Verfahren, System und Softwareprogramm zum Schießen und Bearbeiten eines Films umfassend mindestens ein Bild einer 3D-computergenerierten Animation
KR101862404B1 (ko) 2011-12-09 2018-05-29 엘지이노텍 주식회사 스테레오 영상의 노이즈 제거장치 및 방법
US9117295B2 (en) 2011-12-20 2015-08-25 Adobe Systems Incorporated Refinement of depth maps by fusion of multiple estimates
KR20130072535A (ko) * 2011-12-22 2013-07-02 삼성전기주식회사 비파괴적 결함검사장치 및 이를 이용한 결함검사방법
JP5414947B2 (ja) 2011-12-27 2014-02-12 パナソニック株式会社 ステレオ撮影装置
US8941722B2 (en) 2012-01-03 2015-01-27 Sony Corporation Automatic intelligent focus control of video
US8854433B1 (en) 2012-02-03 2014-10-07 Aquifi, Inc. Method and system enabling natural user interface gestures with an electronic system
WO2013119706A1 (en) 2012-02-06 2013-08-15 Pelican Imaging Corporation Systems and methods for extending dynamic range of imager arrays by controlling pixel analog gain
US9172889B2 (en) 2012-02-09 2015-10-27 Semiconductor Components Industries, Llc Imaging systems and methods for generating auto-exposed high-dynamic-range images
US9412206B2 (en) 2012-02-21 2016-08-09 Pelican Imaging Corporation Systems and methods for the manipulation of captured light field image data
US9230333B2 (en) 2012-02-22 2016-01-05 Raytheon Company Method and apparatus for image processing
JP5860304B2 (ja) 2012-02-23 2016-02-16 キヤノン株式会社 撮像装置及びその制御方法、プログラム、並びに記憶媒体
JP6112824B2 (ja) 2012-02-28 2017-04-12 キヤノン株式会社 画像処理方法および装置、プログラム。
US8831377B2 (en) 2012-02-28 2014-09-09 Lytro, Inc. Compensating for variation in microlens position during light-field image processing
JP5924978B2 (ja) 2012-02-28 2016-05-25 キヤノン株式会社 画像処理装置および画像処理方法
EP2637139A1 (de) 2012-03-05 2013-09-11 Thomson Licensing Verfahren und Vorrichtung für die Zweischichtsegmentierung
CN104169965B (zh) 2012-04-02 2018-07-03 英特尔公司 用于多拍摄装置***中图像变形参数的运行时调整的***、方法和计算机程序产品
EP2836869B1 (de) 2012-04-13 2020-10-14 Automation Engineering, Inc. Aktive ausrichtung mittels sweeps mit kontinuierlicher bewegung und zeitlicher interpolation
JP2015523102A (ja) 2012-04-16 2015-08-13 チルドレンズ ナショナル メディカル センターChildren’S National Medical Center 手術及び介入処置での追跡及び制御の為のデュアルモードステレオイメージングシステム
US8994845B2 (en) 2012-04-27 2015-03-31 Blackberry Limited System and method of adjusting a camera based on image data
CN104335246B (zh) 2012-05-01 2018-09-04 Fotonation开曼有限公司 用pi滤光器群组来形成图案的相机模块
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
CN104272729A (zh) 2012-05-02 2015-01-07 皇家飞利浦有限公司 用于处理3d视频的质量度量
WO2013169671A1 (en) 2012-05-09 2013-11-14 Lytro, Inc. Optimization of optical systems for improved light field capture and manipulation
US9846960B2 (en) 2012-05-31 2017-12-19 Microsoft Technology Licensing, Llc Automated camera array calibration
US9179126B2 (en) 2012-06-01 2015-11-03 Ostendo Technologies, Inc. Spatio-temporal light field cameras
US20150124059A1 (en) 2012-06-08 2015-05-07 Nokia Corporation Multi-frame image calibrator
EP2677734A3 (de) 2012-06-18 2016-01-13 Sony Mobile Communications AB Arraykameraabbildungssystem und Verfahren
JP5929553B2 (ja) 2012-06-28 2016-06-08 ソニー株式会社 画像処理装置、撮像装置、画像処理方法およびプログラム
WO2014005123A1 (en) 2012-06-28 2014-01-03 Pelican Imaging Corporation Systems and methods for detecting defective camera arrays, optic arrays, and sensors
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
US8896594B2 (en) 2012-06-30 2014-11-25 Microsoft Corporation Depth sensing with depth-adaptive illumination
US8792710B2 (en) 2012-07-24 2014-07-29 Intel Corporation Stereoscopic depth reconstruction with probabilistic pixel correspondence search
US9147251B2 (en) 2012-08-03 2015-09-29 Flyby Media, Inc. Systems and methods for efficient 3D tracking of weakly textured planar surfaces for augmented reality applications
US8988566B2 (en) 2012-08-09 2015-03-24 Omnivision Technologies, Inc. Lens array for partitioned image sensor having color filters
WO2014074202A2 (en) 2012-08-20 2014-05-15 The Regents Of The University Of California Monocentric lens designs and associated imaging systems having wide field of view and high resolution
US8619082B1 (en) 2012-08-21 2013-12-31 Pelican Imaging Corporation Systems and methods for parallax detection and correction in images captured using array cameras that contain occlusions using subsets of images to perform depth estimation
US20140055632A1 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
CN104584545B (zh) 2012-08-31 2017-05-31 索尼公司 图像处理装置、图像处理方法、以及信息处理装置
WO2014043641A1 (en) 2012-09-14 2014-03-20 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
US9373088B2 (en) 2012-09-17 2016-06-21 The Board Of Trustees Of The Leland Stanford Junior University Brain machine interface utilizing a discrete action state decoder in parallel with a continuous decoder for a neural prosthetic device
US9143673B2 (en) 2012-09-19 2015-09-22 Google Inc. Imaging device with a plurality of pixel arrays
US20140092281A1 (en) 2012-09-28 2014-04-03 Pelican Imaging Corporation Generating Images from Light Fields Utilizing Virtual Viewpoints
TW201415879A (zh) 2012-10-12 2014-04-16 Wintek Corp 影像擷取裝置
EP2915325A4 (de) 2012-10-31 2016-06-01 Invisage Technologies Inc Bild- und videoaufnahme mit erweitertem sichtfeld
US9338370B2 (en) 2012-11-05 2016-05-10 Honeywell International Inc. Visual system having multiple cameras
WO2014078443A1 (en) 2012-11-13 2014-05-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
KR101954192B1 (ko) 2012-11-15 2019-03-05 엘지전자 주식회사 어레이 카메라, 휴대 단말기 및 그 동작 방법
US9076205B2 (en) 2012-11-19 2015-07-07 Adobe Systems Incorporated Edge direction and curve based image de-blurring
TWI525382B (zh) 2012-11-21 2016-03-11 豪威科技股份有限公司 包括至少一拜耳型攝影機的攝影機陣列系統及關聯的方法
CN105556944B (zh) 2012-11-28 2019-03-08 核心光电有限公司 多孔径成像***和方法
US9001226B1 (en) 2012-12-04 2015-04-07 Lytro, Inc. Capturing and relighting images using multiple devices
US9088369B2 (en) 2012-12-28 2015-07-21 Synergy Microwave Corporation Self injection locked phase locked looped optoelectronic oscillator
US8851370B2 (en) 2013-01-02 2014-10-07 Jpmorgan Chase Bank, N.A. System and method for secure card with on-board verification
US20140183334A1 (en) 2013-01-03 2014-07-03 Visera Technologies Company Limited Image sensor for light field device and manufacturing method thereof
US9270876B2 (en) 2013-01-05 2016-02-23 The Lightco Inc. Methods and apparatus for using multiple optical chains in parallel with multiple different exposure times
KR20140094395A (ko) 2013-01-22 2014-07-30 삼성전자주식회사 복수 개의 마이크로렌즈를 사용하여 촬영하는 촬영 장치 및 그 촬영 방법
US9497380B1 (en) 2013-02-15 2016-11-15 Red.Com, Inc. Dense field imaging
US9462164B2 (en) 2013-02-21 2016-10-04 Pelican Imaging Corporation Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
WO2014133974A1 (en) 2013-02-24 2014-09-04 Pelican Imaging Corporation Thin form computational and modular array cameras
US9853826B2 (en) 2013-02-25 2017-12-26 Qualcomm Incorporated Establishing groups of internet of things (IOT) devices and enabling communication among the groups of IOT devices
US20140240469A1 (en) 2013-02-28 2014-08-28 Motorola Mobility Llc Electronic Device with Multiview Image Capture and Depth Sensing
US20150002734A1 (en) 2013-07-01 2015-01-01 Motorola Mobility Llc Electronic Device with Modulated Light Flash Operation for Rolling Shutter Image Sensor
US9638883B1 (en) 2013-03-04 2017-05-02 Fotonation Cayman Limited Passive alignment of array camera modules constructed from lens stack arrays and sensors based upon alignment information obtained during manufacture of array camera modules using an active alignment process
WO2014138695A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for measuring scene information while capturing images using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9521416B1 (en) 2013-03-11 2016-12-13 Kip Peli P1 Lp Systems and methods for image data compression
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
US9124831B2 (en) 2013-03-13 2015-09-01 Pelican Imaging Corporation System and methods for calibration of an array camera
WO2014160142A1 (en) 2013-03-13 2014-10-02 Pelican Imaging Corporation Systems and methods for using alignment to increase sampling diversity of cameras in an array camera module
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
WO2014165244A1 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
WO2014153098A1 (en) 2013-03-14 2014-09-25 Pelican Imaging Corporation Photmetric normalization in array cameras
US9633442B2 (en) 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
US9497370B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Array camera architecture implementing quantum dot color filters
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
US9438888B2 (en) 2013-03-15 2016-09-06 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
WO2014149902A1 (en) 2013-03-15 2014-09-25 Pelican Imaging Corporation Systems and methods for providing an array projector
WO2014144157A1 (en) 2013-03-15 2014-09-18 Pelican Imaging Corporation Optical arrangements for use with an array camera
KR101335761B1 (ko) 2013-04-03 2013-12-09 이재건 저온열화특성이 없는 지르코니아 단결정과 그 육성 방법
US20140307055A1 (en) 2013-04-15 2014-10-16 Microsoft Corporation Intensity-modulated light pattern for active stereo
US9720140B2 (en) 2013-04-23 2017-08-01 Konica Minolta, Inc. Optical film, circularly polarizing plate and organic electroluminescent display device
CN105165008B (zh) 2013-05-10 2017-11-21 皇家飞利浦有限公司 对与多视图再现设备一起使用的视频数据信号进行编码的方法
JP6201476B2 (ja) 2013-07-18 2017-09-27 凸版印刷株式会社 自由視点画像撮像装置およびその方法
WO2015015722A1 (ja) 2013-07-29 2015-02-05 パナソニックIpマネジメント株式会社 光学フィルタおよびそれを用いた偏光撮像装置
KR102103983B1 (ko) 2013-07-31 2020-04-23 삼성전자주식회사 시프트된 마이크로 렌즈 어레이를 구비하는 라이트 필드 영상 획득 장치
US20160182786A1 (en) 2013-09-11 2016-06-23 Lytro, Inc. Hybrid light-field camera
CN103514580B (zh) 2013-09-26 2016-06-08 香港应用科技研究院有限公司 用于获得视觉体验优化的超分辨率图像的方法和***
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
CA2888943C (en) 2013-10-03 2015-08-18 Sulon Technologies Inc. Augmented reality system and method for positioning and mapping
US20150098079A1 (en) 2013-10-09 2015-04-09 Hilti Aktiengesellschaft System and method for camera based position and orientation measurement
US20150104101A1 (en) 2013-10-14 2015-04-16 Apple Inc. Method and ui for z depth image segmentation
US9426343B2 (en) 2013-11-07 2016-08-23 Pelican Imaging Corporation Array cameras incorporating independently aligned lens stacks
US10119808B2 (en) 2013-11-18 2018-11-06 Fotonation Limited Systems and methods for estimating depth from projected texture using camera arrays
EP3075140B1 (de) 2013-11-26 2018-06-13 FotoNation Cayman Limited Zeilenkamerakonfigurationen mit mehreren zeilenkameras
US10395113B2 (en) 2014-01-22 2019-08-27 Polaris Sensor Technologies, Inc. Polarization-based detection and mapping method and system
KR102135770B1 (ko) 2014-02-10 2020-07-20 한국전자통신연구원 스테레오 카메라 기반의 3차원 얼굴 복원 방법 및 장치
GB2523149A (en) 2014-02-14 2015-08-19 Nokia Technologies Oy Method, apparatus and computer program product for image-driven cost volume aggregation
US9979878B2 (en) 2014-02-21 2018-05-22 Light Labs Inc. Intuitive camera user interface methods and apparatus
JP6211435B2 (ja) 2014-02-26 2017-10-11 株式会社アドバンテスト 半導体装置の製造方法
US9307159B2 (en) 2014-03-04 2016-04-05 Panasonic Intellectual Property Management Co., Ltd. Polarization image processing apparatus
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
WO2015139231A1 (en) 2014-03-19 2015-09-24 Intel Corporation Facial expression and/or interaction driven avatar apparatus and method
JP6299879B2 (ja) * 2014-03-21 2018-04-11 オムロン株式会社 光学システムにおける光学性能劣化の検出および緩和のための方法および装置
EP3125806B1 (de) 2014-03-28 2023-06-14 Intuitive Surgical Operations, Inc. Quantitative dreidimensionale bildgebung von chirurgischen szenen
US9247117B2 (en) 2014-04-07 2016-01-26 Pelican Imaging Corporation Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array
GB2525660A (en) 2014-05-01 2015-11-04 Mastercard International Inc Methods, devices and systems for transaction initiation
WO2015183824A1 (en) 2014-05-26 2015-12-03 Pelican Imaging Corporation Autofocus system for a conventional camera that uses depth information from an array camera
US9729865B1 (en) 2014-06-18 2017-08-08 Amazon Technologies, Inc. Object detection and tracking
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
US9992483B2 (en) 2014-09-03 2018-06-05 Intel Corporation Imaging architecture for depth camera mode with mode switching
JP2017531976A (ja) 2014-09-29 2017-10-26 フォトネイション ケイマン リミテッド アレイカメラを動的に較正するためのシステム及び方法
US9766461B2 (en) 2015-01-20 2017-09-19 Microsoft Technology Licensing, Llc Head-mounted display device with stress-resistant components
US9964482B2 (en) 2015-01-26 2018-05-08 The United States Of America As Represented By The Secretary Of The Army Detecting clouds using polarized sunlight
CN107251539B (zh) * 2015-02-27 2020-10-16 索尼公司 成像装置、图像处理装置和图像处理方法
US20160267486A1 (en) 2015-03-13 2016-09-15 Radiius Corp Smartcard Payment System and Method
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
WO2016167814A1 (en) 2015-04-17 2016-10-20 Pelican Imaging Corporation Systems and methods for performing high speed video capture and depth estimation using array cameras
EP3286914B1 (de) 2015-04-19 2019-12-25 FotoNation Limited Architekturen eines kameragruppensystem mit mehreren grundlinien zur tiefenerweiterung bei vr/ar-anwendungen
JP6512928B2 (ja) 2015-04-28 2019-05-15 キヤノン株式会社 画像符号化装置、画像処理装置、画像符号化方法
EP3095591B1 (de) * 2015-05-19 2019-11-13 MTU Aero Engines GmbH Verfahren und vorrichtung zum zumindest bereichsweisen ermitteln einer kontur wenigstens einer generativ hergestellten bauteilschicht
US9679526B2 (en) 2015-06-30 2017-06-13 Nxp Usa, Inc. Display system, an integrated circuit for use in the display system, and a method of displaying at least two images on at least two screens
US20170011405A1 (en) 2015-07-09 2017-01-12 Mastercard International Incorporated Simultaneous multi-factor authentication systems and methods for payment transactions
JP6626295B2 (ja) 2015-09-09 2019-12-25 キヤノン株式会社 画像符号化装置、画像処理装置、画像符号化方法
US11257075B2 (en) 2015-10-20 2022-02-22 Paypal, Inc. Secure multi-factor user authentication on disconnected mobile devices
US20170142405A1 (en) 2015-10-21 2017-05-18 Praxik, LLC. Apparatus, Systems and Methods for Ground Plane Extension
GB2562924B (en) 2015-12-14 2021-05-19 Motion Metrics Int Corp Method and apparatus for identifying fragmented material portions within an image
US9741163B2 (en) 2015-12-22 2017-08-22 Raytheon Company 3-D polarimetric imaging using a microfacet scattering model to compensate for structured scene reflections
DE102016200287A1 (de) * 2016-01-13 2017-07-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturabbildungsvorrichtungen, Verfahren zum Herstellen derselben und Abbildungssystem
WO2017143077A1 (en) 2016-02-18 2017-08-24 Velo3D, Inc. Accurate three-dimensional printing
US20170268990A1 (en) 2016-03-17 2017-09-21 Canon Kabushiki Kaisha Separating diffuse and specular components of a glossy object for shape reconstruction using electronic light diffusing layers (e-glass) and polarized light
US20170337682A1 (en) 2016-05-18 2017-11-23 Siemens Healthcare Gmbh Method and System for Image Registration Using an Intelligent Artificial Agent
US10546297B2 (en) 2016-06-30 2020-01-28 Paypal, Inc. Hardware and token based user authentication
WO2018017897A1 (en) * 2016-07-20 2018-01-25 Mura Inc. Systems and methods for 3d surface measurements
JP6697681B2 (ja) 2016-08-17 2020-05-27 ソニー株式会社 検査装置、検査方法、およびプログラム
US11199678B2 (en) 2016-09-14 2021-12-14 Fotonation Limited Optical systems for cameras incorporating lens elements formed separately and subsequently bonded to low CTE substrates
US10466036B2 (en) 2016-10-07 2019-11-05 Arizona Board Of Regents On Behalf Of The University Of Arizona Attachable depth and orientation tracker device and method of depth and orientation tracking using focal plane polarization and color camera
US11832969B2 (en) 2016-12-22 2023-12-05 The Johns Hopkins University Machine learning approach to beamforming
US20180189767A1 (en) 2016-12-29 2018-07-05 Fotonation Limited Systems and methods for utilizing payment card information with a secure biometric processor on a mobile device
US10976239B1 (en) 2017-03-14 2021-04-13 Hart Scientific Consulting International Llc Systems and methods for determining polarization properties with high temporal bandwidth
US20200232785A1 (en) 2017-04-01 2020-07-23 Hewlett-Packard Development Company, L.P. Surface height measurement system
US10643382B2 (en) 2017-04-04 2020-05-05 Intel Corporation Application of convolutional neural networks to object meshes
CN106989675B (zh) * 2017-05-03 2020-03-31 交通运输部公路科学研究所 基于目标表面特征参数的多光谱成像***
AU2018267821B2 (en) * 2017-05-16 2023-01-12 Triastek, Inc. 3D printing device and method
DE112018002992T5 (de) 2017-06-13 2020-02-27 Sony Corporation Bildgebungseinrichtung, bildgebungselement und bildverarbeitungsverfahren
KR102351542B1 (ko) 2017-06-23 2022-01-17 삼성전자주식회사 시차 보상 기능을 갖는 애플리케이션 프로세서, 및 이를 구비하는 디지털 촬영 장치
JP7207303B2 (ja) 2017-07-12 2023-01-18 ソニーグループ株式会社 撮像装置、画像生成方法、撮像システム
US10742894B2 (en) 2017-08-11 2020-08-11 Ut-Battelle, Llc Optical array for high-quality imaging in harsh environments
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US11373396B2 (en) * 2017-11-06 2022-06-28 Google Llc Systems and methods for improved feature extraction using polarization information
US10643383B2 (en) 2017-11-27 2020-05-05 Fotonation Limited Systems and methods for 3D facial modeling
CN109961406B (zh) 2017-12-25 2021-06-25 深圳市优必选科技有限公司 一种图像处理的方法、装置及终端设备
US11024046B2 (en) 2018-02-07 2021-06-01 Fotonation Limited Systems and methods for depth estimation using generative models
WO2019157288A1 (en) 2018-02-09 2019-08-15 Nano Techgalaxy, Inc. D/B/A Galaxy.Ai Systems and methods for physical object analysis
US20200012119A1 (en) 2018-07-06 2020-01-09 Polaris Sensor Technologies, Inc. Reducing glare for objects viewed through transparent surfaces
WO2020028257A2 (en) 2018-07-30 2020-02-06 Hyperfine Research, Inc. Deep learning techniques for magnetic resonance image reconstruction
US11315321B2 (en) 2018-09-07 2022-04-26 Intel Corporation View dependent 3D reconstruction mechanism
US10708557B1 (en) * 2018-12-14 2020-07-07 Lyft Inc. Multispectrum, multi-polarization (MSMP) filtering for improved perception of difficult to perceive colors
US10659751B1 (en) 2018-12-14 2020-05-19 Lyft Inc. Multichannel, multi-polarization imaging for improved perception
KR102083759B1 (ko) 2019-07-31 2020-03-02 (주)이즈미디어 광학기구 정렬 검사장치
DE112020004391T5 (de) * 2019-09-17 2022-06-02 Boston Polarimetrics, Inc. Systeme und verfahren zur oberflächenmodellierung unter verwendung von polarisationsmerkmalen
US11461998B2 (en) 2019-09-25 2022-10-04 Samsung Electronics Co., Ltd. System and method for boundary aware semantic segmentation
MX2022004163A (es) * 2019-10-07 2022-07-19 Boston Polarimetrics Inc Sistemas y metodos para la deteccion de estandares de superficie con polarizacion.
CN114787648B (zh) * 2019-11-30 2023-11-10 波士顿偏振测定公司 用于使用偏振提示进行透明对象分段的***和方法
CN111402395B (zh) 2020-02-17 2023-07-04 西安电子科技大学 一种基于cnn校正的被动偏振三维重建方法
CN111537072B (zh) * 2020-04-22 2022-11-11 中国人民解放军国防科技大学 一种阵列式偏振相机的偏振信息测量***及方法
CN112329256A (zh) * 2020-11-13 2021-02-05 北京环境特性研究所 一种涂层材质反射偏振特性分析方法及装置
CN215296170U (zh) 2021-06-11 2021-12-24 中山职业技术学院 一种分光图像采集装置

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10260866B2 (en) 2015-03-06 2019-04-16 Massachusetts Institute Of Technology Methods and apparatus for enhancing depth maps with polarization cues
US10557705B2 (en) 2015-03-06 2020-02-11 Massachusetts Institute Of Technology Methods and apparatus for enhancing depth maps with polarization cues

Also Published As

Publication number Publication date
WO2021071995A8 (en) 2022-05-05
EP4042366A1 (de) 2022-08-17
MX2022004162A (es) 2022-07-12
DE112020004810B4 (de) 2023-10-26
EP4042101A1 (de) 2022-08-17
WO2021071992A1 (en) 2021-04-15
MX2022004163A (es) 2022-07-19
EP4042101A4 (de) 2023-11-22
BR112022006602A2 (pt) 2022-06-28
WO2021071995A1 (en) 2021-04-15
BR112022006617A2 (pt) 2022-06-28
KR102538645B1 (ko) 2023-05-31
US11982775B2 (en) 2024-05-14
CN114766003A (zh) 2022-07-19
DE112020004813B4 (de) 2023-02-09
DE112020004810T5 (de) 2022-07-28
CA3157194C (en) 2023-08-29
JP2022546627A (ja) 2022-11-04
CA3157197A1 (en) 2021-04-15
CN114766003B (zh) 2024-03-26
KR20230004423A (ko) 2023-01-06
JP2022552833A (ja) 2022-12-20
CA3157194A1 (en) 2021-04-15
CN114746717A (zh) 2022-07-12
JP7330376B2 (ja) 2023-08-21
US20220307819A1 (en) 2022-09-29
US20230184912A1 (en) 2023-06-15
US11525906B2 (en) 2022-12-13
EP4042366A4 (de) 2023-11-15
KR20230006795A (ko) 2023-01-11
US20210356572A1 (en) 2021-11-18

Similar Documents

Publication Publication Date Title
DE112020004813B4 (de) System zur Erweiterung von Sensorsystemen und Bildgebungssystemen mit Polarisation
DE102011106050B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild zur Detektion eines freien Pfads
CN101443817B (zh) 用于确定场景的三维重建时的对应关系的方法和装置
DE102020106965A1 (de) Verfahren und system zum durchführen einer automatischen kamerakalibrierung für ein abtastsystem
DE112010004767T5 (de) Punktwolkedaten-Verarbeitungsvorrichtung, Punktwolkedaten-Verarbeitungsverfahren und Punktwolkedaten-Verarbeitungsprogramm
DE112016001150T5 (de) Schätzung extrinsischer kameraparameter anhand von bildlinien
Kedzierski et al. Methodology of improvement of radiometric quality of images acquired from low altitudes
DE112016006213T5 (de) System und Verfahren zum Fusionieren von Ausgängen von Sensoren, die unterschiedliche Auflösungen aufweisen
WO2012048889A1 (de) Vorrichtung und verfahren zur dreidimensionalen bilderfassung
Parmehr et al. Automatic registration of optical imagery with 3d lidar data using local combined mutual information
DE102020100230A1 (de) Rekonstruktion von landmarkenpositionen in autonomen maschinenanwendungen
Terpstra et al. Accuracies in Single Image Camera Matching Photogrammetry
CN108830804A (zh) 基于线扩展函数标准差的虚实融合模糊一致性处理方法
Karaca et al. Ground-based panoramic stereo hyperspectral imaging system with multiband stereo matching
Vezeteu Stereo-Camera–LiDAR Calibration for Autonomous Driving
DE102022123295A1 (de) Stereovisions-System, Fahrerassistenzsystem und Verfahren zur Erzeugung einer Stereovision aus zwei 2D-Darstellungen
WO2023061732A1 (de) Verfahren zum lokalisieren eines anhängers, verarbeitungseinheit und fahrzeug
DE102020214251A1 (de) Verfahren zum Bereitstellen von Überwachungsdaten zur Detektion eines beweglichen Objekts, Verfahren zur Detektion eines beweglichen Objekts, Verfahren zum Herstellen zumindest eines vordefinierten punktsymmetrischen Bereichs und Vorrichtung
DE102021204404A1 (de) Computerimplementiertes Verfahren, Computerprogramm und Steuermodul zum Bestimmen einer Pose und/oder von Dimensionen eines Objekts mittels Messwerten eines Bildgebungssensors
Morales Chavez Performance evaluation tools for stereo vision analysis in uncontrolled environments
Al-Harasis Design and Implementation of a Real-Time Surveillance Vision System Based on Two Fisheye Cameras
Wang et al. A Quantitative Assessment Framework for Model Quality Evaluation of 3D Scene under Simulation Platform
CN106331631A (zh) 一种两路视频重合方法

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R018 Grant decision by examination section/examining division
R130 Divisional application to

Ref document number: 112020007043

Country of ref document: DE

R020 Patent grant now final
R081 Change of applicant/patentee

Owner name: INTRINSIC INNOVATION LLC, MOUNTAIN VIEW, US

Free format text: FORMER OWNER: BOSTON POLARIMETRICS, INC., PALO ALTO, CA, US

R082 Change of representative

Representative=s name: VENNER SHIPLEY GERMANY LLP, DE