DE102015217253A1 - Umfelderfassungseinrichtung für ein Fahrzeug und Verfahren zum Erfassen eines Bilds mittels einer Umfelderfassungseinrichtung - Google Patents

Umfelderfassungseinrichtung für ein Fahrzeug und Verfahren zum Erfassen eines Bilds mittels einer Umfelderfassungseinrichtung Download PDF

Info

Publication number
DE102015217253A1
DE102015217253A1 DE102015217253.8A DE102015217253A DE102015217253A1 DE 102015217253 A1 DE102015217253 A1 DE 102015217253A1 DE 102015217253 A DE102015217253 A DE 102015217253A DE 102015217253 A1 DE102015217253 A1 DE 102015217253A1
Authority
DE
Germany
Prior art keywords
pixel matrix
monochrome
color
matrix
sensor
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102015217253.8A
Other languages
English (en)
Inventor
Ulrich Seger
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Robert Bosch GmbH
Original Assignee
Robert Bosch GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Robert Bosch GmbH filed Critical Robert Bosch GmbH
Priority to DE102015217253.8A priority Critical patent/DE102015217253A1/de
Priority to US15/257,327 priority patent/US20170134650A1/en
Priority to GB1615071.6A priority patent/GB2546351A/en
Priority to CN201610908606.4A priority patent/CN106534723A/zh
Publication of DE102015217253A1 publication Critical patent/DE102015217253A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/10Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths
    • H04N23/13Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from different wavelengths with multiple sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • H04N23/84Camera processing pipelines; Components thereof for processing colour signals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/41Extracting pixel data from a plurality of image sensors simultaneously picking up an image, e.g. for increasing the field of view by combining the outputs of a plurality of sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/46Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled by combining or binning pixels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0238Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using obstacle or wall sensors
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2209/00Details of colour television systems
    • H04N2209/04Picture signal generators
    • H04N2209/041Picture signal generators using solid-state devices
    • H04N2209/042Picture signal generators using solid-state devices having a single pick-up sensor
    • H04N2209/047Picture signal generators using solid-state devices having a single pick-up sensor using multispectral pick-up elements

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Theoretical Computer Science (AREA)
  • Computing Systems (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Color Television Image Signal Generators (AREA)

Abstract

Die Erfindung betrifft eine Umfelderfassungseinrichtung (100) für ein Fahrzeug. Die Umfelderfassungseinrichtung (100) umfasst einen Farbsensor (102) mit einer Farbpixelmatrix (103) und einen Monochromsensor (104) mit einer Monochrompixelmatrix (105), wobei der Farbsensor (102) und der Monochromsensor (104) derart zueinander ausgerichtet sind, dass ein Objektpunkt eines von der Farbpixelmatrix (103) und der Monochrompixelmatrix (105) erfassbaren Objekts auf einen Matrixpunkt der Farbpixelmatrix (103) und einen bezüglich des Matrixpunkts der Farbpixelmatrix (103) um einen Versatzwert versetzten Matrixpunkt der Monochrompixelmatrix (105) projiziert wird.

Description

  • Stand der Technik
  • Die Erfindung geht aus von einer Vorrichtung oder einem Verfahren nach Gattung der unabhängigen Ansprüche. Gegenstand der vorliegenden Erfindung ist auch ein Computerprogramm.
  • Um große Blickwinkel abdecken und kleinere Objekte auch in größerer Entfernung mit ausreichend hoher Auflösung erfassen zu können, können Kameras zur Umfelderfassung in Fahrzeugen mit Sensorauflösungen realisiert sein, die proportional mit dem Quadrat einer Winkelaufweitung des Blickwinkels zunehmen.
  • Ferner sind Lösungen mit mehreren Kameras zur Vergrößerung des Sichtfelds bekannt, wobei die Kameras in der Regel getrennt voneinander ausgewertet werden.
  • Offenbarung der Erfindung
  • Vor diesem Hintergrund werden mit dem hier vorgestellten Ansatz eine Umfelderfassungseinrichtung für ein Fahrzeug, ein Verfahren zum Erfassen eines Bilds mittels einer Umfelderfassungseinrichtung für ein Fahrzeug, weiterhin ein Steuergerät, das dieses Verfahren verwendet, sowie schließlich ein entsprechendes Computerprogramm gemäß den Hauptansprüchen vorgestellt. Durch die in den abhängigen Ansprüchen aufgeführten Maßnahmen sind vorteilhafte Weiterbildungen und Verbesserungen der im unabhängigen Anspruch angegebenen Vorrichtung möglich.
  • Es wird eine Umfelderfassungseinrichtung für ein Fahrzeug vorgestellt, wobei die Umfelderfassungseinrichtung folgende Merkmale aufweist:
    einen Farbsensor mit einer Farbpixelmatrix; und
    einen Monochromsensor mit einer Monochrompixelmatrix, wobei der Farbsensor und der Monochromsensor derart zueinander ausgerichtet sind, dass ein Objektpunkt eines von der Farbpixelmatrix und der Monochrompixelmatrix erfassbaren Objekts auf einen Matrixpunkt der Farbpixelmatrix und einen bezüglich des Matrixpunkts der Farbpixelmatrix um einen Versatzwert versetzten Matrixpunkt der Monochrompixelmatrix projiziert wird.
  • Unter einem Farbsensor kann ein mit einem Farbfilter, englisch color filter array, überzogener Fotosensor verstanden werden. Insbesondere kann es sich bei dem Farbfilter um einen multispektralen Farbfilter zum Filtern von Licht unterschiedlicher Spektralbereiche handeln. Unter einer Farbpixelmatrix und einer Monochrompixelmatrix kann jeweils eine beispielsweise orthogonale Matrix aus einer Vielzahl aneinandergrenzender Pixel verstanden werden. Unter einem Monochromsensor kann ein Sensor zum Erfassen monochromen Lichts verstanden werden. Die Farbpixelmatrix und die Monochrompixelmatrix können beispielsweise auf einem gemeinsamen Träger realisiert sein. Unter einem Objektpunkt kann ein abzubildender reeller Punkt eines zu erfassenden Objekts verstanden werden. Unter einem Matrixpunkt kann eine Stelle der Farb- bzw. Monochrompixelmatrix verstanden werden, auf die der Objektpunkt, etwa unter Verwendung geeigneter optischer Hilfsmittel, abgebildet werden kann. Der Versatzwert kann beispielsweise auf der Basis eines Abstands zwischen Mittelpunkten benachbarter Pixel der Farbpixelmatrix ermittelt sein. Dieser Abstand kann auch als Gitterkonstante bezeichnet werden.
  • Der hier vorgestellte Ansatz beruht auf der Erkenntnis, dass es durch die Überlagerung einer Farbpixelmatrix und einer Monochrompixelmatrix und durch eine systematische Nutzung eines gemeinsam abgedeckten Bereichs möglich ist, die Auflösung einer Fahrzeugkamera deutlich zu erhöhen. Dadurch kann wiederum die Anzahl der durch die Fahrzeugkamera erfassbaren Objektmerkmale erhöht werden. Ein weiterer Vorteil einer derartigen Umfelderfassungseinrichtung besteht darin, dass durch die Überlagerung und gleichzeitige Auswertung der beiden Pixelmatrizen die Datenmengen bei der Übertragung und Verarbeitung von Bilddaten trotz der erhöhten Auflösung gering gehalten werden können, was sich wiederum günstig auf den Energieverbrauch der Umfelderfassungseinrichtung auswirken kann. Ferner können somit optische Verluste reduziert werden, was die Diskriminierungsfähigkeit des Systems verbessert.
  • Besonders vorteilhaft ist es, wenn die Umfelderfassungseinrichtung beispielsweise einen Farbsensor mit mehr als drei Farbkanälen, insbesondere vier Farbkanälen wie etwa Blau, Rot, Grün und Infrarot, und einen Monochromsensor mit einer entsprechend höheren Luminanzauflösung als der Farbsensor aufweist. Dadurch kann ein Bild berechnet werden, das neben einer erhöhten Kontrastauflösung über eine sehr differenzierte Farbauflösung verfügt und sich somit besonders gut zur Objekterkennung eignet.
  • Gemäß einer Ausführungsform kann der Versatzwert einen Versatz des Matrixpunkts der Monochrompixelmatrix in x- und/oder y-Richtung bezüglich eines äußeren Rands der Farbpixelmatrix repräsentieren. Dadurch kann der Versatz zwischen den beiden Matrixpunkten in mehreren Richtungen definiert werden. Ein solcher Versatzwert kann zudem sehr einfach und genau ermittelt werden.
  • Es ist ferner vorteilhaft, wenn der Versatzwert durch Division eines Abstands zwischen Mittelpunkten von Pixeln der Farbpixelmatrix durch eine gerade Zahl gebildet ist. Der Abstand kann beispielsweise als eine eine regelmäßige Struktur der Farbpixelmatrix definierende Gitterkonstante aufgefasst werden. Durch diese Ausführungsform kann beispielsweise der Versatz zwischen den beiden Matrixpunkten in x- bzw. y-Richtung sehr einfach berechnet werden.
  • Des Weiteren können eine Winkelauflösung der Farbpixelmatrix und eine Winkelauflösung der Monochrompixelmatrix voneinander abweichen.
  • Insbesondere können die Winkelauflösung der Monochrompixelmatrix und die Winkelauflösung der Farbpixelmatrix in einem geradzahligen Verhältnis zueinander stehen. Dadurch kann die Umfelderfassungseinrichtung Objekte mit unterschiedlichen Auflösungen erfassen. Beispielsweise können sich die jeweiligen Erfassungsbereiche der beiden Pixelmatrizen in einem Überlappungsbereich überlappen, wobei der Überlappungsbereich eine besonders hohe Auflösung aufweist.
  • Von Vorteil ist auch, wenn die Umfelderfassungseinrichtung ein Prisma zum Projizieren des Objektpunkts auf die Farbpixelmatrix und die Monochrompixelmatrix aufweist. Zusätzlich oder alternativ kann die Umfelderfassungseinrichtung eine erste optische Einrichtung zum Projizieren des Objektpunkts auf die Farbpixelmatrix oder eine zweite optische Einrichtung zum Projizieren des Objektpunkts auf die Monochrompixelmatrix aufweisen. Unter einer optischen Einrichtung kann beispielsweise ein Kameraobjektiv verstanden werden. Die erste oder zweite optische Einrichtung kann etwa eine Linse, einen Spiegel oder mehrere solcher Linsen oder Spiegel aufweisen. Dadurch kann der Objektpunkt mit verhältnismäßig geringem Aufwand präzise auf den jeweiligen Matrixpunkt gelenkt werden.
  • Gemäß einer weiteren Ausführungsform kann die Farbpixelmatrix zumindest ein Pixelfeld aus vier Pixeln umfassen. Zumindest drei der vier Pixel können je einer anderen Farbe zugeordnet sein. Insbesondere kann zumindest eines der vier Pixel dem Infrarotbereich oder einem spektral breitbandigen aber NIR geblocktem zugeordnet sein. Unter einem Pixelfeld kann eine aus den vier Pixeln zusammengesetzte lichtempfindliche Fotozelle oder -fläche des Farbsensors verstanden werden. Beispielsweise kann das Pixelfeld je nach Form der Pixel quadratisch oder rechteckig sein. Die Farbpixelmatrix kann etwa als RGBI-Matrix realisiert sein (RGBI = Red Green Blue Intensity oder RGCbbCwo_nir = Red, Green, Clearbroad band, Clearwithout Near Infrared). Durch diese Ausführungsform kann die Umfelderfassungseinrichtung mit einer sehr hohen Farbauflösung bzw. mit erweiterter Spektralauflösung realisiert werden.
  • Zudem kann die Umfelderfassungseinrichtung einen weiteren Bildsensor mit einer weiteren Pixelmatrix aufweisen. Der weitere Bildsensor kann derart ausgerichtet sein, dass der Objektpunkt ferner auf einen Matrixpunkt der weiteren Pixelmatrix projiziert wird. Hierbei kann der weitere Bildsensor einen Polarisationsfilter zum Erfassen eines dem Matrixpunkt der weiteren Pixelmatrix zugeordneten Polarisationswertes aufweisen. Mittels des Polarisationswertes kann ein Bild mit verbessertem Kontrast erzeugt werden.
  • Hierbei kann der Polarisationsfilter ausgebildet sein, um Licht in zumindest zwei unterschiedlichen Polarisationsrichtungen zu filtern. Zu diesem Zweck kann der Polarisationsfilter etwa als Polarisationsmatrix mit zumindest einem Polarisationsfeld aus vier je einem Pixel der weiteren Pixelmatrix zugeordneten Polarisationselementen ausgebildet sein. Dadurch wird eine sehr genaue Erfassung des Polarisationswertes ermöglicht.
  • Ferner schafft der hier beschriebene Ansatz ein Verfahren zum Erfassen eines Bilds mittels einer Umfelderfassungseinrichtung gemäß einer der vorstehenden Ausführungsformen, wobei das Verfahren folgende Schritte umfasst:
    Einlesen eines den Objektpunkt repräsentierenden Signals des Farbsensors und eines den Objektpunkt repräsentierenden Signals des Monochromsensors; und
    Erzeugen des Bilds unter Verwendung des Signals des Farbsensors und des Signals des Monochromsensors.
  • Gemäß einer Ausführungsform kann im Schritt des Einlesens ferner ein von einem weiteren Bildsensor erfasster Polarisationswert eingelesen werden. Hierbei kann im Schritt des Erzeugens das Bild ferner unter Verwendung des Polarisationswertes erzeugt werden. Mithilfe des Polarisationswertes kann ein kontrastmindernder Effekt polarisationsdrehender Oberflächen reduziert werden und somit die Bildqualität des Bildes verbessert werden.
  • Dieses Verfahren kann beispielsweise in Software oder Hardware oder in einer Mischform aus Software und Hardware beispielsweise in einem Steuergerät implementiert sein.
  • Der hier vorgestellte Ansatz schafft ferner ein Steuergerät, das ausgebildet ist, um die Schritte einer Variante eines hier vorgestellten Verfahrens in entsprechenden Einrichtungen durchzuführen, anzusteuern bzw. umzusetzen. Auch durch diese Ausführungsvariante der Erfindung in Form eines Steuergeräts kann die der Erfindung zugrunde liegende Aufgabe schnell und effizient gelöst werden.
  • Unter einem Steuergerät kann vorliegend ein elektrisches Gerät verstanden werden, das Sensorsignale verarbeitet und in Abhängigkeit davon Steuer- und/oder Datensignale ausgibt. Das Steuergerät kann eine Schnittstelle aufweisen, die hard- und/oder softwaremäßig ausgebildet sein kann. Bei einer hardwaremäßigen Ausbildung können die Schnittstellen beispielsweise Teil eines sogenannten System-ASICs sein, der verschiedenste Funktionen des Steuergeräts beinhaltet. Es ist jedoch auch möglich, dass die Schnittstellen eigene, integrierte Schaltkreise sind oder zumindest teilweise aus diskreten Bauelementen bestehen. Bei einer softwaremäßigen Ausbildung können die Schnittstellen Softwaremodule sein, die beispielsweise auf einem Mikrocontroller neben anderen Softwaremodulen vorhanden sind.
  • Von Vorteil ist auch ein Computerprogrammprodukt oder Computerprogramm mit Programmcode, der auf einem maschinenlesbaren Träger oder Speichermedium wie einem Halbleiterspeicher, einem Festplattenspeicher oder einem optischen Speicher gespeichert sein kann und zur Durchführung, Umsetzung und/oder Ansteuerung der Schritte des Verfahrens nach einer der vorstehend beschriebenen Ausführungsformen verwendet wird, insbesondere wenn das Programmprodukt oder Programm auf einem Computer oder einer Vorrichtung ausgeführt wird.
  • Ausführungsbeispiele der Erfindung sind in den Zeichnungen dargestellt und in der nachfolgenden Beschreibung näher erläutert. Es zeigt:
  • 1 eine schematische Darstellung einer Umfelderfassungseinrichtung gemäß einem Ausführungsbeispiel;
  • 2 eine schematische Darstellung einer Superposition einer Farbpixelmatrix und einer Monochrompixelmatrix aus 1 gemäß einem Ausführungsbeispiel;
  • 3 eine schematische Darstellung einer Superposition einer Farbpixelmatrix und einer Monochrompixelmatrix aus 1 gemäß einem Ausführungsbeispiel;
  • 4 eine schematische Darstellung einer Umfelderfassungseinrichtung gemäß einem Ausführungsbeispiel;
  • 5 eine schematische Darstellung einer Umfelderfassungseinrichtung mit einem weiteren Bildsensor gemäß einem Ausführungsbeispiel;
  • 6 eine schematische Darstellung eines weiteren Bildsensors gemäß einem Ausführungsbeispiel;
  • 7 eine schematische Darstellung einer Umfelderfassungseinrichtung gemäß einem Ausführungsbeispiel;
  • 8 eine schematische Darstellung einer Superposition einer Farbpixelmatrix und einer Monochrompixelmatrix aus 7 gemäß einem Ausführungsbeispiel; und
  • 9 ein Ablaufdiagramm eines Verfahrens gemäß einem Ausführungsbeispiel.
  • In der nachfolgenden Beschreibung günstiger Ausführungsbeispiele der vorliegenden Erfindung werden für die in den verschiedenen Figuren dargestellten und ähnlich wirkenden Elemente gleiche oder ähnliche Bezugszeichen verwendet, wobei auf eine wiederholte Beschreibung dieser Elemente verzichtet wird.
  • 1 zeigt eine schematische Darstellung einer Umfelderfassungseinrichtung 100 gemäß einem Ausführungsbeispiel. Die Umfelderfassungseinrichtung 100 umfasst einen Farbsensor 102 mit einer Farbpixelmatrix 103 sowie einen Monochromsensor 104 mit einer Monochrompixelmatrix 105. Gemäß diesem Ausführungsbeispiel sind die beiden Sensoren 102, 104 auf einem gemeinsamen Grundträger angeordnet. Die beiden Matrizen 103, 105 weisen jeweils eine schachbrettartige Struktur auf. Beispielhaft ist die Farbpixelmatrix 103 mit einer Mehrzahl quadratischer Farbpixelfelder 106 ausgeführt, die je aus vier Farbpixeln 108 zusammengesetzt sind. Die vier Farbpixel 108 eines jeden Farbpixelfelds 106 sind beispielsweise je einer anderen Farbe zugeordnet. Ebenso ist die Monochrompixelmatrix 105 aus einer Mehrzahl quadratischer Monochrompixelfelder 110 aus je vier Monochrompixeln 112 zusammengesetzt. Die beiden Matrizen 103, 105 weisen gemäß 1 das gleiche Format auf.
  • Beispielsweise ist der Farbsensor 102 mit einem für nahes Infrarot (NIR) empfindlichen RGBI-Pattern realisiert. Die Pixel des Monochromsensors 104 sind beispielsweise spektral breitbandig von Blau bis Infrarot ausgelegt.
  • Die beiden Matrizen 103, 105 sind derart auf dem Grundträger zueinander ausgerichtet, dass ein Objektpunkt eines zu erfassenden Objekts sowohl auf die Farbpixelmatrix 103 als auch auf die Monochrompixelmatrix 105 projiziert wird. Die Projektion des Objektpunkts auf die beiden Matrizen 103, 105 erfolgt beispielsweise mithilfe einer geeigneten Optik der Umfelderfassungseinrichtung 100, wie sie im Nachfolgenden näher beschrieben ist. Die Projektion erfolgt derart, dass der Objektpunkt auf eine Stelle der Monochrompixelmatrix 105 projiziert wird, die im Vergleich zu einer Stelle, auf die der Objektpunkt auf die Farbpixelmatrix 103 projiziert wird, um einen bestimmten Versatzwert versetzt ist, wie nachfolgend anhand von 2 näher beschrieben.
  • Gemäß diesem Ausführungsbeispiel ist die Umfelderfassungseinrichtung 100 mit einem Steuergerät 114 verbunden, das ausgebildet ist, um ein den Objektpunkt repräsentierendes Signal 116 des Farbsensors 102 sowie ein den Objektpunkt repräsentierendes Signal 118 des Monochromsensors 104 zu empfangen und unter Verwendung der beiden Signale 116, 118 ein Bild zu erzeugen.
  • 2 zeigt eine schematische Darstellung einer Superposition einer Farbpixelmatrix 103 und einer Monochrompixelmatrix 105 aus 1 gemäß einem Ausführungsbeispiel. In 2 sind die beiden Matrizen 103, 105 überlagert dargestellt, um den Versatz zwischen den beiden Stellen, auf die der Objektpunkt jeweils projiziert wird, deutlich zu machen. So ist zu erkennen, dass der Objektpunkt gemäß diesem Ausführungsbeispiel auf einen Matrixpunkt 200 der Monochrompixelmatrix 105 projiziert wird, der gegenüber einem dem Objektpunkt zugeordneten Matrixpunkt 202 der Farbpixelmatrix 103 sowohl in x-Richtung als auch in y-Richtung versetzt ist. Beispielhaft entspricht der Versatzwert, um den die beiden Matrixpunkte 200, 202 zueinander in x- und y-Richtung versetzt sind, hier einem halben Abstand zwischen den Mittelpunkten zweier benachbarter Pixel der Farbpixelmatrix 103. Als Bezugspunkt zum Einstellen des Versatzes dient beispielsweise ein äußerer Rand der Farbpixelmatrix 103.
  • 3 zeigt eine schematische Darstellung einer Superposition einer Farbpixelmatrix und einer Monochrompixelmatrix aus 1 gemäß einem Ausführungsbeispiel. In 3 ist eine mithilfe des Versatzes zwischen den beiden Matrizen 103, 105 erzielte Bildauflösung dargestellt.
  • Beispielsweise ergibt sich ein Bild mit vierfacher Auflösung in Luminanz, auch Superresolution genannt, und einfacher Auflösung in Chrominanz, wenn ein gewichteter Luminanzwert aus jeweils einem Quadrupel bestehend aus RGBI berechnet und auf einen Zwischengitterplatz gesetzt wird.
  • 4 zeigt eine schematische Darstellung einer Umfelderfassungseinrichtung 100 gemäß einem Ausführungsbeispiel. Bei der Umfelderfassungseinrichtung 100 handelt es sich beispielsweise um eine Umfelderfassungseinrichtung, wie sie vorangehend anhand der 1 bis 3 beschrieben ist. Gemäß diesem Ausführungsbeispiel weist die Umfelderfassungseinrichtung 100 eine erste optische Einrichtung 400 zum Projizieren des Objektpunkts auf die Farbpixelmatrix 103 sowie eine zweite optische Einrichtung 402 zum Projizieren des Objektpunkts auf die Monochrompixelmatrix 105 auf. Hierbei weist die zweite optische Einrichtung 402 einen geringeren Öffnungswinkel als die erste optische Einrichtung 400 auf. Beispielhaft ist der Öffnungswinkel der ersten optischen Einrichtung 400 gemäß 4 doppelt so groß wie der Öffnungswinkel der zweiten optischen Einrichtung 402. Die beiden optischen Einrichtungen 400, 402 sind derart angeordnet, dass sich ihre durch ihre jeweiligen Öffnungswinkel definierten Erfassungsbereiche in einem Überlappungsbereich 404 überlappen, in dem die Auflösung um ein Mehrfaches höher ist als außerhalb des Überlappungsbereiches 404.
  • Die Umfelderfassungseinrichtung 100 kann eine bezüglich eines Feldwinkels variable Winkelauflösung aufweisen. Hierbei ist es besonders vorteilhaft, wenn der Farbsensor und der Monochromsensor unterschiedliche Auflösungen aufweisen und zwischen den jeweiligen Auflösungen ein geradzahliges Vielfaches eingehalten wird. Beispielsweise weist der Monochromsensor eine Winkelauflösung von 28 Pixeln pro Grad auf, während der Farbsensor eine Winkelauflösung von lediglich 14 Pixeln pro Grad aufweist.
  • Beispielsweise ist es möglich, einen Farbsensor mit 1980 mal 1200 Pixeln mit einem Monochromsensor mit 990 mal 600 Pixeln zu kombinieren. Die jeweiligen Blickachsen werden dabei so ausgerichtet, dass der Überlappungsbereich 404 in einem Winkelbereich liegt, in dem je nach Anwendung eine besonders hohe Auflösung zur Objekterkennung erforderlich ist.
  • Die erzielte Luminanzauflösung in diesem Bereich ergibt sich bei geeignet abgestimmter Optik zu 1980 mal 1200 Luminanzwerten und einer Winkelabdeckung von plus/minus 35 Grad mit 28 Pixeln pro Grad. Die Auflösung in dem nicht überlappten Bereich ergibt sich idealisiert zu 14 Pixeln pro Grad und einer Winkelabdeckung von etwa plus/minus 70 Grad.
  • 5 zeigt eine schematische Darstellung einer Umfelderfassungseinrichtung 100 mit einem weiteren Bildsensor 500 gemäß einem Ausführungsbeispiel. Im Unterschied zu 4 weist die in 5 gezeigte Umfelderfassungseinrichtung 100 zusätzlich zum Farb- und Monochromsensor einen weiteren Bildsensor 500 mit einer weiteren Pixelmatrix 502 auf. Eine weitere optische Einrichtung 504 ist analog zur ersten optischen Einrichtung 400 und zur zweiten optischen Einrichtung 402 ausgebildet, um den Objektpunkt ferner auf die weitere Pixelmatrix 502 zu projizieren. Die weitere Pixelmatrix 502 weist einen Polarisationsfilter 506 auf, der dazu dient, beim Auftreffen eines den Objektpunkt repräsentierenden Lichtstrahls auf einen entsprechenden Matrixpunkt der weiteren Pixelmatrix 502 einen dem Objektpunkt zugeordneten Polarisationswert zu erfassen.
  • Gemäß einem Ausführungsbeispiel ist die Umfelderfassungseinrichtung 100 als Superresolution-Multicam-System mit einer M-Kamera realisiert, die den Monochromsensor und eine Normallinse als zweite optische Einrichtung 402 aufweist. Ein Öffnungswinkel der Normallinse beträgt beispielsweise ca. plus/minus 50 bis 60 Grad. Die M-Kamera ist gegenüber einer C-Kamera mit einem multispektralen Color Filter Array als Farbsensor und einer optionalen P-Kamera mit einem strukturierten Polfilter 506 und einem Normal- oder Weitwinkelobjektiv als weiterer optischer Einrichtung 504 ausgerichtet.
  • Die Auflösung in Pixel pro Grad der M-Kamera ist gleich oder höher als die der C-Kamera und der P-Kamera. Die C-Kamera ist beispielsweise mit einem multispektralen Farbsensor, insbesondere einem RGBI-Farbsensor, ausgeführt. Die M-Kamera ist hingegen breitbandig ausgelegt. Beispielsweise ist der Bildsensor der P-Kamera als polgefiltertes Array realisiert, dessen Filter Licht in vier unterschiedliche Polarisationsrichtungen filtern können. Hierbei können die vier Polarisationsrichtungen jeweils um 90 Grad zueinander gedreht sein.
  • Das so gestaltete Kamerasystem ist geeignet, um in einem eingeschränkten Winkelbereich Objekte in großer Entfernung zu differenzieren und über einen großen Winkelbereich nähere Objekte zu differenzieren.
  • Beim Zusammenbau der beiden Sensormodule in Form des Farbsensors und des Monochromsensors werden die jeweiligen Kameraköpfe der beiden Sensoren beispielsweise derart zueinander ausgerichtet, dass die Projektion der Pixelmatrix in einen Objektraum um eine halbe Gitterkonstante gegenüber der Farbpixelmatrix 103 verschoben ist.
  • Der Luminanzkanal des Farbsensors kann nun genutzt werden, um ein Signal des Monochromsensors in Zwischenwerten zu interpolieren und jeden Luminanzwert des Monochromsensors mit einem unterabgetasteten Chrominanzwert zu belegen. Das Ergebnis ist ein superaufgelöstes Luminanzbild mit gering aufgelöster Chrominanzinformation. Durch zusätzliche Zuordnung der Polarisationswerte kann ein nach Luminanz superaufgelöstes, in mehrere Spektralkanäle zerlegtes und nach Polarisationsrichtung aufgelöstes Bild erzeugt werden, das deutlich mehr differenzierende Objektmerkmale enthält als ein höher aufgelöstes RGB-Kamerabild.
  • Aufgrund der versetzten Abtastung kann bei gleicher Auflösung der beiden Sensoren durch Verdopplung der Pixelzahl ein deutlich höher aufgelöstes Bild erzeugt werden, als dies durch eine orthogonale Matrix mit doppelter Auflösung möglich wäre. Die beiden ineinandergeschobenen Gitter der Farbpixelmatrix 102 und der Monochrompixelmatrix 105 ergeben zusammen ein hexagonales Abtastmuster, das gegenüber einem orthogonalen Muster weniger anfällig für Moirée-Effekte ist und durch Interpolation der Pixelzwischenpositionen zur vierfachen Auflösung gebracht werden kann, indem der Mittelwert jeweils zweier benachbarter Pixel der Farbpixelmatrix 103 einen Zwischengitterplatz im Bild des Monochromsensors ergibt.
  • Sind die beiden Sensoren überdies miteinander synchronisiert, etwa durch eine gemeinsame Pixeltaktversorgung, und ist diese so gewählt, dass die Integrationszeit der beiden Sensoren um 90 Grad phasenverschoben erfolgt, so können Bewegungs- oder Modulationsartefakte, wie sie beispielsweise bei der Abtastung von Wechselverkehrszeichen auftreten können, durch eine geeignete Berechnung weitgehend korrigiert werden.
  • Bei der Erweiterung durch eine polgefilterte Kamera, die beispielsweise Sensoren mit einer Matrix aus um jeweils 90 Grad gedrehten Polfiltern aufweist, können Objekte differenzierter dargestellt werden, wenn jeweils die zum optimalen Kontrast beitragenden Pixel zur Verstärkung der Grauwerte eines Monochrombilds genutzt werden.
  • Eine derartige Superposition eines monochromen und eines spektral aufgelösten Kamerabilds ermöglicht somit eine deutlich höhere Kontrastauflösung als eine Kamera mit herkömmlichem Color Filter Array.
  • Je nach Ausführungsform ist jeder der Sensoren der Umfelderfassungseinrichtung 100 mit einer eigenen Optik ausgestattet. Alternativ erhält jeder Sensor über ein Prisma das gleiche Abbild eines gemeinsamen Objektivs.
  • Gemäß einem Ausführungsbeispiel stehen die Winkelauflösungen der beiden Sensormodule im Überlappungsbereich 404 zueinander in einem festen, insbesondere geradzahligen Verhältnis. Hierbei sind die Sensormodule, d. h. Sensor und Optik, so ausgerichtet, dass die jeweiligen Gitter der Sensoren um einen Wert G/n gegeneinander verschoben sind, wobei G eine Gitterkonstante der Sensoren, d. h. einen Abstand zwischen den Mittelpunkten benachbarter Pixel der Sensoren, repräsentiert und n geradzahlig ist.
  • Optional sind die Sensoren miteinander synchronisiert, insbesondere wobei sie in der Integrationszeit um 90 Grad phasenverschoben ansteuerbar sind.
  • Optional weist die Umfelderfassungseinrichtung 100 zusätzlich zur spektralen Filterung eine Polarisationsfilterung in Form des Polarisationsfilters 506 auf, die zur Detektion einer Polarisationsrichtung dient.
  • Somit weist ein aus den Einzelsignalen der Sensoren erzeugtes Bild eine Luminanzauflösung auf, die je nach Ausführungsform beispielsweise viermal so hoch wie eine jeweilige Einzelauflösung der Sensoren ist. Beispielsweise kann auf diese Weise mit zwei Sensoren mit einer Auflösung von jeweils 1280 mal 800 Pixeln (zusammen ca. 2 Megapixel) ein Bild erzeugt werden, das dem Bild eines orthogonalen 4-Megapixel-Sensors entspricht und darüber hinaus ein höheres Kontrastauflösungsvermögen aufweist.
  • 6 zeigt eine schematische Darstellung eines weiteren Bildsensors 500 gemäß einem Ausführungsbeispiel. Gemäß diesem Ausführungsbeispiel ist die weitere Pixelmatrix 502 mit einem Polarisationsfilter aus einer Mehrzahl quadratischer Polarisationsfelder 600 aus je vier Polarisationselementen 602 realisiert. Hierbei ist beispielsweise jedem der Polarisationselemente 602 ein Pixel der weiteren Pixelmatrix 502 zugeordnet. Ferner können die einzelnen Positionen der Pixel der weiteren Pixelmatrix 502 den Positionen der Farbpixel der Farbpixelmatrix 103 entsprechen.
  • Gemäß einem Ausführungsbeispiel weist die weitere Pixelmatrix 502 pixelweise mikrostrukturierte Filterstrukturen als Polarisationsfilter auf, um zwischen vier unterschiedlichen Polarisationsrichtungen, etwa 45, 135, 225 oder 315 Grad, unterscheiden zu können. Auf diese Weise kann durch Superposition einer jeweils bestimmten dominanten Polarisationsrichtung mit den Luminanzwerten ein Bild erzeugt werden, das pro Gitterposition des superaufgelösten Gitters einen Luminanzwert, vier Spektralkennwerte sowie einen Hauptpolarisationswert ausgibt.
  • Mithilfe des Polarisationswertes kann insbesondere eine Reduktion eines kontrastmindernden Effekts polarisationsdrehender Oberflächen wie Wasser-, Glas- oder transluzenter Materialien erreicht werden, indem die Luminanzwerte des Farbsensors mit den jeweils kontrastreichsten Luminanzwerten des weiteren Bildsensors 500 entsprechend gewichtet werden.
  • 7 zeigt eine schematische Darstellung einer Umfelderfassungseinrichtung 100 gemäß einem Ausführungsbeispiel. Im Unterschied zu 1 ist die Umfelderfassungseinrichtung 100 gemäß 7 mit einer Farbpixelmatrix 103 realisiert, die im Vergleich zur Monochrompixelmatrix 105 eine deutlich höhere Anzahl an Farbpixeln 108 und somit eine entsprechend höhere Auflösung aufweist.
  • 8 zeigt eine schematische Darstellung einer Superposition einer Farbpixelmatrix 103 und einer Monochrompixelmatrix 105 aus 7 gemäß einem Ausführungsbeispiel.
  • 9 zeigt ein Ablaufdiagramm eines Verfahrens 900 zum Erfassen eines Bilds mittels einer Umfelderfassungseinrichtung gemäß einem Ausführungsbeispiel. Das 900 kann beispielsweise im Zusammenhang mit einer im Vorangegangenen beschriebenen Umfelderfassungseinrichtung durchgeführt werden. Das Verfahren 900 umfasst einen Schritt 910, in dem ein den Objektpunkt repräsentierendes Signal des Farbsensors und ein den Objektpunkt repräsentierendes Signal des Monochromsensors eingelesen werden. In einem Schritt 920 wird unter Verwendung der beiden Signale ein hoch aufgelöstes Bild erzeugt.
  • Gemäß einem optionalen Ausführungsbeispiel wird im Schritt 910 ferner ein von einem weiteren Bildsensor der Umfelderfassungseinrichtung erfasster Polarisationswert bezüglich des Objektpunkts eingelesen. Hierauf wird im Schritt 920 das Bild ferner unter Verwendung des Polarisationswertes erzeugt.
  • Umfasst ein Ausführungsbeispiel eine „und/oder“-Verknüpfung zwischen einem ersten Merkmal und einem zweiten Merkmal, so ist dies so zu lesen, dass das Ausführungsbeispiel gemäß einer Ausführungsform sowohl das erste Merkmal als auch das zweite Merkmal und gemäß einer weiteren Ausführungsform entweder nur das erste Merkmal oder nur das zweite Merkmal aufweist.

Claims (13)

  1. Umfelderfassungseinrichtung (100) für ein Fahrzeug, wobei die Umfelderfassungseinrichtung (100) folgende Merkmale aufweist: einen Farbsensor (102) mit einer Farbpixelmatrix (103); und einen Monochromsensor (104) mit einer Monochrompixelmatrix (105), wobei der Farbsensor (102) und der Monochromsensor (104) derart zueinander ausgerichtet sind, dass ein Objektpunkt eines von der Farbpixelmatrix (103) und der Monochrompixelmatrix (105) erfassbaren Objekts auf einen Matrixpunkt (202) der Farbpixelmatrix (103) und einen bezüglich des Matrixpunkts (202) der Farbpixelmatrix (103) um einen Versatzwert versetzten Matrixpunkt (200) der Monochrompixelmatrix (105) projiziert wird.
  2. Umfelderfassungseinrichtung (100) gemäß Anspruch 1, dadurch gekennzeichnet, dass der Versatzwert einen Versatz des Matrixpunkts (200) der Monochrompixelmatrix (105) in x- und/oder y-Richtung bezüglich eines äußeren Rands der Farbpixelmatrix (103) repräsentiert.
  3. Umfelderfassungseinrichtung (100) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass der Versatzwert durch Division eines Abstands zwischen Mittelpunkten von Pixeln (108) der Farbpixelmatrix (103) durch eine gerade Zahl gebildet ist.
  4. Umfelderfassungseinrichtung (100) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass eine Winkelauflösung der Farbpixelmatrix (103) und eine Winkelauflösung der Monochrompixelmatrix (105) voneinander abweichen, insbesondere wobei die Winkelauflösung der Monochrompixelmatrix (105) und die Winkelauflösung der Farbpixelmatrix (103) in einem günstigen, möglichst geradzahligen Verhältnis zueinander stehen.
  5. Umfelderfassungseinrichtung (100) gemäß einem der vorangegangenen Ansprüche, gekennzeichnet durch ein Prisma zum Projizieren des Objektpunkts auf die Farbpixelmatrix (103) und die Monochrompixelmatrix (105) und/oder eine erste optische Einrichtung (400) zum Projizieren des Objektpunkts auf die Farbpixelmatrix (103) und/oder eine zweite optische Einrichtung (402) zum Projizieren des Objektpunkts auf die Monochrompixelmatrix (105).
  6. Umfelderfassungseinrichtung (100) gemäß einem der vorangegangenen Ansprüche, dadurch gekennzeichnet, dass die Farbpixelmatrix (103) zumindest ein Pixelfeld (106) aus vier Pixeln (108) umfasst, wobei zumindest drei der vier Pixel (108) je einem jeweils anderen Spektralbereich zugeordnet sind, insbesondere wobei zumindest eines der vier Pixel (108) bevorzugt ein breitbandiger Spektralkanal, einen IR Blockfilter aufweist.
  7. Umfelderfassungseinrichtung (100) gemäß einem der vorangegangenen Ansprüche, gekennzeichnet durch einen weiteren Bildsensor (500) mit einer weiteren Pixelmatrix (502), wobei der weitere Bildsensor (500) derart ausgerichtet ist, dass der Objektpunkt ferner auf einen Matrixpunkt der weiteren Pixelmatrix (502) projiziert wird, wobei der weitere Bildsensor (500) einen Polarisationsfilter (506) zum Erfassen eines dem Matrixpunkt der weiteren Pixelmatrix (502) zugeordneten Polarisationswertes aufweist.
  8. Umfelderfassungseinrichtung (100) gemäß Anspruch 7, dadurch gekennzeichnet, dass der Polarisationsfilter (506) ausgebildet ist, um Licht in zumindest zwei unterschiedlichen Polarisationsrichtungen zu filtern.
  9. Verfahren (900) zum Erfassen eines Bilds mittels einer Umfelderfassungseinrichtung (100) gemäß einem der vorangegangenen Ansprüche, wobei das Verfahren (900) folgende Schritte umfasst: Einlesen (910) eines den Objektpunkt repräsentierenden Signals (116) des Farbsensors (102) und eines den Objektpunkt repräsentierenden Signals (118) des Monochromsensors (104); und Erzeugen (920) des Bilds unter Verwendung des Signals (116) des Farbsensors (102) und des Signals (118) des Monochromsensors (104).
  10. Verfahren (900) gemäß Anspruch 9, dadurch gekennzeichnet, dass das im Schritt des Einlesens (910) ferner ein von einem weiteren Bildsensor (500) erfasster Polarisationswert eingelesen wird, wobei im Schritt des Erzeugens (920) das Bild ferner unter Verwendung des Polarisationswertes erzeugt wird.
  11. Steuergerät (114), das ausgebildet ist, um das Verfahren (900) gemäß Anspruch 9 oder 10 auszuführen und/oder anzusteuern.
  12. Computerprogramm, das ausgebildet ist, um das Verfahren (900) gemäß Anspruch 9 oder 10 auszuführen und/oder anzusteuern.
  13. Maschinenlesbares Speichermedium, auf dem das Computerprogramm nach Anspruch 12 gespeichert ist.
DE102015217253.8A 2015-09-10 2015-09-10 Umfelderfassungseinrichtung für ein Fahrzeug und Verfahren zum Erfassen eines Bilds mittels einer Umfelderfassungseinrichtung Pending DE102015217253A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102015217253.8A DE102015217253A1 (de) 2015-09-10 2015-09-10 Umfelderfassungseinrichtung für ein Fahrzeug und Verfahren zum Erfassen eines Bilds mittels einer Umfelderfassungseinrichtung
US15/257,327 US20170134650A1 (en) 2015-09-10 2016-09-06 Surroundings detection device for a vehicle and method for detecting an image with the aid of a surroundings detection device
GB1615071.6A GB2546351A (en) 2015-09-10 2016-09-06 Surroundings recording apparatus for a vehicle and method for recording an image by means of a surroundings recording apparatus
CN201610908606.4A CN106534723A (zh) 2015-09-10 2016-09-09 用于车辆的环境检测装置和用于借助环境检测装置检测图像的方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102015217253.8A DE102015217253A1 (de) 2015-09-10 2015-09-10 Umfelderfassungseinrichtung für ein Fahrzeug und Verfahren zum Erfassen eines Bilds mittels einer Umfelderfassungseinrichtung

Publications (1)

Publication Number Publication Date
DE102015217253A1 true DE102015217253A1 (de) 2017-03-16

Family

ID=57139985

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102015217253.8A Pending DE102015217253A1 (de) 2015-09-10 2015-09-10 Umfelderfassungseinrichtung für ein Fahrzeug und Verfahren zum Erfassen eines Bilds mittels einer Umfelderfassungseinrichtung

Country Status (4)

Country Link
US (1) US20170134650A1 (de)
CN (1) CN106534723A (de)
DE (1) DE102015217253A1 (de)
GB (1) GB2546351A (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018218745A1 (de) * 2018-11-01 2020-05-07 Elektrobit Automotive Gmbh Kameravorrichtung, Fahrerassistenzsystem und Fahrzeug
DE102019215317A1 (de) * 2019-10-07 2021-04-08 Robert Bosch Gmbh Bildsensor für eine Kamera zur Erkennung von wenigstens einer gepulsten Lichtquelle

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10372139B2 (en) * 2016-09-23 2019-08-06 Apple Inc. Color filter array for machine vision system
DE102018209898A1 (de) * 2018-06-19 2019-12-19 Robert Bosch Gmbh Verfahren zur Bestimmung von zueinander korrespondierenden Bildpunkten, SoC zur Durchführung des Verfahrens, Kamerasystem mit dem SoC, Steuergerät und Fahrzeug
DE102018222260A1 (de) * 2018-12-19 2020-06-25 Robert Bosch Gmbh Verfahren und Vorrichtung zum Verarbeiten eines Bildsignals eines Bildsensors für ein Fahrzeug
DE102018222903A1 (de) * 2018-12-25 2020-06-25 Robert Bosch Gmbh Verfahren und Verarbeitungseinrichtung zum Verarbeiten von Messdaten eines Bildsensors
KR20200106589A (ko) * 2019-03-04 2020-09-15 삼성디스플레이 주식회사 표시 장치, 표시 장치의 제조장치 및 표시 장치의 제조방법
US11557635B2 (en) 2019-12-10 2023-01-17 Samsung Display Co., Ltd. Display device, mask assembly, and apparatus for manufacturing the display device
CN113992862A (zh) * 2021-11-30 2022-01-28 维沃移动通信有限公司 图像传感器、摄像模组、电子设备和像素信息获取方法

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5852502A (en) * 1996-05-31 1998-12-22 American Digital Imaging, Inc. Apparatus and method for digital camera and recorder having a high resolution color composite image output
US7352454B2 (en) * 2000-11-09 2008-04-01 Canesta, Inc. Methods and devices for improved charge management for three-dimensional and color sensing
JP3743401B2 (ja) * 2002-06-28 2006-02-08 ブラザー工業株式会社 画像読取装置
US8483960B2 (en) * 2002-09-20 2013-07-09 Visual Intelligence, LP Self-calibrated, remote imaging and data processing system
FR2857463B1 (fr) * 2003-07-11 2005-09-02 Valeo Vision Systeme de vision nocturne a infrarouge, en couleur.
DE502005003754D1 (de) * 2004-05-25 2008-05-29 Vdo Automotive Ag Überwachungseinheit nebst assistenzsystem für kraftfahrzeuge
US7582857B2 (en) * 2006-04-18 2009-09-01 The Trustees Of The University Of Pennsylvania Sensor and polarimetric filters for real-time extraction of polarimetric information at the focal plane
DE102007026337B4 (de) * 2007-06-06 2016-11-03 Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg Digitale Kamera
JP5302768B2 (ja) * 2008-06-26 2013-10-02 キヤノン株式会社 画像処理装置及び画像処理方法
JP5015088B2 (ja) * 2008-08-06 2012-08-29 株式会社リコー 画像処理装置、画像処理方法、コンピュータプログラム、及び、情報記録媒体
US8564663B2 (en) * 2009-04-14 2013-10-22 Bae Systems Information And Electronic Systems Integration Inc. Vehicle-mountable imaging systems and methods
CN101998019A (zh) * 2009-08-24 2011-03-30 株式会社东芝 图像处理装置及图像处理方法
US8836793B1 (en) * 2010-08-13 2014-09-16 Opto-Knowledge Systems, Inc. True color night vision (TCNV) fusion
KR102079689B1 (ko) * 2011-08-12 2020-02-20 인튜어티브 서지컬 오퍼레이션즈 인코포레이티드 수술기기 내의 이미지 캡쳐 장치
US8672838B2 (en) * 2011-08-12 2014-03-18 Intuitive Surgical Operations, Inc. Image capture unit in a surgical instrument
JP5761143B2 (ja) * 2011-11-02 2015-08-12 株式会社リコー 撮像ユニット、撮像ユニットを搭載した車両
JP6114076B2 (ja) * 2012-03-30 2017-04-12 Hoya株式会社 撮影装置及び偏光フィルタの回転角度位置制御方法
CN113472989A (zh) * 2012-11-28 2021-10-01 核心光电有限公司 多孔径成像***以及通过多孔径成像***获取图像的方法
US20140313316A1 (en) * 2013-01-30 2014-10-23 SeeScan, Inc. Adjustable variable resolution inspection systems and methods using multiple image sensors
FR3018147B1 (fr) * 2014-03-03 2016-03-04 Sagem Defense Securite Debruitage video optimise pour systeme multicapteur heterogene
US20150339589A1 (en) * 2014-05-21 2015-11-26 Brain Corporation Apparatus and methods for training robots utilizing gaze-based saliency maps

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018218745A1 (de) * 2018-11-01 2020-05-07 Elektrobit Automotive Gmbh Kameravorrichtung, Fahrerassistenzsystem und Fahrzeug
DE102018218745B4 (de) * 2018-11-01 2021-06-17 Elektrobit Automotive Gmbh Kameravorrichtung, Fahrerassistenzsystem und Fahrzeug
US11142125B2 (en) 2018-11-01 2021-10-12 Elektrobit Automotive Gmbh Camera device, driver assist system, and vehicle
DE102019215317A1 (de) * 2019-10-07 2021-04-08 Robert Bosch Gmbh Bildsensor für eine Kamera zur Erkennung von wenigstens einer gepulsten Lichtquelle

Also Published As

Publication number Publication date
CN106534723A (zh) 2017-03-22
GB201615071D0 (en) 2016-10-19
GB2546351A (en) 2017-07-19
US20170134650A1 (en) 2017-05-11

Similar Documents

Publication Publication Date Title
DE102015217253A1 (de) Umfelderfassungseinrichtung für ein Fahrzeug und Verfahren zum Erfassen eines Bilds mittels einer Umfelderfassungseinrichtung
DE60301026T2 (de) System zur Untersuchung von stereoskopischen Bildmerkmalen
DE102015102772B4 (de) Bildverarbeitungsvorrichtung und Verfahren für deren Steuerung
EP3610637A1 (de) Vorrichtung zur abbildung von teilgesichtsfeldern, multiaperturabbildungsvorrichtung und verfahren zum bereitstellen derselben
DE69633589T2 (de) Verfahren und Gerät zur Verarbeitung von visuellen Informationen
DE102015103785A1 (de) Verfahren und Vorrichtung zur Kalibration einer Kamera
DE102014214750B3 (de) Bildaufnahmesystem mit schnell vibrierendem Global-Shutter-CMOS-Sensor
DE10033751A1 (de) Digitale, hochauflösende Kinofilm-Kamera
EP3903478A2 (de) Verfahren und verarbeitungseinrichtung zum verarbeiten von messdaten eines bildsensors
DE102009001122A1 (de) Kameraanordnung und Verfahren zum Ermitteln von Bildsignalen mit Farbwerten
DE102006055905A1 (de) Verfahren zur Fahrzeugumfelderkennung und Vorrichtung zur Umfelderkennung in einem Kraftfahrzeug
DE102021130088A1 (de) Kombinieren von in Graustufen abgetasteten Bildern mit einem Farbbild, um hochauflösende Überlagerungsbilder zu erzeugen, in Fahrzeugen
DE102015102928A1 (de) System und Verfahren zum Auswählen eines zweidimensionalen interessierenden Gebiets unter Verwendung eines Entfernungssensors.
DE102008015979A1 (de) Bewegt-Bild-Verarbeitungssystem und Bewegt-Bild-Verarbeitungsverfahren
EP3645343A1 (de) Kameravorrichtung sowie verfahren zur umgebungsangepassten erfassung eines umgebungsbereichs eines fahrzeugs
DE102014224903A1 (de) Optischer Umfeldsensor für Fahrzeuge
DE102015208442A1 (de) Verfahren und Vorrichtung zum Ermitteln zumindest eines Objektabbildes in einer Umgebung um einen änderunssensitiven optischen Bildsensor
EP3635677A1 (de) Verfahren und vorrichtung zur bildkorrektur
WO2015090997A1 (de) Optisches sensorsystem
EP4073745A1 (de) Verfahren und vorrichtung zur parallaxenbestimmung von aufnahmen eines multilinsen-kamerasystems
DE102016212771A1 (de) Verfahren und Vorrichtung zum Abtasten eines Lichtsensors
EP3437315A1 (de) Bildsensor für eine multifunktionale beobachtungskamera zum beobachten eines fahrers für ein fahrzeug, bildsensoreinrichtung, beobachtungskamera und verfahren zum erzeugen eines infrarot-bilds und eines intensität-bilds
DE102009047437A1 (de) Verfahren und Vorrichtung zur Anpassung von Bildinformationen eines optischen Systems
DE102016125372A1 (de) Verfahren zum Bestimmen der Position und/oder Orientierung durch gleichzeitige Aufnahme von Objektrauminformation aus erheblich unterschiedlichen Wellenlängenbereichen in einem Bild, digitales Kamerasystem und mobile elektronische Einrichtung
DE102016013522A1 (de) Verfahren zur Kalibrierung einer Fahrzeugkamera

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: H04N0005335000

Ipc: H04N0025000000