DE102011088393A1 - Bestimmen einer Gesamtzahl an Personen in einem IR-Bild, das mittels eines IR-Bilderzeugungssystems gewonnen wird - Google Patents
Bestimmen einer Gesamtzahl an Personen in einem IR-Bild, das mittels eines IR-Bilderzeugungssystems gewonnen wird Download PDFInfo
- Publication number
- DE102011088393A1 DE102011088393A1 DE102011088393A DE102011088393A DE102011088393A1 DE 102011088393 A1 DE102011088393 A1 DE 102011088393A1 DE 102011088393 A DE102011088393 A DE 102011088393A DE 102011088393 A DE102011088393 A DE 102011088393A DE 102011088393 A1 DE102011088393 A1 DE 102011088393A1
- Authority
- DE
- Germany
- Prior art keywords
- pixel
- detector
- intensity
- image
- illuminator
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000003384 imaging method Methods 0.000 title claims abstract description 18
- 238000000034 method Methods 0.000 claims abstract description 24
- 238000005286 illumination Methods 0.000 claims description 36
- 238000001514 detection method Methods 0.000 claims description 17
- 239000011521 glass Substances 0.000 claims description 15
- 238000002310 reflectometry Methods 0.000 claims description 10
- 238000002834 transmittance Methods 0.000 claims description 9
- 230000010354 integration Effects 0.000 claims description 7
- 230000004044 response Effects 0.000 claims description 6
- 230000006854 communication Effects 0.000 claims description 4
- 238000004891 communication Methods 0.000 claims description 4
- 230000005540 biological transmission Effects 0.000 claims 1
- 230000003287 optical effect Effects 0.000 description 17
- 238000012545 processing Methods 0.000 description 17
- 230000005855 radiation Effects 0.000 description 12
- 230000006870 function Effects 0.000 description 6
- 230000004075 alteration Effects 0.000 description 4
- 239000000463 material Substances 0.000 description 4
- 230000003595 spectral effect Effects 0.000 description 4
- XUIMIQQOPSSXEZ-UHFFFAOYSA-N Silicon Chemical compound [Si] XUIMIQQOPSSXEZ-UHFFFAOYSA-N 0.000 description 3
- 238000010586 diagram Methods 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000035945 sensitivity Effects 0.000 description 3
- 229910052710 silicon Inorganic materials 0.000 description 3
- 239000010703 silicon Substances 0.000 description 3
- 238000001228 spectrum Methods 0.000 description 3
- 229910000530 Gallium indium arsenide Inorganic materials 0.000 description 2
- KXNLCSXBJCPWGL-UHFFFAOYSA-N [Ga].[As].[In] Chemical compound [Ga].[As].[In] KXNLCSXBJCPWGL-UHFFFAOYSA-N 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 206010010071 Coma Diseases 0.000 description 1
- 229920000742 Cotton Polymers 0.000 description 1
- 229910001218 Gallium arsenide Inorganic materials 0.000 description 1
- 241000282412 Homo Species 0.000 description 1
- 239000004952 Polyamide Substances 0.000 description 1
- 230000003466 anti-cipated effect Effects 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013528 artificial neural network Methods 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000005670 electromagnetic radiation Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000004313 glare Effects 0.000 description 1
- QSHDDOUJBYECFT-UHFFFAOYSA-N mercury Chemical compound [Hg] QSHDDOUJBYECFT-UHFFFAOYSA-N 0.000 description 1
- 229910052753 mercury Inorganic materials 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000035699 permeability Effects 0.000 description 1
- 229920002647 polyamide Polymers 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- XSOKHXFFCGXDJZ-UHFFFAOYSA-N telluride(2-) Chemical compound [Te-2] XSOKHXFFCGXDJZ-UHFFFAOYSA-N 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 210000002268 wool Anatomy 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/30—Transforming light or analogous information into electric information
- H04N5/33—Transforming infrared radiation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/103—Static body considered as a whole, e.g. static pedestrian or occupant recognition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/10—Image acquisition
- G06V10/12—Details of acquisition arrangements; Constructional details thereof
- G06V10/14—Optical characteristics of the device performing the acquisition or on the illumination arrangements
- G06V10/143—Sensing or illuminating at different wavelengths
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
- G06V20/54—Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/59—Context or environment of the image inside of a vehicle, e.g. relating to seat occupancy, driver state or inner lighting conditions
- G06V20/593—Recognising seat occupancy
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/20—Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Closed-Circuit Television Systems (AREA)
- Burglar Alarm Systems (AREA)
- Alarm Systems (AREA)
- Geophysics And Detection Of Objects (AREA)
- Investigating Or Analysing Materials By Optical Means (AREA)
Abstract
Description
- Die vorliegende Erfindung richtet sich an Systeme und Verfahren, die ein Infrarotkamera-System verwenden, um ein Mehrband-IR-Bild zu erhalten und anschließend die Gesamtzahl von Personen in diesem IR-Bild zu bestimmen.
- Es gibt viele kommerzielle Gesichtskennungssysteme (FRS), die auf dem Markt erhältlich sind. Jedoch erfordern viele dieser Systeme, dass das Gesicht vor der Kamera angeordnet wird und eine gute Ausleuchtung vorhanden ist. Derartige Bedingungen sind häufig gerade in den Fällen nicht verfügbar, in denen eine Gesichtserkennung erforderlich oder gewünscht ist. In vielen praktischen Situationen bewegt sich das zu erfassende und zu erkennende Objekt, etwa wenn die Person in einem fahrenden Fahrzeug ist. Ferner kann die Ausleuchtung des Objekts ungeeignet sein. Es ist daher eine Aufgabe der vorliegenden Erfindung, Systeme und Verfahren anzugeben, um die Anzahl an Personen in einem IR-Bild zu bestimmen, das in einem IR-Bilderzeugungssystem erzeugt wird.
- Es werden ein neues System und ein Verfahren zum Bestimmen der Anzahl an Personen in einem IR-Bild bereitgestellt, das unter Anwendung eines IR-Bilderzeugungssystems gewonnen wird. Das erfindungsgemäße Verfahren separiert eine Person von einem umgebenden Hintergrund mittels einer Gruppe aus speziell gebildeten Intensitätsverhaltnissen. Es werden aus diesen Verhältnissen abgeleitete Größen und Schwellwerte verwendet, um einzustufen, ob ein Pixel in dem IR-Bild von einer Person oder nicht von einer Person stammt. Auf der Grundlage dieser Einstufung der diversen Pixel in dem IR-Bild wird dann die Anzahl der Personen bestimmt.
- In einer anschaulichen Ausführungsform umfassen das erfindungsgemäße System und das Verfahren folgendes: zunächst wird eine Gesamtheit aus N Intensitätswerten für jedes Pixel in einem IR-Bild, das zur Personenerkennung verarbeitet werden soll, gesammelt. Die Pixelintensitätswerte werden unter Anwendung eines IR-Bilderzeugungssystems erhalten. Sobald die Intensitätswerte gesammelt sind, wird jedes Pixel in dem IR-Bild verarbeitet, um eine Klassifizierung oder eine Einstufung für dieses Pixel zu bestimmen. Das Verarbeiten der Pixelintensitätswerte beinhaltet das Erzeugen eines Verhältnisses aus den Intensitätswerten des Pixels und das Erzeugen eines Schwellwerts daraus. Der Schwellwert wird verwendet, wie dies detaillierter nachfolgend beschrieben ist, um das Pixel als ein von einer Person stammendes Pixel oder als ein nicht personenbezogenes Pixel zu klassifizieren. Sobald alle Pixel klassifiziert sind, wird die Gesamtzahl an Personen in dem IR-Bild auf der Grundlage der Pixelklassifikationen bzw. Einstufungen bestimmt. Ein derartiges System hat einen bestimmungsgemäßen Gebrauch in einem breiten Feld aus praktischen Anwendungen, etwa beispielsweise für das Bestimmen der Gesamtzahl an Insassen in einem Motorfahrzeug, das auf einer HOV/HOT-Spur fährt, oder das Bestimmen der Anzahl an Personen in einem Bild, das von einer Sicherheitskamera in einem Raum in einem Gebäude beispielsweise aufgenommen wird.
-
1 zeigt ein anschauliches IR-Bild. -
2 zeigt eine Ausführungsform eines anschaulichen IR-Beleuchtungssystems zum Ausleuchten eines Zielfahrzeugs gemäß der vorliegenden Erfindung. -
3 zeigt eine Ausführungsform eines anschaulichen IR-Erfassungssystems300 zur Verwendung gemäß der vorliegenden Erfindung. -
4 zeigt ein anschauliches Fahrzeuginsassenerfassungssystem, in welchem das Beleuchtungssystem aus2 und das Erfassungssystem aus3 enthalten sind. -
5 zeigt eine anschauliche Ausführungsform des erfindungsgemäßen Verfahrens zum Bestimmen der Anzahl an Insassen in einem Fahrzeug in einem Transportverwaltungssystem. -
6 bis12 zeigen eine relative Strahlungsintensität von IR-LED's, die zur Verwendung in den diversen Ausführungsformen geeignet sind. -
13 zeigt diverse Ergebnisse für den Fall, dass η = 0 ist. -
14 zeigt diverse Ergebnisse für den Fall, dass η = 0,05 ist; -
15 zeigt eine Blockansicht eines anschaulichen Systems, das geeignet ist, um diverse Aspekte des erfindungsgemäßen Verfahrens zu implementieren, wie es mit Bezug zu dem Flussdiagramm aus5 gezeigt und beschrieben ist. - Ein „Pixel” ist das kleinste adressierbare Element in einem Bild. Jedes Pixel besitzt seine eigene Adresse. Pixel sind normalerweise in einem Gitter angeordnet. Die Intensität jedes Pixels ist variabel und hängt von den Eigenschaften und der Empfindlichkeit der erfassenden Einrichtung ab, die zum Messen dieses Pixels verwendet wird, Die Auflösung für eine Kamera ist effektiv die Größe des Pixels. Kleinere Pixel bedeuten, dass eine größere Anzahl an Pixeln in einem Bild vorhanden ist, wodurch es eine höhere Auflösung erhält.
- Ein „IR-Bild” ist ein Bild, das von einer IR-Erfassungseinrichtung erzeugt bzw. gewonnen wird, indem von einer beleuchteten Probe reflektiertes IR-Licht erfasst wird. Ein vollständig erzeugtes IR-Bild besteht aus Pixeln, wovon jedes einen Intensitätswert für jeden gewünschten interessierenden Spektralbereich aufweist.
1 zeigt ein Beispiel eines IR-Bildes, das unter Anwendung einer IR-Kamera aufgenommen wurde. Infrarotes (IR) Licht ist elektromagnetische Strahlung mit einer Wellenlänge zwischen 0,7 und 300 μm. Zu beachten ist, dass die Wellenlänge am oberen Ende für den IR-Bereich nicht genau festgelegt ist. Dies ergibt einen Frequenzbereich zwischen 1 und 430 THz. IR-Wellenlängen sind länger als die Wellenlänge des sichtbaren Lichts, sind jedoch kürzer als Mikrowellen. Bei strahlendem Sonnenlicht ergibt sich eine Beleuchtungsstärke von ungefähr 1 Kilowatt pro m2 auf Meereshöhe. Von dieser Energie entfallen 527 Watt auf Infrarotstrahlung, 445 Watt auf das sichtbare Licht und 32 Watt auf den ultravioletten Bereich. Bei aktiven Infrarotsystemen leuchtet die Kamera die Szene mit Infrarotwellenlängen aus, die für das menschliche Auge nicht sichtbar sind. Infrarotenergie ist lediglich ein Teil des elektromagnetischen Spektrums, das Strahlung im Bereich von Gammastrahlung, Röntgenstrahlung, Ultraviolettstrahlung, ein dünnes Gebiet an sichtbarem Licht, Infrarotstrahlung, Terahertz-Wellen, Mikrowellen und Funkwellen umfasst. Diese Strahlungsanteile werden jeweils auf ihre Wellenlänge bezogen und durch diese unterschieden. Diverse Ausführungsformen verwenden das gesamte untere reflektierende Infrarotband (LRIR) (d. h. ungefähr 800 bis 1400 nm). LRIR kann mittels einer Mehrbandbilderzeugungs-(MBI)Einrichtung erfasst werden, die für dieses Frequenzband empfindlich ist und die Bilder liefert, die einem Schwarz-Weiß-Bild ähnlich sind. Das obere reflektierende Infrarot-(URIR)Band ist ebenfalls festgelegt (d. h. ungefähr 1400 bis 2200 nm). Ein durch URIR erfasstes Bild ist nicht wie ein LRIR erfasstes Bild, da das menschliche Gewebe IR nicht in der gleichen Weise reflektiert wie nicht-biologische Objekte. Da das untere und das obere IR-Band reflektierend sind, ist ggf. eine Belichtungsquelle für das Ausleuchten der entsprechenden Szene erforderlich. Eine derartige Ausleuchtung muss nicht notwendiger Weise sichtbar sein und ist damit keine Ablenkung für Menschen. Bei Tageslicht ist die LRIR- und URIR-Ausleuchtung ggf. unnötig, da ausreichend IR-Beleuchtung durch normales Sonnenlicht vorhanden ist. - Eine „IR-Ausleuchtungsquelle” ist eine Lichtquelle. Lichtpegel können gesteuert werden, indem die Ansteuerströme variiert werden. Beispielsweise ändert sich das optische Ausgangssignal einer LED linear mit dem Strom. LED-Arrays sind gut bekannt, die eine IR-Ausleuchtung in einer zeitlich sequenziellen Weise oder auch gleichzeitig bereitstellen können. Ein anschauliches IR-Beleuchtungssystem ist in
2 gezeigt. - Ein „IR-Bilderzeugungssystem” ist eine Vorrichtung, die dazu ausgebildet ist, IR-Licht, das von einem Zielobjekt reflektiert wird, zu erfassen und dieses in seine Wellenlängenkomponenten aufzuteilen und ein IR-Bild des Zielobjekts auszugeben. Derartige Systeme besitzen einen IR-Detektor (etwa eine IR-Kamera) und eine IR-Beleuchtungsquelle. Ein anschauliches IR-Erfassungssystem bzw. Detektionssystem ist in
3 gezeigt. Ein IR-Bilderzeugungssystem kann ein einzelnes IR-Erfassungsgerät und eine sequenziell beleuchtete N-Band-Beleuchtungsquelle (N ≥ 3) mit einem einzelnen fixierten Filter sein, oder das System kann insgesamt N Erfassungseinrichtungen (N ≥ 3) aufweisen, wovon jede einen entsprechenden Bandpassfilter umfasst, und kann ferner eine einzelne Beleuchtungsquelle umfassen. - Es sei nun auf die
2 verwiesen, in der eine Ausführungsform eines anschaulichen IR-Beleuchtungssystems zur Verwendung gemäß der vorliegenden Erfindung gezeigt ist. - Das IR-Beleuchtungssystem
200 aus2 ist so gezeigt, dass es ein IR-Lichtquellenarray202 mit mehreren IR-Lichtquellen aufweist, wovon jede ein schmales Band an IR-Strahlung mit einem Maximum bei einer entsprechenden Wellenlänge (gezeigt als λ1 ... λn) aussendet. Das Quellenarray202 umfasst ein Array aus lichtemittierenden Dioden (LED's). Jede Diode ist so ausgewählt, dass diese IR-Strahlung in einem speziellen Wellenlängenband aussendet und damit eine Quelle in dem Array für dieses Wellenlängenband bildet. Eine Steuerung208 ist mit dem IR-Quellenarray202 verbunden und steuert den Eingangsstrom für jede Beleuchtungsquelle und somit auch die ausgegebene Intensität jeder Beleuchtungsquelle. Eine Erfassungsoptik204 besitzt eine oder mehrere Optiken203 , die die Wellenlängen kombinieren, um somit einen IR-Beleuchtungsstrahl206 zu erzeugen. Ein Sensor210 erfasst die von dem IR-Lichtquellenrray ausgesandte Strahlung und liefert ein Rückkopplungssignal für die Steuerung208 . Eine Fokussieroptik212 empfängt den Strahl206 und fokussiert einen Ausgangsstrahl214 auf ein Zielfahrzeug216 . Die Optik212 enthält mehrere Linsen mit unterschiedlicher Brennweite, die in dem Strahlgang angeordnet sind, um damit den Strahl zu fokussieren. Die Steuerung208 ist auch mit der Optik212 verbunden, um Änderungen im Ausgangsstrahl214 auf Grund der Größe des Ziels, des Abstands des Ziels, der Geschwindigkeit des Ziels hervorzurufen, um nur einige Abhängigkeiten aufzuzählen. Die Steuerung208 ist ferner mit einer Speichereinrichtung209 in Verbindung, um eine Kalibrierinformation, Intensitätspegel und dergleichen zu speichern/abzurufen, wozu daten- und maschinenlesbare Programmbefehle gehören. Die Steuerung208 umfasst etwa ein Computersystem, etwa einen Tischrechner, einen Serverrechner, einen Großrechner und dergleichen. Die Steuerung208 kann in verdrahteter oder kabelloser Kommunikation mit einer derartigen Rechnereinrichtung über ein Netzwerk (nicht gezeigt) stehen. Ein derartiges Netzwerk kann ein lokales Netzwerk (LAN) oder das Internet sein. Es sollte beachtet werden, dass jede der Komponenten des Beleuchtungssystems200 mit einem derartigen Rechnersystem in Verbindung stehen kann, um die beabsichtigten Aufgaben besser erfüllen zu können. - Jede der zuvor mit Bezug zu
2 beschriebenen Optiken kann durch ein optisches System ersetzt werden, das eine geeignete Brechkraft aufweist und ferner Spiegel enthalten kann. Ein derartiges optisches System kann mehrere Komponenten mit jeweils einer geeigneten Brechkraft aufweisen, beispielsweise kann eine Doppellinse oder eine Dreifachlinse vorgesehen sein. Für den Grenzfall, dass ein derartiges optisches System eine einzigartige Brennweite F definiert, können das Quellenarray und ein Gitter in der vorderen und hinteren Ebene der Optik angeordnet werden. Als Folge davon bildet das optische System das Gitter bei unendlich im Hinblick auf jedes Element des Lichtquellenarrays ab, und somit sieht jedes Quellenelement das gleiche Gebiet des Gitters. Das Licht aus jedem Element ist daher auf diesem Gebiet gleich. Das Gitter kann dann Ausgangsstrahlung erzeugen, deren Spektralanteil im Wesentlichen gleichmäßig über das transversale Profil hinweg ist, indem die Dispersion kompensiert wird, die mit der lateralen Position der Quelle mit den unterschiedlichen Wellenlängen verknüpft ist. Dies führt dazu, dass der spektrale Anteil des Ausgangsstrahls214 über sein transversales Profil hinweg im Wesentlichen gleichmäßig ist. In der Praxis ist es unter Umständen schwierig, in genauer Weise eine gewünschte Fokuslänge bzw. Brennweite für das optische System auf Grund von Aberrationen (beispielsweise Feldkrümmung, axial-chromatische, lateral-chromatische Abberation, Coma und dergleichen) zu definieren, die die Optik dazu veranlassen, Strahlen auf geringfügig unterschiedliche Positionen gemäß ihrer Wellenlänge oder ihrer lateralen Position zu fokussieren. - Ferner werden die relativen Positionen des optischen Systems, des Quellenarrays und des Gitters in Übereinstimmung mit der allgemeineren Bedingung ausgewählt, dass das optische System das Gitter bei unendlich im Hinblick auf jedes Quellenelement des Lichtquellenarrays zumindest für achsenparallele Strahlen, die aus jeder Quelle austreten, abbildet. Für einen Strahl, der unter einem Winkel θ zur optischen Achse verläuft, gilt für einen achsenparallelen Strahl sin(θ) ≈ θ. Diese Unendlichkeitsbedingung kann erreicht werden, indem jedes Quellenelement an einer nominalen hinteren Brennebene des optischen Systems innerhalb der Abbildungstiefe des optischen Systems angeordnet wird, und indem das Gitter an einer nominalen vorderen Brennebene des optischen Systems innerhalb der Abbildungstiefe des optischen Systems angeordnet wird. Die Abbildungstiefe (DOV) ist mit der numerischen Apertur (NA) des optischen Systems gemäß der Gleichung verknüpft: DOV = Lambda/NA2, wobei Lambda die Wellenlänge des Lichtes aus dem Quellenelement ist. Ferner kann die Optik mit Komponenten so aufgebaut sein, dass mehrere Freiheitsgrade bereitgestellt werden, um damit im Hinblick auf diverse optische Aberrationen eine Kompensation zu erreichen. Obwohl derartige Komponenten in dem optischen System zusätzliche Freiheitsgrade zum Verringern der Aberrationen bzw. Fehler liefern, werden durch jede zusätzliche Komponente auch die Kosten und die Komplexität des optischen Systems erhöht.
- Es wird nun auf die
3 verwiesen, die eine Ausführungsform eines anschaulichen IR-Erfassungssystems300 zeigt, das gemäß der hierin offenbarten Lehre verwendet werden kann. - Das Zielfahrzeug
216 reflektiert IR-Licht des Strahls214 , das von der Optik212 aus2 ausgesandt wird. Ein Teil des reflektierten IR-Lichts wird von der Optik302 empfangen, die eine oder mehrere Linsen303 aufweist, die das empfangene Licht auf einen Sensor304 bündeln, der das empfangene Licht räumlich auflöst, so dass ein IR-Bild308 gewonnen wird. Die Optik302 kann auch einen oder mehrere Bandpassfilter aufweisen, die den Durchgang nur eines schmalen Bandes an Wellenlänge erlauben. Die Filter können auch sequenziell geändert werden, so dass N Intensitätswerte bei308 erreicht werden. Der Sensor304 sendet die IR-Bildinformation zu dem Computer306 zur Verarbeitung und Speicherung. Ein Bilddetektor308 ist eine multispektrale Bilderfassungseinrichtung, deren Spektralanteil durch eine Steuerung (nicht gezeigt) auswählbar ist. Zu geeigneten Optiken für die Quellenoptik302 und den Detektor304 gehören solche Optiken, wie sie üblicherweise im Stand der Technik anzutreffen sind. Der Detektor304 zeichnet unabhängig die Lichtintensität an mehreren Pixelpositionen entlang eines zweidimensionalen Gitters auf. Zu geeigneten Sensoren gehören Detektoren mit ladungsgekoppelten Bauelementen (CCD), komplementäre Metall-Oxid-Halbleiter-(CMOS)Detektoren, Detektoren mit ladungsinduzierten Bauelementen (CID), Vidicon-Detektoren, Retikon-Detektoren, Bildverstärkungsröhrendetektoren, in Pixel unterteilte Photoverfielfacherröhrendetektoren (PMT), Indium-Gallium-Arsenid (InGaAs), Quecksilber-Cadnium-Tellurid (MCT) und Mikrobolometer. Zu beachten ist, dass die siliziumbasierten Detektoren auf unter 1100 nm begrenzt sind. Systeme mit Bilddetektoren (d. h. Kombinationen aus siliziumbasierten und nicht-siliziumbasierten Detektoren) sind ebenfalls vorstellbar. Der Computer306 steht mit der Optik302 in Verbindung, um deren Linsen anzusteuern, und steht auch mit dem Detektor304 in Verbindung, um dessen Empfindlichkeit einzustellen. Der Computer306 empfängt die Empfindlichkeitswerte, die jedem Pixel des IR-Bild308 zugeordnet sind. Der Computer306 enthält ferner eine Tastatur, einen Monitor, einen Drucker, etc. (nicht gezeigt), wie dies erforderlich ist, um die Steuerung des Systems300 zu bewerkstelligen. - Es wird nun auf die
4 verwiesen, die ein anschauliches Fahrzeuginsassenerfassungssystem zeigt, in welchem das Beleuchtungssystem aus2 und das Erfassungssystem aus3 eingebaut sind. - In
4 enthält ein Zielfahrzeug400 einen menschlichen Insassen402 , der sich mit einer Geschwindigkeit v in einer Bewegungsrichtung bewegt, die durch den Richtungsvektor403 entlang der HOV-Spur404 gezeigt ist. Innerhalb eines gewünschten Abstands d über der Spur404 befindet sich ein Stützarm405 , der eine Röhrenkonstruktion aufweist, wie sei ähnlich ist zu jener, die in Verkehrsampeln verwendet wird. Auf dem Arm405 sind ein IR-Erfassungssystem407 mit einem Sendeelement408 zur Kommunikation mit einer entfernten Einrichtung, und ein IR-Beleuchtungssystem409 angebracht. Das System409 und das System407 sollen Ausführungsformen der Systeme aus den2 bzw.3 darstellen. Die Erfassungseinrichtung407 umfasst ggf. eine Kamera, die mit einer Telephotolinse, einem Bandpassfilter und einer Polarisierlinse ausgestattet ist, um eine Blendwirkung zu verringern. Beim Betrieb bei Tageslicht kann die Beleuchtung durch die Sonne ausreichend sein. Die IR-Beleuchtungseinrichtung409 sendet IR-Strahlung mit einer oder mehreren Wellenlängen aus, die von dem Zielfahrzeug und dessen Inhalt auf dem Detektor207 zurückreflektiert wird. Das IR-Erfassungssystem407 überträgt das IR-Bild und/oder Intensitätswerte, die mit jedem Pixel in dem IR-Bild verknüpft sind, an eine Rechnereinrichtung für die weitere Verarbeitung in einer Weise, wie dies nachfolgend beschrieben ist. - Es wird nun Bezug genommen auf das Flussdiagramm aus
5 , die eine anschauliche Ausführungsform des vorliegenden Verfahrens beschreibt, um die Anzahl an Insassen in einem Fahrzeug in einem Transportverwaltungssystem zu bestimmen. Der Ablauf beginnt bei500 und geht unmittelbar zum Schritt502 weiter. Es sollte beachtet werden, dass, obwohl eine einzelne anschauliche Ausführungsform hierin im Zusammenhang mit einem Transportverwaltungssystem erläutert ist, die hierin offenbarte Lehre beabsichtigt, dass eine Anwendung in einem breiten Gebiet an Systemen möglich ist, wobei die Anzahl der Personen in einem IR-Bild zu ermitteln ist, das unter Anwendung eines IR-Bilderzeugungssystems erzeugt wird. Derartige Ausführungsformen sollen alle innerhalb des Schutzbereichs der angefügten Patentansprüche liegen. - Im Schritt
502 wird die Gesamtheit aus N Intensitätswerten für jedes Pixel in einem IR-Bild eines Motorfahrzeugs ermittelt, wobei das Bild für eine Bestimmung der menschlichen Insassen verarbeitet werden soll. Das zu verarbeitende Fahrzeug fährt mit einer gegebenen Geschwindigkeit entlang einer HOV-Spur, die von der IR-Beleuchtungseinrichtung ausgeleuchtet ist. Die Intensitätswerte für jedes Pixel werden aus dem reflektierten IR-Licht unter Anwendung des Bilderzeugungssystems aus den2 bis4 gewonnen. Das IR-Bild und/oder die Intensitätswerte für jedes Pixel werden einer Computerplattform oder einem Computersystem für spezielle Zwecke zugeleitet, so dass eine weitere Verarbeitung gemäß den diversen Ausführungsformen durchgeführt wird. Im Folgenden sei angenommen, dass die IR-Abschwächung in der Luft und die Integrationszeit für alle Bänder gleich sind. Wenn dies nicht der Fall ist, sollten diese Faktoren entsprechend berücksichtigt werden. - Wenn die IR-Erfassungseinrichtung eine einzelne IR-Erfassungseinrichtung ist und wenn die IR-Beleuchtungseinrichtung eine sequenziell ausleuchtende N-Band-Beleuchtungseinrichtung (N ≥ 3) mit einem einzelnen fixierten Filter ist, dann ergibt sich der Intensitätswert: wobei i = 1 ... N ist, so dass i das i-te Band aus der Beleuchtungseinrichtung ist, das sequenziell ausgeleuchtet ist, α eine Konstante ist, die von einem Winkel mit dem Abstand von der Beleuchtungsquelle, einer Abschwächung einer IR-Welle in Luft und einer Integrationszeit der Detektoreinrichtung abhängig ist, Ib eine Intensität einer Hintergrundlichtquelle ist, etwa von der IR-Komponente des Sonnenlichts, R0(λ) die Reflektivität eines Objekts innerhalb des Fahrzeugs ist, RG(λ) und TG(λ) die Reflektivität bzw. Durchlässigkeit von Glas sind, die Konstante η ein Maß des Anteils an Licht von der Beleuchtungseinrichtung, das von dem Fahrzeugglas reflektiert und von dem Detektor erfasst wird, ist, TL(λ) eine Durchlässigkeit des fixierten Filters ist und D(λ) eine Antworteigenschaft der Erfassungseinrichtung bzw. des Detektors ist.
- Wenn die IR-Erfassungseinrichtung N Erfassungeinrichtungen darstellt mit N Bandpassfiltern (N ≥ 3) und die IR-Beleuchtungseinrichtung eine einzelne Beleuchtungseinrichtung aufweist, die einen Wellenlängenbereich des Filters abdeckt, ergibt sich der Intensitätswert: wobei i = 1 ... N derart ist, dass i der i-te IR-Bandpassfilter ist, α eine Konstante ist, die von einem Winkel und dem Abstand von der Beleuchtungsquelle, einer Abschwächung einer IR-Welle in Luft und einer Integrationszeit der Erfassungseinrichtung abhängt, Ib eine Hintergrundintensität ist, R0(λ) eine Reflektivität eines Objekts innerhalb des Fahrzeugs ist, RG(λ) und TG(λ) Reflektivität und Durchlässigkeit von Glas sind, die Konstante η ein Maß des Anteils von Licht aus der Beleuchtungseinrichtung, die von dem Fahrzeugglas reflektiert und von dem Detektor erfasst wird, ist, TL(λ) eine Durchlässigkeit des i-ten Filters ist und D(λ) eine Antworteigenschaft der Erfassungseinrichtung ist.
- Ferner kann jeder der Pixelintensitätswerte kombiniert werden, um einen oder mehrere neue Intensitätswerte für dieses Pixel zu erzeugen, und es kann eine diesbezügliche Verarbeitung durchgeführt werden.
- Im Schritt
504 wird ein erstes Pixel des IR-Bildes für die Bearbeitung abgerufen. Das erste Pixel kann automatisch von einem Prozessor ausgewählt werden oder kann von einem Anwender gekennzeichnet werden, wobei eine graphische Anwenderschnittstelle verwendet wird, etwa beispielsweise eine Tastatur, eine Maus, ein Monitor, die mit einem Arbeitsplatzrechner verbunden sind, auf dem diverse Aspekte des vorliegenden Verfahrens ausgeführt werden sollen. Der Anwender kann ein erstes Gebiet des empfangenen IR-Bildes auswählen und kann einige oder alle Pixel innerhalb des ausgewählten Bereichs des Bildes auswählen, die vor anderen Bereichen des IR-Bildes zu verarbeiten sind. Ein oder mehrere IR-Bilder des bewegten Fahrzeuges können zur Verarbeitung dazu genommen werden. - Im Schritt
506 wird ein Verhältnis der Pixelintensitätswerte bestimmt und es wird davon ein Schwellwert gebildet. Im Schritt508 wird das Pixel auf der Grundlage des Schwellwertes klassifiziert bzw. eingestuft. In einer Ausführungsform ist das Verhältnis an Intensitätswerten gegeben durch:[Ic(i) – Ic(k)]/[Ic(j) – Ic(k)], (3) - Hierbei hängt das Verhältnis in Gleichung (4) von der Konstante η ab. Für die meisten Situationen ist η klein (oder Null). Durch Fenster mit Schmutz, Nebel oder Regen kann η jedoch signifikant sein. Es sollte beachtet werden, dass die Verwendung der Gleichung (4) in einem realen Produkt kein Modell erfordert, da die Größe auf der linken Seite lediglich die gemessene Intensität aus der erfassenden Kamera benötigt. In einer Entwicklungs- und Testphase kann man jedoch ein Modell verwenden, um die Größen auf der rechten Seite der Gleichung (4) zu berechnen, um damit auszuwählen, welche Gruppe aus Verhältnissen verwendet werden soll, und wie der Schwellwert für die Klassifizierung festgelegt werden soll.
- Im Schritt
510 wird bestimmt, ob weitere Pixel vorhanden sind, die es zu verarbeiten gilt. Wenn dies der Fall ist, dann wird die Verarbeitung mit Bezug zum Schritt504 wiederholt, wobei ein nächstes Pixel abgerufen, ausgewählt oder anderweitig für die Verarbeitung gekennzeichnet wird. Die Verarbeitung wiederholt sich, bis alle gewünschten Pixel in dem IR-Bild verarbeitet sind. - Im Schritt
512 wird eine Gesamtanzahl an menschlichen Insassen in dem Zielmotorfahrzeug auf der Grundlage der diversen Pixelklassifizierungen sodann bestimmt. Sobald Pixel in dem Bild eine Person von umgebenden nicht-menschlichen Objekten unterschieden werden können, können neuronale Netzwerke oder eine Fuzzy-Logik eingesetzt werden, um die Bestimmung der Anzahl an Insassen in dem Fahrzeug zu ermöglichen. In einer Ausführungsform wird dies erreicht, indem erkannte Personen in jedem des einen oder der mehreren IR-Bilder, die von dem Bilderzeugungssystems des Zielfahrzeugs genommen werden, räumlich isoliert werden und indem die Anzahl an Personen in dem Fahrzeug gezählt wird. Wenn drei IR-Kameras eingesetzt werden, beispielsweise eine, die der Vorderseite des bewegten Fahrzeugs zugewandt ist, um ein Bild der Insassen im vorderen Fahrgastraum aufzunehmen, und jeweils eine, die der jeweiligen Seite des Fahrzeugs zugewandt ist, um ein Bild der Fahrgastseite und der Fahrerseite aufzunehmen, kann jedes der Bilder analysiert werden, um zu bestimmen, ob ein menschlicher Insasse vorhanden ist oder nicht. Wenn während des Betriebs die Anzahl an menschlichen Insassen des Motorzielfahrzeugs eine vorbestimmte Anzahl während einer Tageszeit übersteigt, in der ein Fahren auf der HOV-Spur beschränkt ist, kann das Nummernschild des Fahrzeuges automatisch unter Anwendung einer Fahrzeugkennzeichenidentifizierungstechnologie, die im Stand der Technik bekannt ist, bestimmt werden, und es kann ein Signal an eine Verkehrsüberwachungsautorität gesendet werden, wobei angedeutet wird, dass ein Fahrzeug mit diesem erkannten Kennzeichen die HOV-Spur verwendet, ohne dass dieses Fahrzeug die erforderliche Anzahl an Insassen aufweist. - Es sollte beachtet werden, dass die Flussdiagramme hierin nur anschaulicher Natur sind. Es können ein oder mehrere Funktionsschritte, die in einem der Flussdiagramme gezeigt sind, in einer anderen Reihenfolge ausgeführt werden. Beispielsweise können auch andere Aktivitäten hinzugefügt, modifiziert, verbessert, verkürzt, integriert oder konsolidiert werden im Hinblick auf die zuvor genannten Schritte. Derartige Variationen sollen innerhalb des Schutzbereichs der angefügten Patentansprüche liegen. Die gesamten Diagramme oder Teile der Flussdiagramme können teilweise oder vollständig in Hardware in Verbindung mit maschinenausführbaren Befehlen eingerichtet werden.
- Ergebnisse für das Leistungsvermögen
- Für unsere Studie verwendeten wir ein 4-Band-Beleuchtungssystem. Die LED's, die verwendet werden, besaßen beim jeweiligen Intensitätsmaximum eine Wellenlänge von 940 nm, 1070 nm, 1200 nm und 1550 nm. Die Leistungspektren für die LED's sind in den
6 bis12 gezeigt. LED's im nahen Infrarotbereich (NIR) sind bereits auf dem Markt verfügbar. Diese LED's sind aus diversen Halbleitermaterialien hergestellt, etwa GaAs oder InGaAsP und besitzen eine Wellenlänge im Maximum, die nahe beim sichtbaren (> 730 nm) beginnt bis hinauf zu einer kurzen Infrarotwellenlänge (> 2000 nm).6 bis12 zeigen das Spektrum mehrerer Infrarot-LED's, die aus InGaAsP hergestellt sind mit Wellenlängen im Maximum der Intensität im Bereich von 810 nm bis 1600 nm. Diese LED's besitzen eine hohe Strahlungsleistung zwischen einigen mW bis ungefähr 35 mW, wenn LEDs mit hoher Leistung betrachtet werden. Man kann mehrere LED mit der gleichen Wellenlänge beim Intensitätsmaximum in eine Gruppe oder eine Ansammlung zusammenfügen. In dieser Studie wird angenommen, dass jede LED-Beleuchtungseinrichtung in gleicher Weise mit Leistung versorgt wird (wenn nicht, dann müssen die Verhältnisse in den folgenden Tabellen entsprechend eingestellt werden). Die Reflektivität diverser Materialien, wozu die menschliche Haut gehört, und die Durchlässigkeit des Fensters sind aus vielen öffentlichen Literaturstellen verfügbar. Die IR-Erfassungskamera ist kommerziell erhältlich und nimmt Bilder von 900 nm bis 1700 nm auf. - Wir betrachteten zuerst den Fall für η = 0. Die Ergebnisse für diverse Verhältnisse in Gleichung (4) sind in den Tabellen der
13 gezeigt. In13 gilt: I(1-2) = Ic(1) – Ic(2), etc. Für ein sauberes Fenster ist das Verhältnis I(3-2)/I(4-2) für menschliche Haut negativ und für Baumwolle, Wolle und Polyamid positiv. Wenn somit der Schwellwert für dieses Verhältnis auf Null gesetzt wird, können Pixel von Bildern von Personen in geeigneter Weise klassifiziert werden. Da das Verhältnis lediglich die Bänder mit 1070 nm, 1200 nm und 1550 nm beinhaltet, werden lediglich drei Beleuchtungs-LED's für die Hautseparation benötigt. Für ein schmutziges Fenster ist das Verhältnis für helle Haut positiv, obwohl das Verhältnis dennoch nahe bei Null liegt. Um dies zu korrigieren, kann man eine weitere Größe R12 betrachten, die durch das Verhältnis definiert ist: Diese Größe ist relative groß für Haut, ist aber für die anderen drei Materialien klein. - Um die Wirkung von η zu bewerten, sei zunächst die Bedingung untersucht, die jedes Kamerasystem erfordert, d. h.
T 2 / G(λ)RO(λ) >> ηRG(λ) (9) - Für sauberes Glas liegt TG(λ) im Bereich zwischen 0,5 bis 0,8, während für verschmutztes Glas dieser Wert bis zu 0,2 absinken kann. Es wird erwartet, dass das System nicht effizient arbeitet, wenn η 0,05 für verschmutztes Glas ist.
-
14 zeigt Ergebnisse für diverse Verhältnisse in der Gleichung (4) für η = 0,05. Man erkennt, dass das einfache Verwenden des Verhältnisses I(3-2)/I(4-2) und das Festlegen des Schwellwertes auf Null für verschmutztes Glas und für getöntes Glas nicht geeignet ist, wenn eine Person dunkle Haut besitzt. Die Größe R12 erscheint dennoch weiterhin sehr robust, wenn der Schwellwert auf 0,3 festgelegt wird, obwohl dies dazu führt, dass dunkle Haut innerhalb des verschmutzten Fensters fälschlich als Gewebematerial interpretiert wird. - Es sei nun auf die
15 verwiesen, die eine Blockansicht eines anschaulichen Verarbeitungssystems zeigt, das in der Lage ist, diverse Aspekte des vorliegenden Verfahrens zu implementieren, das mit Bezug zu dem Flussdiagramm aus5 gezeigt und beschrieben ist. - Ein Arbeitsplatzrechner
1504 ist mit einem IR-Bildempfänger1502 in Verbindung, um Pixelintensitätswerte von einer Antenne408 der IR-Erfassungseinrichtung407 aus4 zu empfangen und um eine bidirektionale Kommunikation zwischen dem Computer1504 und der Erfassungseinrichtung408 einzurichten. Der Computer1504 besitzt einen Monitor1503 und eine Anwenderschnittstelle1505 , um eine Anzeige einer Information für einen Anwender zu ermöglichen und um die Eingabe oder Auswahl eines Anwenders zu bewerkstelligen. Der Computer1504 ist auch mit einem Netzwerk1501 über eine Netzwerkkommunikationsschnittstelle (nicht gezeigt) in Verbindung. Diverse Bereiche des aufgenommenen IR-Bildes und/oder der Pixelintensitätswerte können in einem Speicher oder einer Speichereinrichtung, die innerhalb des Arbeitsplatzrechners1504 vorgesehen ist, gespeichert werden und können auf eine entfernte Einrichtung über das Netzwerk1501 zur Speicherung oder zur Bearbeitung übertragen werden. Ein Anwender kann die graphische Anwenderschnittstelle, beispielsweise Tastatur und Monitor, verwenden, um Pixel und/oder Bereiche des IR-Bildes für die Verarbeitung anzugeben oder anderweitig auszuwählen, oder um andere Anwendereingaben bereitzustellen, die für die Implementierung erforderlich sind. Pixel und/oder interessierende Gebiete, die in den empfangenen IR-Bilddaten angegeben oder anderweitig erfasst werden, können von einem entfernten Gerät abgerufen werden, etwa einem Bildverarbeitungssystem, wobei das über das Netzwerk1501 bewerkstelligt werden kann. Der Arbeitsplatzrechner1504 und der Empfänger1502 sind mit einem Bildprozessor1506 in Verbindung. - Der Bildprozessor
1506 ist so dargestellt, dass dieser einen Puffer1507 aufweist, um Information zu speichern, die mit dem empfangenen IR-Bild in Beziehung steht, beispielsweise interessierende Gebiete innerhalb des Bildes, und dergleichen, die für die Pixelverarbeitung ausgewählt oder anderweitig angegeben sind. Der Puffer1507 kann ferner abgerufene Daten und mathematische Formeln und Darstellungen speichern, um die Seiten und Gruppen aus Seiten in der zuvor beschriebenen Weise zu verarbeiten. Ein Intensitätsberechner1508 empfängt von dem Rechner1504 Daten und Information über die Variablen, die zum Ausführen der Berechnungen erforderlich sind, die im Hinblick auf die Gleichungen (1) und (2) notwendig sind. Ein Pixelerkennungsmodul1504 erkennt bzw. ermittelt das aktuelle Pixel, das zu verarbeiten ist, wie dies zuvor mit Bezug zum Schritt504 erläutert ist. Das Modul1509 ist mit dem Monitor1503 in Verbindung, um darauf eine Anzeige für den Anwender bereitzustellen, um auszuwählen, welches Pixel in dem dargestellten IR-Bild als nächstes verarbeitet werden soll, Der Anwender kann einen Teil oder das gesamte dargestellte IR-Bild für das Verarbeiten auswählen. In anderen Ausführungsformen wird das Bild automatisch verarbeitet und es sollte beachtet werden, dass derartige Ausführungsformen ebenfalls im Schutzbereich der angefügten Patentansprüche liegen. Ein Verhältnismodul1510 ist ein Prozessor mit Speicher, der mit dem Intensitätsmodul1508 in Verbindung steht, um die Pixelintensitätswerte für das aktuelle Pixel zu ermitteln. Das Verhältnismodul1510 erzeugt die Verhältnisse, wie dies zuvor mit Bezug zur Gleichung (3) beschrieben ist und speichert die Ergebnisse in der Speichereinrichtung1511 . Das Modul1508 speichert/ruft ferner Werte ab in/von der Speichereinrichtung1511 , die für das Modul1510 bestimmt sind. Ein Schwellwertmodul1512 bestimmt einen Schwellwert und stellt diesen Wert einem Pixelklassifizierungsprozessor1513 zur Verfügung, der die Klassifizierung des ermittelten Pixels gemäß den zuvor beschriebenen Verfahrensschritten ausführt. Die Klassifizierung dieses Pixels wird in der Speichereinrichtung1511 gespeichert. - Es sollte beachtet werden, dass jedes der Module der Verarbeitungseinheiten der
15 mit der Speichereinrichtung1511 über Verarbeitungswege oder Signalwege in Verbindung steht, die gezeigt sind oder auch nicht gezeigt sind, und es können Daten, Parameterwerte, Funktionen, Seiten, Aufzeichnungen, Daten und maschinenlesebare/ausführbare Programmbefehle, die zum Ausführen der beabsichtigten Funktionen erforderlich sind, gespeichert/abgerufen werden. Jedes dieser Module ist auch mit dem Rechner1504 über Kanäle (nicht gezeigt) in Verbindung und kann auch ferner mit einer oder mehreren entfernten Einrichtungen über das Netzwerk1501 in Verbindung stehen. Es sollte beachtet werden, dass ein Teil oder alle Funktionen jedes oder beliebiger Module insgesamt oder teilweise durch Komponenten ausgeführt werden können, die innerhalb des Rechners1504 liegen, oder diese können durch ein Computersystem für spezielle Zwecke ausgeführt werden. Es sollte auch beachtet werden, dass diverse Module einer oder mehreren Komponenten zugeordnet sein können, die wiederum Software und/oder Hardware aufweisen können, die zum Ausführen der beabsichtigten Funktion ausgebildet sind. Mehrere Module können kollektiv eine einzelne Funktion ausführen. Jedes Modul kann einen spezialisierten Prozessor aufweisen, der in der Lage ist, maschinenenlesbare Befehle auszuführen. Ein Modul kann eine einzelne Hardwarekomponente, eine ASIC, eine elektronische Schaltung oder einen Prozessor für spezielle Zwecke aufweisen. Mehrere Module können durch ein einzelnes Computersystem für spezielle Zwecke oder durch mehrere Computersysteme für spezielle Zwecke, die parallel arbeiten, ausgeführt werden. Verbindungen zwischen Modulen enthalten sowohl physikalische als auch logische Verbindungen. Module können ferner ein oder mehrere Software/Hardwaremodule aufweisen, die ferner ein Betriebssystem, Treiberprogramme, Wertesteuerungen und andere Vorrichtungen aufweisen können, wovon einige oder alle über ein Netzwerk miteinander verbunden sind. Ferner ist zu beachten, dass ein oder mehrere Aspekte des vorliegenden Verfahrens auf einem speziellen Computersystem eingerichtet werden können und auch in verteilten Rechenumgebungen praktiziert werden können, in denen Aufgaben durch entfernte Geräte ausgeführt werden, die über ein Netzwerk verbunden sind. - Es sollte beachtet werden, dass diverse Merkmale und Funktionen der zuvor genannten Eigenschaften und auch andere Merkmale oder Alternativen davon bei Bedarf in viele andere unterschiedliche Systeme oder Anwendungen kombiniert werden können. Es werden diverse gegenwärtig nicht vorhergesehene oder nicht erwartete Alternativen, Modifizierungen, Variationen und Verbesserungen für den Fachmann ersichtlich und/oder werden nachfolgend von diesem eingeführt, wobei diese ebenfalls in den folgenden Patentansprüchen mit eingeschlossen sein sollen. Daher sind die zuvor angegebenen Ausführungsformen als anschaulich und nicht als einschränkend zu betrachten. Es können diverse Änderungen an den zuvor beschriebenen Ausführungsformen ausgeführt werden, ohne von dem Grundgedanken und dem Schutzbereich der Erfindung abzuweichen. Die Lehre von gedruckten Veröffentlichungen, wozu Patente und Patentanmeldungen gehören, sind jeweils separat in ihrer Gesamtheit durch Bezugnahme hierin mit eingeschlossen.
Claims (10)
- Verfahren zum Bestimmen der Anzahl an lebenden Objekten in einem IR-Bild, das von einem IR-Bilderzeugungssystem erhalten wird, wobei das Verfahren umfasst: Sammeln einer Gesamtheit von N Intensitätswerten für jedes Pixel in einem IR-Bild, wobei die Intensitätswerte unter Anwendung eines IR-Bilderzeugungssystems erhalten werden, das eine IR-Erfassungseinrichtung und eine IR-Beleuchtungseinrichtung aufweist; wobei für jedes Pixel in dem IR-Bild gilt: Erzeugen eines Verhältnisses der gesammelten Intensitätswerte für das Pixel, das umfasst:
[Ic(i) – Ic(k)/[Ic(j) – Ic(k)], - Verfahren nach Anspruch 1, wobei die IR-Erfassungseinrichtung eine einzelne IR-Erfassungseinrichtung ist, und wobei die IR-Beleuchtungseinrichtung eine sequenziell ausleuchtende N-Band-Beleuchtungseinrichtung (N ≥ 3) mit einem einzelnen festgelegten Filter ist, wobei der Intensitätswert umfasst: wobei i = 1 ... N, derart, dass i das i-te IR-Band aus der Beleuchtungseinrichtung ist, die sequenziell ausleuchtet, α eine Konstante ist, die von einem Winkel und einem Abstand von der Beleuchtungsquelle, einer Abschwächung einer IR-Welle in Luft und einer Integrationszeit der Erfassungseinrichtung abhängt, Ib eine Intensität einer Hintergrundlichtquelle ist, etwa der IR-Komponente im Sonnenlicht, Ii S(λ) eine Intensität des i-ten Bandes der Beleuchtungseinrichtung ist, R0(λ) eine Reflektivität eines Objekts ist, das von der IR-Erfassungseinrichtung detektiert wird, RG(λ) und TG(λ) eine Reflektivität und eine Durchlässigkeit von Glas sind, ansonsten RG(λ) = 0 und TG(λ) = 1, die Konstante η ein Maß des Anteils an Licht von der Beleuchtungseinrichtung ist, das von Fahrzeugglas reflektiert und von dem Detektor erfasst wird, ansonsten η = 0 ist, TL(λ) eine Durchlässigkeit des fixierten Filters ist, und D(λ) eine Antworteigenschaft der Erfassungseinrichtung ist.
- Verfahren nach Anspruch 1, wobei die IR-Erfassungseinrichtung N Erfassungseinrichtungen mit N Bandpassfiltern (N ≥ 3) darstellt, und wobei die IR-Beleuchtungseinrichtung eine einzelne Beleuchtungseinrichtung aufweist, die einen Wellenlängenbereich der Filter abdeckt, wobei der Intensitätswert umfasst: wobei i = 1 ... N, so dass i der i-te IR-Bandpassfilter ist, α eine Konstante ist, die von einem Winkel und einem Abstand von der Beleuchtungsquelle, einer Abschwächung einer IR-Welle in Luft und einer Integrationszeit der Erfassungseinrichtung abhängt, Ib eine Hintergrundintensität ist, IS(λ) eine Intensität der Beleuchtungseinrichtung ist, R0(λ) eine Reflektivität eines von der IR-Erfassungseinrichtung detektierten Objekts ist, RG(λ) und TG(λ) eine Reflektivität und eine Durchlässigkeit von Glas sind, ansonsten RG(λ) = 0 und TG = 1(λ), die Konstante η ein Maß des Anteils von Licht aus der Beleuchtungseinrichtung ist, das von dem Fahrzeugglas reflektiert und von dem Detektor empfangen wird, ansonsten η gleich Null ist, Ti L(λ) eine Durchlässigkeit des i-ten Filters ist, und D(λ) ein Antwortverhalten der Erfassungseinrichtung ist.
- Verfahren nach Anspruch 1, wobei Bestimmen der Gesamtzahl an lebenden Objekten in dem IR-Bild auf der Grundlage der klassifizierten Pixel umfasst: in Beziehung setzen eines Intensitätswertes, der jedem der Pixel zugeordnet ist, mit mindestens einem berechneten Intensitätswert unter Anwendung einer bekannten Reflektivität, die von einer Speichereinrichtung empfangen wird.
- Verfahren nach Anspruch 1, das ferner umfasst: Kombinieren jedes beliebigen der Pixelintensitätswerte, um mindestens einen neuen Intensitätswert für das Pixel zu erzeugen; Erzeugen eines neuen Verhältnisses unter Anwendung der erzeugten neuen Pixelintensitätswerte; Bilden eines neuen Schwellwertes aus dem Verhältnis; und Verwenden des neuen Schwellwertes zur Klassifizierung des Pixels.
- Systeme zum Bestimmen der Anzahl an lebenden Objekten in einem IR-Bild, das von einem IR-Bilderzeugungssystem erhalten wird, wobei das System umfasst: ein IR-Bilderzeugungssystem mit einer IR-Erfassungseinrichtung und einer IR-Beleuchtungseinrichtung; einen Speicher und ein Speichermedium; und einen Prozessor, der mit dem Speichermedium und dem Speicher in Verbindung steht und maschinenlesbare Befehle ausführt, um das Verfahren auszuführen: Sammeln einer Gesamtheit aus N Intensitätswerten für jedes Pixel in einem IR-Bild, wobei die Intensitätswerte unter Anwendung des IR-Bilderzeugungssystems ermittelt sind; wobei für jedes Pixel in dem IR-Bild gilt: Erzeugen eines Verhältnisses der gesammelten Intensitätswerte des Pixels, wobei das Verhältnis umfasst:
[Ic(i) – Ic(k)/[Ic(j) – Ic(k)], - System nach Anspruch 6, wobei die IR-Erfassungseinrichtung eine einzelne IR-Erfassungseinrichtung ist und wobei die IR-Beleuchtungseinrichtung eine sequenziell beleuchtende N-Band-Beleuchtungseinrichtung (N ≥ 3) mit einem einzelnen fixierten Filter ist, wobei der Intensitätswert umfasst: wobei i = 1 ... N derart, dass i das i-te IR-Band aus der Beleuchtungseinrichtung ist, das sequenziell ausleuchtet, α eine Konstante ist, die von einem Winkel und Abstand von der Beleuchtungsquelle, einer Abschwächung einer IR-Welle in Luft und einer Integrationszeit der Erfassungseinrichtung abhängt, Ib eine Intensität von Hintergrundlicht ist, etwa die IR-Komponente von Sonnenlicht, Ii S(λ) eine Intensität des i-ten Bandes der Beleuchtungseinrichtung ist, R0(λ) eine Reflektivität eines Objekts ist, das von der IR-Erfassungseinrichtung detektiert wird, RG(λ) und TG(λ) eine Reflektivität und eine Durchlässigkeit von Glas sind, ansonsten RG(λ) = 0 und TG(λ) = 1, die Konstante η ein Maß des Anteils an Licht aus der Beleuchtungseinrichtung ist, das von dem Fahrzeug reflektiert und von dem Detektor empfangen wird, ansonsten η = 0, TL(λ) eine Durchlässigkeit des fixierten Filters ist und D(λ) ein Antwortverhalten der Erfassungseinrichtung ist.
- System nach Anspruch 7, wobei die IR-Erfassungseinrichtung N Erfassungseinrichtungen mit N Bandpassfiltern (N ≥ 3) darstellt und wobei die IR-Beleuchtungseinrichtung eine einzelne Beleuchtungseinrichtung aufweist, die einen Wellenlängenbereich der Filter abdeckt, wobei der Intensitätswert umfasst: wobei i = 1 ... N, so dass i der i-te IR-Bandpassfilter ist, α eine Konstante ist, die von einem Winkel und einem Abstand von der Beleuchtungsquelle, einer Abschwächung einer IR-Welle in Luft und einer Integrationszeit der Erfassungseinrichtung abhängt, Ib eine Hintergrundintensität ist, IS(λ) eine Intensität der Beleuchtungseinrichtung ist, R0(λ) eine Reflektivität eines von der IR-Erfassungseinrichtung detektierten Objekts ist, RG(λ) und TG(λ) eine Reflektivität und eine Durchlässigkeit von Glas sind, ansonsten RG(λ) = 0 und TG(λ) = 1, die Konstante η ein Maß des Anteils von Licht aus der Beleuchtungseinrichtung ist, der von Fahrzeugglas reflektiert und von dem Detektor erfasst wird, ansonsten η = 0, Ti L(λ) eine Durchlässigkeit des i-ten Filters ist und D(λ) ein Antwortverhalten der Erfassungseinrichtung ist.
- System nach Anspruch 6, wobei Bestimmen der Gesamtzahl an lebenden Objekten in dem IR-Bild auf der Grundlage der klassifizierten Pixel umfasst: in Beziehung setzen eines Intensitätswertes, der jedem der Pixel zugeordnet ist, mit mindestens einem berechneten Intensitätswert unter Anwendung einer bekannten Reflektivität, die aus einer Speichereinrichtung erhalten wird.
- System nach Anspruch 6, das ferner umfasst: Kombinieren jedes der Pixelintensitätswerte zur Erzeugung mindestens eines neuen Intensitätswertes für das Pixel; Erzeugen eines neuen Verhältnisses unter Anwendung der erzeugten neuen Pixelintensitätswerte; Bilden eines neuen Schwellwertes aus dem Verhältnis; und Verwenden des neuen Schwellwertes zur Klassifizierung des Pixels.
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US12/967,775 US8520074B2 (en) | 2010-12-14 | 2010-12-14 | Determining a total number of people in an IR image obtained via an IR imaging system |
US12/967,775 | 2010-12-14 |
Publications (2)
Publication Number | Publication Date |
---|---|
DE102011088393A1 true DE102011088393A1 (de) | 2012-06-14 |
DE102011088393B4 DE102011088393B4 (de) | 2022-02-24 |
Family
ID=45541525
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102011088393.2A Active DE102011088393B4 (de) | 2010-12-14 | 2011-12-13 | Bestimmen einer Gesamtzahl an Personen in einem IR-Bild, das mittels eines IR-Bilderzeugungssystems gewonnen wird |
Country Status (8)
Country | Link |
---|---|
US (1) | US8520074B2 (de) |
JP (2) | JP5752583B2 (de) |
KR (1) | KR20120066604A (de) |
CN (1) | CN102592335B (de) |
BR (1) | BRPI1107116A2 (de) |
DE (1) | DE102011088393B4 (de) |
GB (1) | GB2486947A (de) |
MX (1) | MX2011013205A (de) |
Families Citing this family (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9245332B2 (en) * | 2011-03-09 | 2016-01-26 | Alcatel Lucent | Method and apparatus for image production |
RU2591735C2 (ru) * | 2011-09-20 | 2016-07-20 | Халлибертон Энерджи Сервисез, Инк. | Система и устройство для обнаружения запрещенных или опасных веществ |
EP2711912A4 (de) * | 2011-09-28 | 2015-04-22 | Honda Motor Co Ltd | Biometrische vorrichtung |
US8811664B2 (en) * | 2011-12-06 | 2014-08-19 | Xerox Corporation | Vehicle occupancy detection via single band infrared imaging |
US8818030B2 (en) * | 2011-12-13 | 2014-08-26 | Xerox Corporation | Post-processing a multi-spectral image for enhanced object identification |
US9351649B2 (en) | 2012-02-21 | 2016-05-31 | Xerox Corporation | System and method for determining video-based pulse transit time with time-series signals |
US8824742B2 (en) | 2012-06-19 | 2014-09-02 | Xerox Corporation | Occupancy detection for managed lane enforcement based on localization and classification of windshield images |
US9760784B2 (en) | 2012-10-26 | 2017-09-12 | Nec Corporation | Device, method and program for measuring number of passengers |
US9523608B2 (en) * | 2012-12-14 | 2016-12-20 | Xerox Corporation | Material identification from a spectral filtered patterned image without demosaicing |
CN103021178B (zh) * | 2012-12-18 | 2015-08-12 | 重庆喜玛拉雅科技有限公司 | 汽车载客人数实时监控*** |
CN103279791B (zh) * | 2013-05-30 | 2016-03-30 | 上海汇纳信息科技股份有限公司 | 基于多特征的行人计算方法 |
CN103414869B (zh) * | 2013-06-24 | 2016-03-16 | 西安富沃德光电科技有限公司 | 一种警用透窗成像侦查*** |
TWI532620B (zh) * | 2013-06-24 | 2016-05-11 | Utechzone Co Ltd | Vehicle occupancy number monitor and vehicle occupancy monitoring method and computer readable record media |
US9336594B2 (en) | 2014-03-07 | 2016-05-10 | Xerox Corporation | Cardiac pulse rate estimation from source video data |
US9652851B2 (en) * | 2014-04-01 | 2017-05-16 | Conduent Business Services, Llc | Side window detection in near-infrared images utilizing machine learning |
US9320440B2 (en) | 2014-04-01 | 2016-04-26 | Xerox Corporation | Discriminating between atrial fibrillation and sinus rhythm in physiological signals obtained from video |
US9842266B2 (en) | 2014-04-04 | 2017-12-12 | Conduent Business Services, Llc | Method for detecting driver cell phone usage from side-view images |
US9633267B2 (en) * | 2014-04-04 | 2017-04-25 | Conduent Business Services, Llc | Robust windshield detection via landmark localization |
US9521335B2 (en) | 2014-06-17 | 2016-12-13 | Xerox Corporation | Detecting febrile seizure with a thermal video camera |
US10192134B2 (en) | 2014-06-30 | 2019-01-29 | Microsoft Technology Licensing, Llc | Color identification using infrared imaging |
CN106888369A (zh) * | 2015-01-13 | 2017-06-23 | 苏州创捷传媒展览股份有限公司 | 虚拟望远镜互动装置 |
EP3317624B1 (de) | 2015-07-05 | 2019-08-07 | The Whollysee Ltd. | Optisches identifizierungs- und charakterisierungssystem und tags |
CN108701357B (zh) * | 2016-02-08 | 2022-08-02 | 皇家飞利浦有限公司 | 用于皮肤检测的设备、***和方法 |
CN106560871A (zh) * | 2016-09-22 | 2017-04-12 | 淮阴工学院 | 双***家庭防盗报警***及防盗方法 |
US10701244B2 (en) * | 2016-09-30 | 2020-06-30 | Microsoft Technology Licensing, Llc | Recolorization of infrared image streams |
CN106771446B (zh) * | 2016-11-28 | 2019-12-31 | 国网山东省电力公司济宁供电公司 | 智能电表箱及电量信息显示方法、报警*** |
ES2923934T3 (es) * | 2017-07-04 | 2022-10-03 | Nec Corp | Dispositivo de análisis, método de análisis y programa |
CN110998596B (zh) * | 2017-09-28 | 2023-11-07 | 苹果公司 | 夜间感测 |
US11338753B2 (en) | 2017-12-28 | 2022-05-24 | Nec Corporation | Information processing apparatus, information processing method, and program |
TR201812156A2 (tr) * | 2018-08-27 | 2018-09-21 | Havelsan Hava Elektronik Sanayi Ve Ticaret Anonim Sirketi | Plaka tanima si̇stemi̇ kamera görüntüleri̇ kullanilarak ön koltuk yolcu kapasi̇tesi̇ i̇hlal tespi̇t yöntemi̇ |
US20200138337A1 (en) | 2018-11-06 | 2020-05-07 | The Regents Of The University Of Colorado, A Body Corporate | Non-Contact Breathing Activity Monitoring And Analyzing System Through Thermal On Projection Medium Imaging |
KR102207737B1 (ko) * | 2018-12-11 | 2021-01-26 | 대한민국 | 무인 생물 모니터링 시스템 및 이를 이용한 생물 인식 방법 |
CN111768542B (zh) * | 2020-06-28 | 2022-04-19 | 浙江大华技术股份有限公司 | 一种闸机控制***、方法、装置、服务器及存储介质 |
CN114596537B (zh) * | 2022-05-10 | 2022-08-05 | 深圳市海清视讯科技有限公司 | 区域人流数据确定方法、装置、设备及存储介质 |
Family Cites Families (34)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7831358B2 (en) | 1992-05-05 | 2010-11-09 | Automotive Technologies International, Inc. | Arrangement and method for obtaining information using phase difference of modulated illumination |
EP0767361B1 (de) | 1993-07-22 | 2000-02-23 | Applied Spectral Imaging Ltd. | Verfahren und Vorrichtung zur Spektralen Bilderfassung |
US7734061B2 (en) | 1995-06-07 | 2010-06-08 | Automotive Technologies International, Inc. | Optical occupant sensing techniques |
US7738678B2 (en) | 1995-06-07 | 2010-06-15 | Automotive Technologies International, Inc. | Light modulation techniques for imaging objects in or around a vehicle |
US6072889A (en) * | 1997-12-03 | 2000-06-06 | The Raytheon Company | Method and system for imaging target detection |
US6373568B1 (en) | 1999-08-06 | 2002-04-16 | Cambridge Research & Instrumentation, Inc. | Spectral imaging system |
US6370260B1 (en) | 1999-09-03 | 2002-04-09 | Honeywell International Inc. | Near-IR human detector |
US6295130B1 (en) | 1999-12-22 | 2001-09-25 | Xerox Corporation | Structure and method for a microelectromechanically tunable fabry-perot cavity spectrophotometer |
US20030053659A1 (en) | 2001-06-29 | 2003-03-20 | Honeywell International Inc. | Moving object assessment system and method |
US6721692B2 (en) | 2001-08-30 | 2004-04-13 | Xerox Corporation | Systems and methods for determining spectra using dynamic least squares algorithms with measurements from LED color sensor |
US7027619B2 (en) | 2001-09-13 | 2006-04-11 | Honeywell International Inc. | Near-infrared method and system for use in face detection |
US6825930B2 (en) | 2002-06-04 | 2004-11-30 | Cambridge Research And Instrumentation, Inc. | Multispectral imaging system |
US20060253249A1 (en) | 2003-02-11 | 2006-11-09 | Christian Bruelle-Drews | High occupancy vehicle restriction aware navigation system |
GB2414790A (en) | 2004-06-04 | 2005-12-07 | Laser Optical Engineering Ltd | Detection of humans or animals by comparing infrared and visible light images |
US7091880B2 (en) | 2004-07-15 | 2006-08-15 | Raytheon Company | Licensed driver detection for high occupancy toll lane qualification |
US7469060B2 (en) * | 2004-11-12 | 2008-12-23 | Honeywell International Inc. | Infrared face detection and recognition system |
US6980101B2 (en) | 2005-03-14 | 2005-12-27 | Kalon Lee Kelley | Motor vehicle occupancy signaling system |
US7385704B2 (en) | 2005-03-30 | 2008-06-10 | Xerox Corporation | Two-dimensional spectral cameras and methods for capturing spectral information using two-dimensional spectral cameras |
US7304801B2 (en) | 2005-03-30 | 2007-12-04 | Xerox Corporation | Distributed Bragg reflector systems and methods |
FR2885224B1 (fr) * | 2005-04-28 | 2007-08-03 | Sagem | Procede et systeme de veille aeroportee par analyse d'images infrarouges |
US20070092115A1 (en) * | 2005-10-26 | 2007-04-26 | Usher David B | Method and system for detecting biometric liveness |
US7417746B2 (en) | 2005-12-29 | 2008-08-26 | Xerox Corporation | Fabry-perot tunable filter systems and methods |
US7355714B2 (en) | 2005-12-29 | 2008-04-08 | Xerox Corporation | Reconfigurable MEMS fabry-perot tunable matrix filter systems and methods |
JP4819606B2 (ja) * | 2006-07-21 | 2011-11-24 | 株式会社豊田中央研究所 | 対象物の部位判別装置及び性別判定装置 |
US7786897B2 (en) | 2007-01-23 | 2010-08-31 | Jai Pulnix, Inc. | High occupancy vehicle (HOV) lane enforcement |
JP5026854B2 (ja) * | 2007-04-27 | 2012-09-19 | 国立大学法人東京工業大学 | 領域抽出装置及び領域抽出方法 |
JP2009212824A (ja) * | 2008-03-04 | 2009-09-17 | Funai Electric Co Ltd | 皮膚領域検出撮像装置 |
US20090309974A1 (en) | 2008-05-22 | 2009-12-17 | Shreekant Agrawal | Electronic Surveillance Network System |
JP5018653B2 (ja) * | 2008-06-04 | 2012-09-05 | 株式会社豊田中央研究所 | 画像識別装置 |
US7869732B2 (en) | 2008-07-03 | 2011-01-11 | Xerox Corporation | Amplitude modulation of illuminators in sensing applications in printing system |
US8013760B2 (en) | 2008-10-06 | 2011-09-06 | Mark Iv Ivhs, Inc. | High occupancy vehicle status signaling using electronic toll collection infrastructure |
JP4702441B2 (ja) * | 2008-12-05 | 2011-06-15 | ソニー株式会社 | 撮像装置及び撮像方法 |
EP2264643A1 (de) * | 2009-06-19 | 2010-12-22 | Universidad de Castilla-La Mancha | Überwachungssystem und Verfahren mit einer Thermokamera |
JP2012068762A (ja) * | 2010-09-21 | 2012-04-05 | Sony Corp | 検出装置、検出方法、プログラム、及び電子機器 |
-
2010
- 2010-12-14 US US12/967,775 patent/US8520074B2/en active Active
-
2011
- 2011-12-08 MX MX2011013205A patent/MX2011013205A/es active IP Right Grant
- 2011-12-09 CN CN201110429274.9A patent/CN102592335B/zh not_active Expired - Fee Related
- 2011-12-12 GB GB1121249.5A patent/GB2486947A/en not_active Withdrawn
- 2011-12-13 KR KR1020110133973A patent/KR20120066604A/ko not_active Application Discontinuation
- 2011-12-13 DE DE102011088393.2A patent/DE102011088393B4/de active Active
- 2011-12-14 JP JP2011273527A patent/JP5752583B2/ja not_active Expired - Fee Related
- 2011-12-14 BR BRPI1107116A patent/BRPI1107116A2/pt not_active Application Discontinuation
-
2015
- 2015-05-20 JP JP2015102741A patent/JP5938125B2/ja not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2015181033A (ja) | 2015-10-15 |
GB2486947A (en) | 2012-07-04 |
JP5752583B2 (ja) | 2015-07-22 |
MX2011013205A (es) | 2012-06-13 |
KR20120066604A (ko) | 2012-06-22 |
DE102011088393B4 (de) | 2022-02-24 |
JP2012128862A (ja) | 2012-07-05 |
JP5938125B2 (ja) | 2016-06-22 |
CN102592335B (zh) | 2015-09-16 |
CN102592335A (zh) | 2012-07-18 |
US20120147194A1 (en) | 2012-06-14 |
BRPI1107116A2 (pt) | 2016-03-22 |
US8520074B2 (en) | 2013-08-27 |
GB201121249D0 (en) | 2012-01-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102011088393B4 (de) | Bestimmen einer Gesamtzahl an Personen in einem IR-Bild, das mittels eines IR-Bilderzeugungssystems gewonnen wird | |
DE102012206078A1 (de) | Bestimmung einer Anzahl von Objekten in einem IR-Bild | |
DE60118189T2 (de) | Nah-infrarote verkleidungsdetektion | |
DE112017007579T5 (de) | Verfahren und System zum automatischen Kolorieren von Nachtsichtbildern | |
DE112017001112T5 (de) | Verfahren und Vorrichtung für eine aktiv gepulste 4D-Kamera zur Bildaufnahme und -analyse | |
EP1027235B1 (de) | Verfahren zum detektieren von auf einer windschutzscheibe befindlichen objekten sowie vorrichtung | |
DE112008003342B4 (de) | Aufzeichnung von 3D-Bildern einer Szene | |
EP3807838A2 (de) | Materialprüfung von optischen prüflingen | |
EP2646802A1 (de) | Detektion von regentropfen auf einer scheibe mittels einer kamera und beleuchtung | |
DE102012103873A1 (de) | Detektion von Regentropfen auf einer Scheibe mittels einer Kamera und Beleuchtung | |
DE112008001384T5 (de) | Verfahren zur Verschmutzungserkennung bei einer TOF-Distanzbildkamera | |
DE102011005056A1 (de) | Aktives Sichthilfegerät und -verfahren für Fahrzeug | |
DE102013212495A1 (de) | Verfahren und Vorrichtung zur Inspektion einer konturierten Fläche,insbesondere des Unterbodens eines Kraftfahrzeugs | |
DE102020203293A1 (de) | Eine Vorrichtung zum Erkennen von Wasser auf einer Oberfläche und ein Verfahren zum Erkennen von Wasser auf einer Oberfläche | |
DE102020003651A1 (de) | Entfernungsbestimmungsvorrichtung mit einer Funktion zum Bestimmen der Beleuchtungsstärke und Verfahren zum Bestimmen der Beleuchtungsstärke von externem Licht | |
DE102013214468A1 (de) | Objektdetektionseinrichtung und -verfahren für ein Fahrzeug | |
DE60222527T2 (de) | Infrarot-Abbildungsgerät und Infrarot-Überwachungssystem für Fahrzeuge | |
DE112010005765T5 (de) | Abstandsmessvorrichtung und Abstandsmessverfahren | |
DE102016220560A1 (de) | Verfahren zum Erkennen einer Pflanze mittels eines Bildsensors und Verfahren zum Ansteuern eines Assistenzsystems eines Fahrzeugs | |
EP3724601B1 (de) | Abstandsermittlung basierend auf verschiedenen tiefenschärfebereichen bei unterschiedlichen fokuseinstellungen eines objektivs | |
DE102018210264A1 (de) | Verfahren zur kontaktfreien Ermittlung einer Temperaturverteilung sowie Infrarot-Messsystem | |
DE102020119941A1 (de) | Optische Detektionsvorrichtung, Fahrzeug mit wenigstens einer optischen Detektionsvorrichtung und Verfahren zum Betreiben einer optischen Detektionsvorrichtung | |
DE102013204919A1 (de) | Verfahren, Vorrichtung und Kameraanordnung zum Erkennen einer schmalbandigen Lichtquelle | |
DE102013114308A1 (de) | Hardwaredesign einer Kamera für dynamischen Rückspiegel |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R012 | Request for examination validly filed | ||
R012 | Request for examination validly filed |
Effective date: 20141212 |
|
R081 | Change of applicant/patentee |
Owner name: CONDUENT BUSINESS SERVICES, LLC, FLORHAM PARK, US Free format text: FORMER OWNER: XEROX CORP., NORWALK, CONN., US Owner name: CONDUENT BUSINESS SERVICES, LLC (N.D.GES.D. ST, US Free format text: FORMER OWNER: XEROX CORP., NORWALK, CONN., US |
|
R082 | Change of representative |
Representative=s name: GRUENECKER PATENT- UND RECHTSANWAELTE PARTG MB, DE |
|
R081 | Change of applicant/patentee |
Owner name: CONDUENT BUSINESS SERVICES, LLC, FLORHAM PARK, US Free format text: FORMER OWNER: CONDUENT BUSINESS SERVICES, LLC (N.D.GES.D. STAATES DELAWARE), DALLAS, TEX., US |
|
R082 | Change of representative |
Representative=s name: GRUENECKER PATENT- UND RECHTSANWAELTE PARTG MB, DE |
|
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division | ||
R079 | Amendment of ipc main class |
Free format text: PREVIOUS MAIN CLASS: G06K0009620000 Ipc: G06V0030190000 |
|
R020 | Patent grant now final |