DE102011055665A1 - Bildverarbeitungsvorrichtung - Google Patents

Bildverarbeitungsvorrichtung Download PDF

Info

Publication number
DE102011055665A1
DE102011055665A1 DE102011055665A DE102011055665A DE102011055665A1 DE 102011055665 A1 DE102011055665 A1 DE 102011055665A1 DE 102011055665 A DE102011055665 A DE 102011055665A DE 102011055665 A DE102011055665 A DE 102011055665A DE 102011055665 A1 DE102011055665 A1 DE 102011055665A1
Authority
DE
Germany
Prior art keywords
image
feature amount
smoke
area
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102011055665A
Other languages
English (en)
Inventor
Noboru Morimitsu
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Subaru Corp
Original Assignee
Fuji Jukogyo KK
Fuji Heavy Industries Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fuji Jukogyo KK, Fuji Heavy Industries Ltd filed Critical Fuji Jukogyo KK
Publication of DE102011055665A1 publication Critical patent/DE102011055665A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/24Measuring arrangements characterised by the use of optical techniques for measuring contours or curvatures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • GPHYSICS
    • G08SIGNALLING
    • G08BSIGNALLING OR CALLING SYSTEMS; ORDER TELEGRAPHS; ALARM SYSTEMS
    • G08B17/00Fire alarms; Alarms responsive to explosion
    • G08B17/12Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions
    • G08B17/125Actuation by presence of radiation or particles, e.g. of infrared radiation or of ions by using a video camera to detect fire or smoke

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Business, Economics & Management (AREA)
  • Emergency Management (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Investigating Or Analysing Materials By Optical Means (AREA)

Abstract

Eine Bildverarbeitungsvorrichtung, die eine Basiskonfiguration verwendet mit einer Bildverarbeitungssteuerungseinrichtung, die von einer Stereokamera aufgenommenen Bilder verarbeitet, und eine Erkennungsverarbeitungssteuerungseinrichtung, die ein Objekt erkennt, basierend auf Information von der Bildverarbeitungssteuerungseinrichtung, verfügt über eine Zielobjektbereichspezifizierungseinheit 20a, eine Merkmalbetragextraktionseinheit 20b und eine Rauchdeterminierungseinheit 20c mit der Funktion des Ermöglichens einer Erkennung von rauchartigen Objekten. Die Zielobjektbereichspezifizierungseinheit 20a spezifiziert einen Bereich eines Objekts, das ein Detektionsziel ist, durch Auslöschen des Einflusses des Hintergrundes, die Merkmalbetragextraktionseinheit 20b extrahiert einen Bildmerkmalbetrag zum Erkennen eines rauchförmigen Objektes in einem Zielobjektbereich und die Rauchdeterminierungseinheit 20c entscheidet, ob das Objekt in dem Zielobjektbereich ein rauchförmiges Objekt ist oder ein Objekt, das kein rauchförmiges Objekt ist, basierend auf dem extrahierten Bildmerkmalbetrag.

Description

  • Die vorliegende Erfindung betrifft eine Bildverarbeitungsvorrichtung, die Bilder verarbeitet, welche von einer Stereokamera aufgenommen wurden, und ein Objekt detektiert.
  • Allgemein ist es bei der Detektion eines Objekts durch Bilderkennung nicht einfach, ein rauchgraues Objekt wie beispielsweise Dampf oder Rauch bei einem Feuer, das nur geringe Änderungen in der Helligkeit oder Lichttextur hat, zu detektieren. Daher sind verschiedenartige Techniken vorgeschlagen worden, rauchgraue Objekte, die auf einem Bild wiedergegeben sind, zu erkennen.
  • Beispielsweise offenbart die japanische Patentanmeldung Nr. 2004-30225 eine Technik zum Erkennen weißen Rauches durch Auflösen eines Farbbildes in R, G und B Komponenten, Erhalten von Farbtonbildern von Farbkomponentenbildern und Erhalten einer Schnittmenge der Farbkomponentenbilder und Farbtonbilder. Zudem wird mit der in der japanischen Patentanmeldung Nr. 2004-30225 offenbarten Technik die Detektionsgenauigkeit verbessert durch Extrahieren eines Unterschiedes zwischen einem aktuellen Bild und einem Bild, das eine Zeit Δt vor dem aktuellen Bild aufgenommen wurde, um ein Objekt wie beispielsweise eine Wolke zu unterscheiden, die den gleichen Grad an Helligkeit wie weißer Rauch hat.
  • Die in der japanischen Patentanmeldung Nr. 2004-30225 offenbarte Technik ist jedoch nicht auf monochromatische Bilder anwendbar und kann durch die Umgebung beeinflusst werden. Zudem, wenn eine Kamera auf einem beweglichen Körper montiert ist wie beispielsweise einem Fahrzeug oder einem mobilen Zimmerroboter, bewegt sich die Kamera selbst und ist daher durch einen Hintergrund beeinflusst, wodurch sie Schwierigkeiten dahingehend hat, Rauch präzise zu detektieren.
  • Im Hinblick auf das Vorstehende liegt der vorliegenden Erfindung damit die Aufgabe zugrunde, eine Bildverarbeitungsvorrichtung bereitzustellen, die ein rauchgraues Objekt präzise detektieren kann durch Eliminieren eines Einflusses eines Hintergrunds.
  • Zur Lösung dieser Aufgabe wird gemäß eines Aspektes der vorliegenden Erfindung eine Bildverarbeitungsvorrichtung bereitgestellt, die ein von einer Stereokamera aufgenommenes Bild verarbeitet und ein Objekt detektiert, wobei die Bildverarbeitungsvorrichtung aufweist: eine Zielobjektbereichspezifizierungseinheit, die Entfernungsdaten verwendet, welche durch Durchführen von Abgleichsverarbeitung des aufgenommenen Bildes durch die Stereokamera erhalten werden, und einen Bildbereich, in dem ein Objekt zu detektieren ist, als einen ein Objekt in einer gleichen Entfernung umgebenden Zielobjektbereich spezifiziert, eine Merkmalbetragextraktionseinheit, die eine räumliche Filterverarbeitung des Zielobjektbereichs durchführt und einen Bildmerkmalbetrag extrahiert, und eine Rauchdeterminierungseinheit, die festlegt, ob oder ob nicht ein Objekt in dem Zielobjektbereich ein rauchfarbiges Objekt ist, basierend auf dem Bildmerkmalbetrag in dem Zielobjektbereich.
  • Die Erfindung wird im Vorliegenden weiter erläutert anhand eines Ausführungsbeispiels unter Bezug auf die Zeichnungen, in denen
  • 1 ein Schaubild einer Basiskonfiguration einer Bildverarbeitungsvorrichtung ist,
  • 2 ein funktionales Blockschaubild zum Detektieren weißen Rauches ist,
  • 3 eine beispielhafte Ansicht eines Zielobjektbereiches ist,
  • 4A eine beispielhafte Ansicht ist, die ein Bild eines Objektes, das nicht Rauch ist, zeigt und 4B eine beispielhafte Ansicht ist, die ein Filterbild hiervon zeigt,
  • 5A eine beispielhafte Ansicht ist, die ein Bild von Rauch zeigt, und 5B eine beispielhafte Ansicht ist, die ein Filterbild hiervon zeigt,
  • 6A ein Histogramm der Kantenstärke eines anderen Objektes als Rauch zeigt und 6B eine kumulative Frequenz hiervon zeigt, und
  • 7A ein Histogramm der Kantenstärke eines Bildes von Rauch zeigt und 7B eine kumulative Frequenz hiervon zeigt.
  • Ein Ausführungsbeispiel der vorliegenden Erfindung wird nun beschrieben unter Bezug auf die Zeichnungen.
  • Eine in 1 dargestellte Bildverarbeitungsvorrichtung 1 ist an einem beweglichen Körper, wie beispielsweise einem Fahrzeug oder einem mobilen Zimmerroboter angebracht. Die Bildverarbeitungsvorrichtung 1 erkennt ein Objekt durch dreidimensionale Bilderkennung und überträgt ein Erkennungsergebnis an eine nicht dargestellte Steuervorrichtung zur Ausführung verschiedenartiger Steuerungen. Die Basiskonfiguration dieser Bildverarbeitungsvorrichtung 1 beinhaltet eine Stereokamera 2 mit mehreren Kameras, eine Bildverarbeitungssteuerungseinrichtung 10, die von der Stereokamera 2 aufgenommene Bilder verarbeitet, und eine Erkennungsverarbeitungssteuerungseinrichtung 20, die ein Objekt erkennt, basierend auf Information von der Bildverarbeitungssteuerungseinrichtung 10.
  • Bei dem vorliegenden Ausführungsbeispiel weist die Stereokamera 2 zwei Kameras 2a und 2b mit Halbleiterbildelementen auf wie CCDs und CMOSs. Die Kameras 2a und 2b sind horizontal angeordnet, um eine parallele Stereoausrichtung zu erreichen, in der die Kamera 2a als Referenzkamera verwendet wird und die Kamera 2b als eine Vergleichskamera verwendet wird. Das heißt, die Kameras 2a und 2b sind horizontal so angeordnet, dass ihre optischen Achsen parallel zueinander sind mit einer vorbestimmten Basislänge (optisches Achsenintervall) dazwischen, und dass eine horizontale Abtastrichtung mit einer Epipolarlinie übereinstimmt.
  • Ein Paar Stereobilder, das von der Stereokamera 2 aufgenommen wurde, wird eingegeben und verarbeitet in der Bildverarbeitungssteuerungseinrichtung 10, um dreidimensionale Abstandinformationen zu berechnen. Die Bildverarbeitungssteuerungseinrichtung 10 sucht nach korrespondierenden Positionen eines identischen Objekts, reflektiert in einem Referenzbild, aufgenommen mittels der Referenzkamera 2a, und einem Vergleichsbild, aufgenommen von der Vergleichskamera 2b, um einen Verschiebungsbetrag der entsprechenden Positionen zwischen den Bildern als eine Disparität zu berechnen.
  • Die korrespondierenden Positionen zwischen dem Referenzbild und dem Vergleichsbild werden bestimmt durch Auswerten einer Korrelation zwischen den Bildern unter Verwendung beispielsweise eines bekannten Bereichsuchverfahrens. Genauer gesagt, ein kleiner Bereich (Block von 8×8 Pixel, beispielsweise) wird um einen bestimmten Punkt in dem Referenzbild bestimmt und ein kleiner Bereich der gleichen Größe wird um einen bestimmten Punkt des Vergleichsbildes bereitgestellt. Die Korrelation zwischen den Blöcken wird berechnet durch Verschieben der Blöcke auf dem Vergleichsbild zum Suchen der korrespondierenden Position. Unter Verwendung einer Summe von absoluter Differenz (SAD) eines Pixelwertes (allgemein, eines Helligkeitswertes jedes Pixels) zwischen einem Block auf dem Referenzbild und einem Block auf dem Vergleichsbild für eine evaluierte Funktion in dieser Korrelationsberechnung, wird ein Pixelverschiebungsbetrag in der horizontalen Richtung zwischen den Blöcken, der einen minimalen SAD-Wert bereitstellt, als eine Disparität zwischen den Blöcken verwendet.
  • Die Bildverarbeitungssteuerungseinrichtung 10 weist auch eine Funktion auf bezüglich des Steuerns einer Verschlussgeschwindigkeit jeder der Kameras 2a und 2b, wobei geometrische und optische Positionsverschiebungen zwischen den Kameras korrigiert werden und ein Helligkeitsabgleich zwischen den Bildern korrigiert wird.
  • Die Erkennungsverarbeitungssteuerungseinrichtung 20 konvertiert Werte der Bilder in einem zweidimensionalen Koordinatensystem in Werte in einem dreidimensionalen Koordinatensystem in einem realen Raum, basierend auf Positionsinformationen in den Bildern und Disparitätsinformationen, die von der Bildverarbeitungssteuerungseinrichtung 10 detektiert werden. Darüber hinaus führt die Erkennungsverarbeitungssteuerungseinrichtung 20 eine Objekterkennung durch durch Bestimmen von Daten an einer Position über einer Straßenoberfläche oder einer Bodenoberfläche, basierend auf Parametern wie zum Beispiel Befestigungsstellen und Winkeln der Kameras als Daten eines dreidimensionalen Objektes und Extrahieren der Daten.
  • Ziele der Objekterkennung bei dieser Erkennungsverarbeitungssteuerungseinrichtung 20 sind nicht nur feste oder flüssige Objekte, sondern auch eine Masse von Partikeln (rauchförmige Objekte), die im Raum schweben. Daher, wie in 2 gezeigt, weist die Erkennungsverarbeitungssteuerungseinrichtung 20 eine Zielobjektbereichspezifizierungseinheit 20a auf, eine Merkmalbetragextraktionseinheit 20b und eine Rauchdeterminierungseinheit 20c als Funktionen zum Ermöglichen der Erkennung von rauchförmigen Objekten.
  • Kurz gesagt, die Zielobjektbereichspezifizierungseinheit 20a spezifiziert einen Bereich eines Objekts, das ein Detektionsziel durch Eliminieren des Einflusses des Hintergrundes ist. Die Merkmalbetragextraktionseinheit 20b extrahiert einen Bildmerkmalbetrag zum Erkennen eines rauchförmigen Objekts in einem Zielobjektbereich. Die Rauchdeterminierungseinheit 20c bestimmt, ob das Objekt in dem Zielobjektbereich ein rauchförmiges Objekt ist oder ein Objekt anderer Art, basierend auf dem extrahierten Bildmerkmalbetrag.
  • Genauer gesagt, ein Zielobjektbereich wird spezifiziert wie folgt. Zuerst, als Vorverarbeitung, werden Daten kleiner Bereiche an Stellen oberhalb einer Straßenoberfläche oder einer Bodenfläche einer Gruppierung unterzogen, in der kleine Bereiche mit dreidimensionalen Abständen innerhalb eines vorbestimmten Grenzwerts bestimmt werden als ein identisches Objekt (Gruppierungsaufbereitung). Wenn die Gruppierungsaufbereitung aller kleinen Bereiche beendet ist, wird eine Gruppe als ein Objekt angesehen und ein durchschnittlicher Wert von Abständen von allen kleinen Bereichen, die zu der Gruppe gehören, wird als ein Abstand des Objektes angesehen.
  • Des Weiteren wird eine Gruppe, die als das identische Objekt angesehen wird, mit einem minimalen Wert und einem maximalen Wert in einer Bildkoordinate (horizontale und vertikale Richtungen) eingekreist und spezifiziert als ein Zielobjektbereich, in dem das Detektionszielobjekt reflektiert ist. 3 zeigt ein Beispiel des Zielobjektbereichs, in dem ein Detektionszielobjekt weißer Rauch ist, und eine Datengruppe (weißer Rauch) WS in einem gruppierten Bild ist eingekreist in einer rechtwinkligen Form an Enden in der horizontalen Richtung und vertikalen Richtung und der eingekreiste Bereich R wird spezifiziert als der Zielobjektbereich. In dem vorliegenden Ausführungsbeispiel wird der Zielobjektbereich als das Referenzbild gewählt.
  • Wenn der Zielobjektbereich spezifiziert ist, wird der Bildmerkmalbetrag des Zielobjektbereiches extrahiert. Daraufhin, basierend auf dem extrahierten Bildmerkmalbetrag, wird festgestellt, ob das in dem Bereich reflektierte Objekt Rauch ist oder ein Objekt anderer Art. Im Folgenden wird ein Fall beschrieben, als ein Beispiel, wo weißer Rauch ein detektiertes Ziel ist, das ein rauchförmiges Objekt ist.
  • Weißer Rauch hat die im Folgenden beschriebenen Merkmale und, indem diese Merkmale in Betracht gezogen werden, ist es möglich, zu bestimmen, ob das Objekt in dem Zielobjektbereich weißer Rauch ist oder nicht. Diese Merkmale können durch Anwenden eines räumlichen Filters auf den Zielobjektbereich extrahiert werden und weißer Rauch wird bestimmt unter Verwendung des extrahierten Bildmerkmalbetrages.
    • – Die Lichtdurchlässigkeit oder der Kontrast nimmt ab.
    • – Der Helligkeitswert konvergiert auf einen bestimmten Wert.
    • – Der Bereich einer Helligkeitsverteilung verengt sich und die Dispersion von Helligkeit wird gering.
    • – Der Durchschnittswert von Helligkeit wechselt von einem normalen Zustand, bei dem kein Rauch ist.
    • – Der Summenbetrag von Rändern in einem Bereich nimmt ab.
  • Integralfilter wie beispielsweise ein Sobel-Filter oder ein Laplace-Filter zum Extrahieren von Rändern beziehungsweise Kanten und ein statistischer Filter zum Extrahieren von Werten wie beispielsweise einem Maximalwert, einem Minimalwert, einem Durchschnittswert, einer Dispersion und einem Moduswert werden verwendet als räumliche Filter, die auf den Zielobjektbereich anzuwenden sind. Der Merkmalbetrag wie beispielsweise ein Helligkeitsmoduswert oder ein Durchschnittswert der Kantenstärke in einem Bereich, extrahiert unter Verwendung dieser räumlichen Filter, kann klassifiziert werden in eines von einem Attribut des weißen Rauches oder einem Attribut eines anderen Objektes als weißen Rauches durch Durchführung von Clusterbildung oder Schwellenwertentscheidung in einem Merkmalsraum, wodurch es möglich ist, weißen Rauch präzise zu detektieren.
  • Des Weiteren ist weißer Rauch, der als ein Objekt detektiert wird, Rauch, der eine hohe Temperatur hat und nach oben steigt und sich daher leicht vertikal erstreckt. Demzufolge ist es möglich, den Einfluss des Hintergrundes zu eliminieren durch Abschneiden (Clipping) eines Bereichs (Zielobjektbereich), der weißen Rauch umgibt, unter Verwendung von Distanzdaten, die von Bildern der Stereokamera 2 mit den zwei horizontal angeordneten Kameras 2a und 2b erhalten werden, und Extrahieren des Merkmalbetrags, der zu dem weißen Rauch in dem Bereich gehört. Als ein Ergebnis hiervon kann weißer Rauch präzise detektiert werden.
  • Weißer Rauch und ein Objekt, das nicht weißer Rauch ist, können klassifiziert werden durch Teilen des Merkmalraums unter Verwendung einer bekannten Lernmaschine wie beispielsweise einer Unterstützungsvektormaschine (SVM) oder durch Teilen des Merkmalraums unter Verwendung eines Grenzwerts. Die erstere Divisionsmethode kann eine Verarbeitungszeit erhöhen, abhängig von der Kapazität der Erkennungsverarbeitungssteuerungseinrichtung 20, während die letztgenannte Divisionsmethode Hochgeschwindigkeitsverarbeitung durchführen kann mit einem relativ einfachen Verfahren. In dem vorliegenden Ausführungsbeispiel wird ein Beispiel beschrieben, bei dem ein Histogramm erzeugt wird aus dem absoluten Wert oder Durchschnittswert der Kantenstärke des Zielobjektbereichs und weißer Rauch und ein Objekt, das nicht weißer Rauch ist, klassifiziert werden basierend auf dem Histogramm unter Verwendung eines Grenzwerts.
  • Gemäß Klassifikation basierend auf Grenzwertentscheidung wird ein räumlicher Integralfilter, der eine Maske von 3 × 3 verwendet, auf jedes Pixel des Zielobjektbereiches angewandt, um ein Filterbild zu erhalten, das die Kanten des Bildes extrahiert, wie in den 4A bis 5B gezeigt. Wenn der räumliche Integralfilter auf das Bild eines Objekts A, das nicht weißer Rauch ist, wie in 4A gezeigt, angewandt wird, wird ein Filterbild (Kantenbild) A' erhalten, das in 4B gezeigt ist. Wenn der räumliche Integralfilter auf ein Bild von weißem Rauch B, das in 5A gezeigt ist, angewandt wird, wird ein Filterbild B' erhalten, das in 5B gezeigt ist. Das Filterbild B' von weißem Rauch B, das in 5B gezeigt ist, hat eine Kante, die heller ist als das Filterbild A' des normalen Objekts A, das in 4B gezeigt ist. Eine gestrichelte Linie in 5B zeigt an, dass die Kante hell ist.
  • Wenn das Filterbild erhalten wird, wird das Histogramm des absoluten Wertes oder Durchschnittswertes der Kantenstärke (des Grades des Helligkeitsgradienten) des Bildes erzeugt. Um den Einfluss von Rauschen des Bildes zu vermeiden, wird das Histogramm nur für Pixel erzeugt, die eine Kantenstärke gleich oder größer aufweisen als ein vorbestimmter Wert (beispielsweise werden Pixel mit der Kantenstärke < 3 als Rauschen angesehen und ausgeschlossen). Des Weiteren, wenn die Kantenstärke EN, deren kumulative Frequenz akkumulierender Frequenzen von einer oberen Klasse gleich ist oder höher als N% von dem Gesamten, gleich ist oder kleiner als ein Grenzwert S. wird das Objekt in dem Zielobjektbereich bestimmt als weißer Rauch.
  • Wenn beispielsweise ein Histogramm der Kantenstärke erzeugt wird von dem Filterbild des in 4B gezeigten Objektes A, das nicht weißer Rauch ist, wird ein Histogramm erhalten, das in 6A gezeigt ist. Wenn ein Histogramm der Kantenstärke erzeugt wird von dem Filterbild von weißem Rauch B in 5B, wird ein Histogramm erhalten, das in 7A gezeigt ist. Des Weiteren, wenn das Verhältnis zwischen den Kantenstärken und der kumulativen Frequenz, in der Frequenzen sequenziell addiert werden von einer oberen Klasse, berechnet wird für jedes der Histogramme, werden die Verhältnisse erhalten, die in den 6B und 7B gezeigt sind.
  • Beispielsweise werden Kantenstärken mit der kumulativen Frequenz gleich oder größer als 10% des Gesamten in den 6B und 7B berechnet. Kantenstärke E10A in 6B, wo die kumulative Frequenz 10% oder mehr ist im Fall des Objekts A, das kein weißer Rauch ist, ist offensichtlich größer dargestellt als Kantenstärke E10B, die in 7B gezeigt ist, wo die kumulative Frequenz 10% oder mehr ist in dem Fall des weißen Rauches B. Dementsprechend ist es möglich, zu bestimmen, ob ein Objekt weißer Rauch ist oder nicht, indem der Grenzwert S auf einen ungefähren Wert wie beispielsweise E10A > S > E10B gesetzt wird.
  • In diesem Falle kann eine Mehrzahl von Grenzwerten von Kantenstärken an Stelle eines Grenzwertes gesetzt werden und gespeichert werden in einer Tabelle gemäß der Helligkeit eines Bildes. Genauer gesagt, durch Berechnen eines Durchschnittswertes eines Helligkeitswertes aller Pixel in einem Zielobjektbereich und Setzen einer Vielzahl von Grenzwerten von Kantenstärken gemäß der durchschnittlichen Helligkeit ist es möglich, mit den Änderungen der Belichtungsumgebung umzugehen.
  • Somit wird bei dem vorliegenden Ausführungsbeispiel, wenn ein rauchartiges Objekt detektiert wird durch Bilderkennung unter Verwendung einer Stereokamera, ein Detektionsbereich spezifiziert, der auf ein Objekt in dem selben Abstand zielt, so dass es möglich ist, räumliche Merkmale zu extrahieren, aus denen Hintergrundinformationen ausgeschlossen werden und entschieden wird, ob ein Objekt ein rauchartiges Objekt ist oder nicht. Darüber hinaus muss einer zeitlichen Änderung eines Bildes nicht gefolgt werden, so dass es möglich ist, eine präzise Entscheidung durchzuführen selbst dann, wenn eine Kamera auf einen sich bewegenden Körper angebracht ist und sich bewegt.
  • Hierbei kann ein Entscheidungsergebnis stabilisiert werden unter Verwendung eines räumlichen Filters und eines zeitlichen Filters in Kombination. Wenn beispielsweise entschieden wird, dass Rauch 1 ist, und ein anderes Objekt als Rauch mit 0 bezeichnet wird, kann entschieden werden, dass, wenn ein Tiefpassfilter verwendet wird und, beispielsweise das Entscheidungsergebnis größer ist als 0,5, das Objekt Rauch ist.
  • ZUSAMMENFASSUNG DER OFFENBARUNG
  • Eine Bildverarbeitungsvorrichtung, die eine Basiskonfiguration verwendet mit einer Bildverarbeitungssteuerungseinrichtung, die von einer Stereokamera aufgenommenen Bilder verarbeitet, und eine Erkennungsverarbeitungssteuerungseinrichtung, die ein Objekt erkennt, basierend auf Information von der Bildverarbeitungssteuerungseinrichtung, verfügt über eine Zielobjektbereichspezifizierungseinheit 20a, eine Merkmalbetragextraktionseinheit 20b und eine Rauchdeterminierungseinheit 20c mit der Funktion des Ermöglichens einer Erkennung von rauchartigen Objekten. Die Zielobjektbereichspezifizierungseinheit 20a spezifiziert einen Bereich eines Objekts, das ein Detektionsziel ist, durch Auslöschen des Einflusses des Hintergrundes, die Merkmalbetragextraktionseinheit 20b extrahiert einen Bildmerkmalbetrag zum Erkennen eines rauchförmigen Objektes in einem Zielobjektbereich und die Rauchdeterminierungseinheit 20c entscheidet, ob das Objekt in dem Zielobjektbereich ein rauchförmiges Objekt ist oder ein Objekt, das kein rauchförmiges Objekt ist, basierend auf dem extrahierten Bildmerkmalbetrag.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • JP 2004-30225 [0003, 0003, 0004]

Claims (2)

  1. Bildverarbeitungsvorrichtung, die ein von einer Stereokamera aufgenommenes Bild verarbeitet und ein Objekt detektiert, wobei die Bildverarbeitungsvorrichtung aufweist: eine Zielobjektbereichspezifizierungseinheit, die Entfernungsdaten verwendet, die mittels Durchführung von Übereinstimmungsverarbeitung des von der Stereokamera aufgenommenen Bildes erhalten werden, und einen Bildbereich spezifiziert, in dem ein Objekt detektiert wird, als einen Zielobjektbereich, der ein Objekt in gleichem Abstand umgibt, eine Merkmalbetragextraktionseinheit, die eine räumliche Filterverarbeitung des Zielobjektbereichs durchführt und einen Bildmerkmalbetrag extrahiert, und eine Rauchdeterminierungseinheit, die entscheidet, ob das Objekt in dem Zielobjektbereich ein rauchförmiges Objekt ist oder nicht, basierend auf dem Bildmerkmalbetrag des Zielobjektbereichs.
  2. Bildverarbeitungsvorrichtung nach Anspruch 1, wobei die Merkmalbetragextraktionseinheit einen räumlichen Integralwert von zumindest Helligkeit als den Bildmerkmalbetrag extrahiert.
DE102011055665A 2010-11-30 2011-11-24 Bildverarbeitungsvorrichtung Withdrawn DE102011055665A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010266952A JP2012118698A (ja) 2010-11-30 2010-11-30 画像処理装置
JP2010-266952 2010-11-30

Publications (1)

Publication Number Publication Date
DE102011055665A1 true DE102011055665A1 (de) 2012-05-31

Family

ID=46049909

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102011055665A Withdrawn DE102011055665A1 (de) 2010-11-30 2011-11-24 Bildverarbeitungsvorrichtung

Country Status (4)

Country Link
US (1) US8947508B2 (de)
JP (1) JP2012118698A (de)
CN (1) CN102567713A (de)
DE (1) DE102011055665A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2690611A3 (de) * 2012-07-26 2017-12-27 Robert Bosch Gmbh Brandüberwachungssystem
EP3573023A1 (de) * 2018-05-24 2019-11-27 Universität Kassel Verfahren zur bestimmung räumlicher informationen einer gasförmigen struktur

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6092665A (ja) * 1983-10-27 1985-05-24 Toshiba Corp 半導体装置の製造方法
JP6095049B2 (ja) * 2012-11-21 2017-03-15 能美防災株式会社 煙検出装置
CN102930685B (zh) * 2012-11-22 2015-02-25 东莞市雷恩电子科技有限公司 一种预防火灾的安防***以及火灾探测方法
KR101401101B1 (ko) 2012-12-20 2014-05-28 한국항공우주연구원 시각 센서를 이용한 쉘터 내 침입 및 화재 감시 시스템 및 방법
JP6317073B2 (ja) * 2013-05-14 2018-04-25 ホーチキ株式会社 火災検知装置及び火災検知方法
US20140376822A1 (en) * 2013-06-25 2014-12-25 Michael Holroyd Method for Computing the Similarity of Image Sequences
KR101932543B1 (ko) * 2013-07-23 2018-12-28 한화테크윈 주식회사 화재검출 방법 및 장치
JP6231333B2 (ja) * 2013-09-05 2017-11-15 ホーチキ株式会社 火災検知装置及び火災検知方法
JP2015056057A (ja) * 2013-09-12 2015-03-23 トヨタ自動車株式会社 姿勢推定方法及びロボット
JP2015064212A (ja) * 2013-09-24 2015-04-09 日本電信電話株式会社 照明統計量計測装置及び方法
JP5906224B2 (ja) * 2013-09-27 2016-04-20 富士重工業株式会社 車外環境認識装置
JP6329438B2 (ja) * 2014-06-12 2018-05-23 株式会社Subaru 車外環境認識装置
JP6399840B2 (ja) * 2014-07-22 2018-10-03 キヤノン株式会社 画像処理装置、画像処理方法及びプログラム
JP6372854B2 (ja) * 2014-12-03 2018-08-15 能美防災株式会社 煙検出装置および煙検出方法
US10304306B2 (en) 2015-02-19 2019-05-28 Smoke Detective, Llc Smoke detection system and method using a camera
US10395498B2 (en) 2015-02-19 2019-08-27 Smoke Detective, Llc Fire detection apparatus utilizing a camera
JP6396840B2 (ja) * 2015-04-10 2018-09-26 日立オートモティブシステムズ株式会社 物体検出装置
FR3036473B1 (fr) 2015-05-20 2018-11-16 Airbus Operations (S.A.S.) Procede de mesure de la position d'une structure mobile
JP6299720B2 (ja) 2015-10-02 2018-03-28 トヨタ自動車株式会社 物体認識装置及び煙判定方法
JP6571492B2 (ja) * 2015-10-30 2019-09-04 株式会社Soken 対応点探索方法、および距離測定装置
US20170270378A1 (en) * 2016-03-16 2017-09-21 Haike Guan Recognition device, recognition method of object, and computer-readable recording medium
JP6508134B2 (ja) * 2016-06-14 2019-05-08 トヨタ自動車株式会社 物体判別装置
JP6317490B2 (ja) * 2017-02-16 2018-04-25 ホーチキ株式会社 火災検知装置及び火災検知方法
JP6830656B2 (ja) * 2017-03-30 2021-02-17 株式会社エクォス・リサーチ 対象物判定装置および対象物判定プログラム
WO2020017089A1 (ja) 2018-07-20 2020-01-23 オリンパス株式会社 撮像ユニット、内視鏡および内視鏡システム
CN109345547B (zh) * 2018-10-19 2021-08-24 天津天地伟业投资管理有限公司 基于深度学习多任务网络的交通车道线检测方法及装置
TWI694382B (zh) 2019-01-04 2020-05-21 財團法人金屬工業研究發展中心 具深度視覺之煙霧偵測方法
JP7388684B2 (ja) * 2019-07-19 2023-11-29 三友工業株式会社 撮像情報分類システム、撮像情報分類方法、撮像情報分類プログラム及び表面判別装置
JP7241011B2 (ja) * 2019-12-27 2023-03-16 株式会社メタルワン 情報処理装置、情報処理方法及びプログラム
US11462089B1 (en) * 2020-02-24 2022-10-04 General Cybernation Group, Inc. Smoke auto-detection and control for industrial flares
CN114399882A (zh) * 2022-01-20 2022-04-26 红骐科技(杭州)有限公司 一种用于消防机器人的火源探测识别并预警方法

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004030225A (ja) 2002-06-26 2004-01-29 Mitsubishi Heavy Ind Ltd 白煙検出方法及び装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7164117B2 (en) * 1992-05-05 2007-01-16 Automotive Technologies International, Inc. Vehicular restraint system control system and method using multiple optical imagers
JPS6388428A (ja) * 1986-10-02 1988-04-19 Toshiba Corp 煙検出装置
CH687653A5 (de) * 1994-03-17 1997-01-15 Von Roll Umwelttechnik Ag Brandueberwachungssystem.
EP0777895B1 (de) * 1994-08-26 2003-10-08 Interlogix, Inc. Autonomer, selbsteinstellender rauchmelder und verfahren zu seinem betrieb
US5625342A (en) * 1995-11-06 1997-04-29 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Plural-wavelength flame detector that discriminates between direct and reflected radiation
US5937077A (en) * 1996-04-25 1999-08-10 General Monitors, Incorporated Imaging flame detection system
US6184792B1 (en) * 2000-04-19 2001-02-06 George Privalov Early fire detection method and apparatus
JP4111660B2 (ja) * 2000-07-18 2008-07-02 富士通株式会社 火災検出装置
EP1364351B8 (de) * 2001-02-26 2006-05-03 Fastcom Technology S.A. Verfahren und einrichtung zur erkennung von fasern auf der grundlage von bildanalyse
US7321386B2 (en) * 2002-08-01 2008-01-22 Siemens Corporate Research, Inc. Robust stereo-driven video-based surveillance
US7154400B2 (en) * 2003-06-27 2006-12-26 The United States Of America As Represented By The Secretary Of The Navy Fire detection method
CN100557384C (zh) * 2003-11-14 2009-11-04 北京理工大学 一种基于双目视觉和激光测距的主动实时三维定位***
US8340349B2 (en) * 2006-06-20 2012-12-25 Sri International Moving target detection in the presence of parallax
US7746236B2 (en) * 2007-05-01 2010-06-29 Honeywell International Inc. Fire detection system and method
US7786877B2 (en) * 2008-06-20 2010-08-31 Billy Hou Multi-wavelength video image fire detecting system
JP5167163B2 (ja) * 2009-02-13 2013-03-21 能美防災株式会社 煙検出装置
JP5518359B2 (ja) * 2009-03-31 2014-06-11 能美防災株式会社 煙検出装置

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004030225A (ja) 2002-06-26 2004-01-29 Mitsubishi Heavy Ind Ltd 白煙検出方法及び装置

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2690611A3 (de) * 2012-07-26 2017-12-27 Robert Bosch Gmbh Brandüberwachungssystem
US10097814B2 (en) 2012-07-26 2018-10-09 Robert Bosch Gmbh Fire monitoring system
EP3573023A1 (de) * 2018-05-24 2019-11-27 Universität Kassel Verfahren zur bestimmung räumlicher informationen einer gasförmigen struktur

Also Published As

Publication number Publication date
US8947508B2 (en) 2015-02-03
CN102567713A (zh) 2012-07-11
JP2012118698A (ja) 2012-06-21
US20120133739A1 (en) 2012-05-31

Similar Documents

Publication Publication Date Title
DE102011055665A1 (de) Bildverarbeitungsvorrichtung
DE102018116111B4 (de) Ein einheitliches tiefes faltendes neuronales Netzwerk für die Abschätzung von Freiraum, die Abschätzung der Objekterkennung und die der Objektstellung
DE102014005688B4 (de) Spurenschätzvorrichtung und verfahren
DE102006041645B4 (de) Verfahren und Vorrichtung zur Orientierungsbestimmung in einem Bild
DE102015121387B4 (de) Hinderniserkennungseinrichtung und Hinderniserkennungsverfahren
DE102014209137B4 (de) Verfahren und Vorrichtung zur Kalibrierung eines Kamerasystems eines Kraftfahrzeugs
DE102011106050B4 (de) Schattenentfernung in einem durch eine fahrzeugbasierte Kamera erfassten Bild zur Detektion eines freien Pfads
EP2584493B1 (de) Verfahren zur Unterscheidung zwischen einem realen Gesicht und einer zweidimensionalen Abbildung des Gesichts in einem biometrischen Erfassungsprozess
DE102015015194A1 (de) Bildverarbeitungsvorrichtung und -verfahren und Programm
DE102015005267A1 (de) Informationsverarbeitungsvorrichtung, Verfahren dafür und Messvorrichtung
DE102012016160A1 (de) Bilderfassung für eine spätere Nachfokussierung oder Fokusmanipulation
DE112009000949T5 (de) Detektion eines freien Fahrpfads für ein Fahrzeug
DE102014117102B4 (de) Spurwechselwarnsystem und Verfahren zum Steuern des Spurwechselwarnsystems
DE112009001727T5 (de) Bildverarbeitungsvorrichtung
DE112013004103T5 (de) Verfahren und Vorrichtung zum Erzeugen einer Disparitätskarte
DE102013205854B4 (de) Verfahren zum Detektieren eines freien Pfads mittels temporärer Koherenz
DE102015122116A1 (de) System und Verfahren zur Ermittlung von Clutter in einem aufgenommenen Bild
DE112017004596T5 (de) Sichtlinienmessvorrichtung
DE102017209631B4 (de) Objektidentifizierungsvorrichtung
DE102015211874A1 (de) Objekterkennungsvorrichtung
DE102012211961A1 (de) Verfahren und Vorrichtung zum Berechnen einer Veränderung eines Abbildungsmaßstabs eines Objekts
EP3857304A2 (de) Verfahren zum fokussieren einer kamera
DE102013004120B4 (de) Elektronische Vorrichtung und Fokuseinstellungsverfahren von dieser
DE102020201379A1 (de) Konturerkennungsvorrichtung, konturerkennungssystem und konturerkennungsverfahren
DE102004007049A1 (de) Verfahren zur Klassifizierung eines Objekts mit einer Stereokamera

Legal Events

Date Code Title Description
R082 Change of representative

Representative=s name: STAUDT IP LAW, DE

R081 Change of applicant/patentee

Owner name: SUBARU CORPORATION, JP

Free format text: FORMER OWNER: FUJI JUKOGYO KABUSHIKI KAISHA, TOKYO, JP

R082 Change of representative

Representative=s name: STAUDT IP LAW, DE

R005 Application deemed withdrawn due to failure to request examination