DE102018122319A1 - Verfahren zum Erkennen einer Störung in einem System - Google Patents

Verfahren zum Erkennen einer Störung in einem System Download PDF

Info

Publication number
DE102018122319A1
DE102018122319A1 DE102018122319.6A DE102018122319A DE102018122319A1 DE 102018122319 A1 DE102018122319 A1 DE 102018122319A1 DE 102018122319 A DE102018122319 A DE 102018122319A DE 102018122319 A1 DE102018122319 A1 DE 102018122319A1
Authority
DE
Germany
Prior art keywords
image
fault
images
carrier
disturbance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102018122319.6A
Other languages
English (en)
Inventor
Wolfgang Herbst
Kenneth Varner
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Vaireco GmbH
Original Assignee
Vaireco GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Vaireco GmbH filed Critical Vaireco GmbH
Priority to DE102018122319.6A priority Critical patent/DE102018122319A1/de
Publication of DE102018122319A1 publication Critical patent/DE102018122319A1/de
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/176Urban or other man-made structures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/98Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • G06V20/17Terrestrial scenes taken from planes or by drones

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Remote Sensing (AREA)
  • Studio Devices (AREA)

Abstract

Die Erfindung geht aus von einem Verfahren zum Erkennen einer Störung (76) in einem System (2), bei dem ein mobiler Träger (4) das System (2) ansteuert und mit seiner Kamera (6, 42) aufnimmt, aus Bildern (62) der Kamera (6, 42) die Störung (76) und der Ort der Störung (76) im System (2) bestimmt wird und Bilder (62) der Störung (76) und Ortsangaben zur Störung (76) an einen bodengebundenen Server (16) übertragen werden.
Um eine zügige Systeminspektion zu erreichen, wird vorgeschlagen, dass aus den Bildern (62) eine Bildanomalie (64) bestimmt wird und aus einer Sequenz von Bildern (62), die die Bildanomalie (64) zeigen, bestimmt wird, ob es sich um die Störung (76) oder einen Strahlungseffekt (74) handelt.

Description

  • Die Erfindung betrifft ein Verfahren zum Erkennen einer Störung in einem System, bei dem ein mobiler Träger das System ansteuert und mittels seiner Kamera aufnimmt und aus Bildern der Kamera die Störung und der Ort der Störung im System bestimmt werden.
  • Große technische Anlagen, beispielsweise Windparks oder Solaranlagen mit einem großen Feld von PV-Modulen, können heute von unbemannten Fluggeräten, beispielsweise Multikoptern, auf technische Defekte untersucht werden. Hierfür ist das Fluggerät mit einer Kamera ausgestattet, das während des Flugs Bilder von der Anlage beziehungsweise einem interessierenden Bauteil erstellt und zur Defekterkennung auf einer Speicherkarte an Bord des Fluggeräts abspeichert. Nach dem Flug werden die aufgenommenen Bilder von der Speicherkarte ausgelesen und auf Defekte hin überprüft. Auf eine aufwändige Begehung der Anlage kann verzichtet werden.
  • Es ist eine Aufgabe der vorliegenden Erfindung, ein schnelles Verfahren zum Erkennen einer Störung in einem System anzugeben.
  • Diese Aufgabe wird durch ein Verfahren der eingangs genannten Art gelöst, bei dem erfindungsgemäß Bilder der Störung und Ortsangaben zur Störung an einen bodengebundenen Server übertragen werden. Die Bilder können im Server zügig ausgewertet werden und die Störung kann zügig gefunden werden. Auf ein Auslesen der Speicherkarte vor Ort kann verzichtet werden, wodurch der Auswertungsprozess beschleunigt wird.
  • Das System kann eine technische Anlage mit einer Vielzahl von Geräten und/oder Anlageeinheiten sein. Ebenfalls möglich ist ein Bauwerk als System, beispielsweise eine Brücke, eine Mauer oder ein Gebäude. Die Störung des Systems kann ein Defekt in einer technischen Anlage sein, beispielsweise eine defekte Komponente der Anlage. Bei einem Bauwerk kann es eine defekte Komponente der Anlage sein, wie ein Riss in einem Betonbauteil, ein herausgebrochener Stein, oder eine Beschädigung einer Bauwerkshülle.
  • In einem Beispiel ist das System eine Photovoltaikanlage insbesondere ein Solarpark mit einer Vielzahl von in Reihen aufgestellter PV-Module. Die Störung kann ein jeglicher Ausfall einer aktiven Fläche auf einem oder mehreren PV-Modulen der Photovoltaikanlage sein. Es kann ein Modulfehler sein, also der Ausfall eines gesamten PV-Moduls oder eines Teils von dessen aktiver Fläche, oder ein Ausfall mehrerer Module, beispielweise ein Ausfall eines Strings oder eines noch größeren Bereichs, z.B. durch einen schadhaften Wechselrichter.
  • Das System kann jedoch auch ein Ökosystem sein, beispielsweise ein Wald oder ein Gewässer. Eine Störung kann ein Feuer oder eine andere erhitzte Stelle im Wald sein, oder Öl auf dem Gewässer oder Plastik im Gewässer. Weiter kann das System eine Ansammlung von Menschen sein oder ein urbaner Organismus, wie eine Stadt oder ein Stadtteil oder dergleichen. Hier kann die Störung ein unerwünschter Zustand des Systems sein, wie ein Feuer in einem Gebäude, ein Stau auf einer Autobahn oder eine hilfebedürftige Person innerhalb des Systems, beispielsweise ein Verschütteter in einer Schneelawine oder eine gesuchte Person in einem Ökosystem, wie ein vermisster Bergsteiger.
  • Der Träger kann ein unbemanntes Fluggerät sein, zweckmäßigerweise ein Micro-UAV (Unmanned Air Vehicle), insbesondere unter 50 kg Gesamtgewicht. Es kann ein Drehflügler sein, wie ein Multikopter, oder ein sogenannter unbemannter Lighter than Air Carrier (LTA), also ein durch Verdrängungsauftrieb in der Luft schwebend gehaltenes Fluggerät, wie eine Ballondrohne. Der Träger kann jedoch ein bodengebundenes Fahrzeug sein, auf dem die Kamera beispielsweise montiert ist.
  • Vorteilhafterweise ist der Träger ein autonomer gesteuerter Träger, der insofern in der Lage ist, sich autonom entlang des Systems zu bewegen. Hierfür bewegt er sich zweckmäßigerweise entlang einer vorbestimmten Bewegungsroute entlang des Systems, die extern vorgegeben oder vom Träger selbständig festgelegt wurde. Insbesondere im letzteren Fall kann die Bewegungsroute von einer Erkennung einer Bildanomalie und/oder Störung des Systems anhängig sein, sodass die Bewegungsroute vom Träger insbesondere bei einer solchen Erkennung autonom geändert werden kann.
  • Der Server kann ein Computerprogramm oder ein Computer sein, der Computerfunktionalitäten, wie Dienstprogramme, Daten oder andere Ressourcen bereitstellt, damit zumindest ein anderer Computer oder Programme darauf zugreifen können. Beispielsweise greift der Computer des Beobachters auf den Server zu, um Bilddaten abzurufen. Der Server kann auch ein Laptop in einem Fahrzeug sein, der die Bildinformation, das Feinbild der Störung und/oder Geokoordinaten verarbeitet und einem anderen Computer oder Programm zur Verfügung stellt.
  • Der Server ist ein bodengebundenes System oder ein Teil davon, das zweckmäßigerweise zur Einleitung einer Behebung der Störung vorbereitet und mit hierfür notwendigen Programmen ausgerüstet ist. Der Server kann ein Managementsystem eines Systembetreibers, ein Rechner einer Leitstelle oder dergleichen sein. Beispielsweise erzeugt der Server einen Reparaturauftrag, der die Schadensart und den Schadensort der Störung beinhaltet.
  • Je nach Aufgabenbereich können die Bilder im infraroten und/oder visuellen Spektralbereich aufgenommen werden, um beispielsweise thermische Unterschiede von Solarmodulen unmittelbar in der Bildinformation sichtbar zu machen. Entsprechend kann die Kamera eine visuelle Kamera oder eine Infrarotkamera mit einem Infrarotdetektor sein. Die Kamera kann auch ein Kamerasystem mit zwei Detektoren sein, von denen einer im visuellen und einer im infraroten Spektralbereich sensitiv ist.
  • Besonders bei einem Überfliegen des Systems durch den Träger passiert es leicht, dass ein Sonnenreflex oder der eigene Schatten des Trägers im Bild abgebildet ist. Hierbei kann es vorkommen, dass die Abbildung fälschlicherweise als Störung klassifiziert wird. Um solchen Fehlern entgegenzuwirken, ist es vorteilhaft, aus den Bildern erst eine Bildanomalie zu bestimmen und dann aus einer Sequenz von Bildern, die die Bildanomalie zeigen, zu bestimmen, ob es sich um die Störung oder einen Strahlungseffekt handelt. Ein Vorteil dieses zweistufigen Verfahrens ist, dass beide Schritte mit verschiedenen Verfahrensschritten ausgeführt werden können, die zwar für ihren jeweiligen Verfahrensschritt vorteilhaft, für den anderen jedoch unter Umständen nicht passend sind.
  • Für die Erkennung des Strahlungseffekts ist die Bewegung der Kamera am, entlang und/oder über dem System sinnvoll, sodass eine Sequenz von Bildern des Systemteils, der die Störung oder den Strahlungseffekt zeigt, erzeugt wird und die Bilder von verschiedenen Bildaufnahmeorten aufgenommen sind. Weiter ist es sinnvoll, wenn dieser Systemteil durch die Bilder wandert, also an verschiedenen Stellen in den Bildern angeordnet ist.
  • Das kann erreicht werden, wenn die Kamera während der Aufnahme der Bildsequenz zumindest im Wesentlichen gleich in ihrer Ausrichtung bleibt, also nicht stets zum Systemteil gerichtet nachgeführt wird.
  • Eine Bildanomalie kann eine Stelle eines Bildes sein, die ein Bildauswertealgorithmus als mögliche Störung klassifiziert. Es kann sich hierbei um eine Störung handeln, es muss aber keine sein. Das Finden von Bildanomalien geschieht hierbei zweckmäßigerweise so, dass der Bildauswertealgorithmus mehr Stellen als mögliche Störung klassifiziert, also als Bildanomalie, als tatsächliche Störungen vorliegen. Durch den zweiten Schritt können fehlerhafte Klassifizierungen aussortiert werden, und durch die höhere Fehlersensitivität als im zweiten Schritt können im ersten Schritt zuverlässig alle Störungen als Bildanomalie gefunden werden.
  • Zum Aussortieren von Sonnenreflexen oder Trägerschatten ist es vorteilhaft, wenn der Strahlungseffekt von einer Auswerteeinheit im Träger daran erkannt wird, dass er durch die Bildsequenz relativ zu einer vorgegebenen Bildposition der Bilder der Sequenz, beispielsweise der Bildmitten der Bilder, stabiler positioniert ist als eine im System stationäre Störung. Es kann in einem ersten Schritt die Position der Bildanomalie relativ zur Bildposition, beispielsweise der Bildmitte, bestimmt werden. Dies wird mit weiteren Bildern der Bildsequenz wiederholt. Nun werden die relativen Positionen der Bildanomalien durch die Sequenz hindurch verfolgt. Bleiben sie durch die Bilder der Sequenz stabiler als eine vorgegeben Positionsstabilität, so wird die Bildanomalie als Strahlungseffekt klassifiziert.
  • Diesem Ansatz liegt der Effekt zugrunde, dass ein Schatten oder Sonnenreflex bei einem Flug über das System durch die Bilder an ähnlicher Stelle mitwandert. Die Positionsveränderung einer solchen Bildanomalie ist im Wesentlichen nur abhängig von einer Richtungsänderung der Kamera durch die Bildsequenz. Eine abgebildete Systemkomponente hingegen wandert durch die Bilder hindurch, beispielsweise von links nach rechts und verschwindet dann aus den Bildern. Sie verändert daher ihre Position durch die Bildsequenz stärker als ein Schatten oder Sonnenreflex, eine stabile Kameraführung vorausgesetzt.
  • Eine weitere Möglichkeit zur Erkennung von Strahlungseffekten, insbesondere durch eine Auswerteeinheit im Träger, umfasst die Schritte, dass die Bildanomalie durch die Bildsequenz relativ zu in den Bildern der Sequenz abgebildeten Systemelementen mehr wandert, als eine im System stationäre Störung wandern würde. Hier umfasst die Analyse also die Relativbewegung von Bildanomalie zu abgebildeten Systemelementen - und nicht wie oben zur Bildmitte. Bewegt sich der Träger relativ zum System, so wandern dessen Systemelemente durch die Bilder hindurch. Die Bildanomalie wird sich hingegen weniger durch die Bilder bewegen und damit relativ zu den Abbildungen der Systemelemente mehr bewegen, als eine im System stationäre Störung. Mittels Bildverarbeitung kann die Bewegung eines Systemelements durch eine Sequenz von Bildern ermittelt werden. Außerdem kann die Bewegung der Bildanomalie durch eine Sequenz von Bildern ermittelt werden, sodass beide Bewegungen verglichen werden können. Liefert der Vergleich eine größere Relativbewegung als eine vorgegebene Bewegung, so wird die Bildanomalie als Strahlungseffekt klassifiziert. Liefert der Vergleich eine kleinere Relativbewegung als eine vorgegebene Bewegung, so wird die Bildanomalie als Störung klassifiziert.
  • Diese Klassifizierung ist nicht zu verwechseln mit einer Klassifizierung verschiedener Störungen des Systems. Werden in einem System verschiedene Arten von Fehlern gefunden, so kann jede der gefundenen Störung in eine Fehlerklasse einsortiert werden. Die Störung wird auf Klassenmerkmale untersucht, wie Größe, Form, Farbe der Bildanomalie, die als Störung erkannt wurde. Die Störung wird dann entsprechen klassifiziert. Werden beispielsweise in einer PV-Anlage Stringfehler, Bypassfehler und Zellfehler gefunden, so können diese anhand ihrer relativen Größe zu einem PV-Modul, das in den Bildern der Kamera leicht zu erkennen ist, klassifiziert werden. Ein weiteres Merkmal ist die Form der Störung und die Ausrichtung der Form relativ zu einem PV-Modul. Eine solche Störungsklassifikation wird vorgenommen, nachdem die Störung an sich als solche klassifiziert wurde. Es finden also zwei aufeinanderfolgende Klassifikationen statt. Zunächst wird eine Bildanomalie in Störung oder Strahlungseffekt klassifiziert. Dann wird die Störung in eine von mehreren Störungsklassen klassifiziert.
  • Es kann vorkommen, dass ein Strahlungseffekt die Erkennung einer Störung erschwert oder unmöglich macht. Ein starker Sonnenreflex kann beispielsweise einen Bypassdiodenfehler in einem PV-Modul überdecken, sodass er nicht sichtbar ist. Um einen Strahlungseffekt aus den Bildern zu bekommen, ist es sinnvoll, wenn eine vorbestimmte Bewegungsroute des Trägers entlang des Systems geändert wird. Der Träger kann beispielsweise seine Entfernung zum System ändern oder eine Blickrichtung auf ein abgebildetes Systemelement ändern. Hierfür ändert er seine Bewegungsroute und fliegt beispielsweise tiefer über eine PV-Anlage. Eine andere Möglichkeit besteht darin, dass der Träger die Ausrichtung seiner Kamera ändert, also relativ zu beispielsweise einer Kamerahalterung des Trägers. Die Festlegung einer Änderung der Route oder Ausrichtung der Kamera ist zweckmäßigerweise so gestaltet, dass eine solche Änderung ohne eine solche Erkennung nicht stattfinden würde.
  • Wurde ein Strahlungseffekt erkannt, so ist es nicht unwahrscheinlich, dass in den bereits aufgenommenen Bildern eine Störung nicht oder nicht ausreichend zur Detektion abgebildet wurde. Es ist daher sinnvoll, wenn nach der Änderung der Bewegungsroute der Teil des Systems, in dem der Strahlungseffekt erkannt wurde, erneut aufgenommen und auf eine Störung untersucht wird.
  • Nach der Erkennung einer Störung des Systems wird es üblicherweise das Ziel sein, die Störung zu beheben. Hierfür sind Positionsdaten zur Störung sinnvoll, die beispielsweise einem Betreiber des Systems übermittelt werden. Die Positionsdaten können Geokoordinaten sein, also erdfeste Ortskoordinaten, die den Standort der Störung beschreiben. Die Positionsdaten der Störung werden vorteilhafterweise von einer Auswerteeinheit des Trägers bestimmt und an einen bodengebundenen Server drahtlos übermittelt, beispielsweise eines Wartungsservers des Systems.
  • Die Positionsdaten der Störung können von einer Auswerteeinheit im Träger ermittelt werden, zweckmäßigerweise bereits während einer Bewegung des Trägers entlang des Systems und während weitere Bilder des Systems aufgenommen werden. Zur zügigen Behebung der Störung können die Positionsdaten vom Träger an einen bodengebundenen Server drahtlos übermittelt werden.
  • Die Bestimmung der Positionsdaten der Störung kann auf verschiedene Weisen erfolgen, die einzeln oder in Kombination miteinander ausgeführt werden können. In einer ersten Möglichkeit werden die Positionsdaten der Störung bestimmt aus Positionskoordinaten des Trägers. Fliegt dieser beispielsweise genau über der Störung, so reichen die zweidimensionalen Koordinaten des Trägers aus, also ohne eine Flughöhe, um die Position der Störung zu bestimmen, vorausgesetzt sie liegt auf Bodenhöhe.
  • Ist eine senkrechte Lage des Trägers über der Störung schwer zu erreichen oder unerwünscht, so kann eine Ausrichtung der Kamera im Raum und eine Entfernung der Kamera zum Ort der Störung hinzugezogen werden. Die Position der Bildmitte auf einer Erdoberfläche kann hierdurch ermittelt werden. Die Ausrichtung der Kamera im Raum kann mithilfe einer sogenannten Initial Measurement Unit (IMU) bestimmt werden oder einer anderen Einheit mit Beschleunigungssensoren, aus deren Signalen die Ausrichtung des Trägers oder der Kamera im Raum bestimmbar ist. Ist die Kamera relativ zum übrigen Träger verschwenkbar, so sollte auch der Schwenkwinkel berücksichtigt werden.
  • Liegt die Abbildung der Störung nicht in der Bildmitte, so ist es sinnvoll, zusätzlich die Lage der Abbildung der Störung in zumindest einem Bild zu bestimmen und zur Positionsbestimmung mitzuverwenden.
  • Zusammenfassend ist es sinnvoll, wenn der Träger Sensoren zur Positionsbestimmung der Störung aufweist. Solche Sensoren können sein:
    • - Ein GNSS-Sensor, z.B. GPS-Sensor, zur Bestimmung der Position des Trägers im Raum.
    • - Ein Lagesensor zur Bestimmung der Lage beziehungsweise Ausrichtung des Trägers im Raum. Dies kann eine IMU sein.
    • - Ein Winkelsensor zur Bestimmung der Ausrichtung der Kamera zum Träger. Die Ausrichtung wird zweckmäßigerweise in zweidimensionalen Polarkoordinaten bestimmt.
    • - Einen Entfernungssensor zur Bestimmung der Entfernung von der Kamera zu einem Objekt, das in der Bildmitte des Kamerabilds aufgenommen wird.
  • Aus dem Winkelsensor und Entfernungssensor können die dreidimensionalen Polarkoordinaten des Objekts bestimmt werden. Diese sind relativ zum Träger bestimmt. Durch den Lagesensor können die Polarkoordinaten vom Trägerkoordinatensystem in ein geostationäres Koordinatensystem übertragen werden. Durch den GNSS-Sensor kann das geostationäre Koordinatensystem in ein geostationäres Koordinatensystem mit bekannter absoluter Lage überführt werden.
  • Zur Bestimmung der Position der Störung ist es außerdem sinnvoll, die Lage der Störungsabbildung in einem oder mehreren Bildern zu bestimmen, sodass die Relativposition zum in der Bildmitte abgebildeten Punkts oder Objekts bekannt ist.
  • Zur Bestimmung der Kamera zum Ort der Störung kann ein Entfernungssensor verwendet werden, wie ein Lasersensor, der beispielsweise parallel zur Kamera-Bildachse ausgerichtet ist. Ein solcher Sensor kann eingespart werden, wenn die reale Ausdehnung eines im Bild abgebildeten Objekts bekannt ist. Aus dessen Ausdehnung der Abbildung des Objekts im Bild kann nun trigonometrisch die Entfernung berechnet werden. Hierfür sollten optische Daten der Kamera bekannt sein, wie die Blickfeldgröße des Bildes.
  • Gerade bei einem Flug des Trägers am oder über dem System kann es vorkommen, dass der Träger durch Wind stark schwankt, sodass die Kamera von Bild zu Bild unterschiedlich ausgerichtet ist. Eine Trägerbewegung kann zwar gegebenenfalls durch eine Sensoreinheit zur Erfassung von Beschleunigungen erfasst werden, wie eine IMU, doch entsprechende Korrekturrechnungen zur Bestimmung der Ausrichtung der Kamera können fehlerbehaftet sein. Dieses Problem kann zumindest abgemildert werden, wenn die Positionsdaten der Störung von einer Auswerteeinheit im Träger jeweils aus mehreren Bildern ermittelt werden und aus den ermittelten Positionsdaten die Ortskoordinaten der Störung berechnet werden. Beispielsweise können die mehreren Positionsdaten gemittelt werden, um Schwankungsbewegungen auszugleichen. Auch eine Gewichtung der Positionsdaten der einzelnen Bilder mithilfe von Beschleunigungsdaten, z.B. von einer IMU, ist möglich.
  • Eine weitere vorteilhafte Möglichkeit zur Bestimmung der Position der Störung besteht darin, dass aus mehreren Bildern der Störung mittels Fotogrammetrie ein 3D-Modell des die Störung beinhaltenden Teils des Systems erstellt wird und die Position der Störung innerhalb dieses Modells bestimmt wird. Die Fotogrammetrie erlaubt eine Zuordnung von mehreren bekannten Aufnahmepunkten zum 3D-Modell des abgebildeten Gegenstands, sodass aus den Ortskoordinaten der Kamera bei Aufnahme mehrerer Bilder aus verschiedenen Perspektiven ein 3D-Modell errechnet werden kann oder umgekehrt aus einem bekannten 3D-Modell die Aufnahmekoordinaten.
  • Zweckmäßig ist die Anwendung der Nahbereichsfotogrammetrie, bei der das Objekt, in diesem Fall der die Störung beinhaltende Teil des Systems, aus mehreren Richtungen aufgenommen wird. Die Ortskoordinaten der Kamera bei Aufnahme der Bilder können die Ortskoordinaten des Trägers zu den Aufnahmezeitpunkten sein, die durch einen GNSS-Empfänger, insbesondere einen GPS-Empfänger, bestimmt werden können.
  • Aus den Ortskoordinaten des Trägers beziehungsweise der Kamera kann auch die Skalierung und/oder Lage des 3D-Modells im Raum bestimmt werden. Beispielsweise kann hieraus die Position der Störung bestimmt werden, beispielsweise deren Geokoordinaten, da die Lage der Störung im 3D-Modell aus den Bildern bekannt ist.
  • Um eine zügige Lokalisierung der Störung zu erhalten, ist es vorteilhaft, wenn die Fotogrammetrie von einer Auswerteeinheit des Trägers ausgeführt und Ergebnisdaten daraus an einen bodengebundenen Server drahtlos übermittelt werden. Direkt nach Erkennung der Störung kann deren Position beispielsweise an einen Wartungsdienst oder Rettungsdienst übermittelt werden.
  • Je nach Bewegungsrichtung des Trägers relativ zur Störung kann es sein, dass die Bilder der Störung zwar aus verschiedenen Perspektiven erfolgten, jedoch nur aus solchen ähnlichen Perspektiven, die nur zu einer ungenauen fotometrischen Auswertung führen könnten. Um bessere Perspektiven und damit eine bessere Positionsbestimmung zu erreichen, ist es vorteilhaft, wenn eine Erkennung einer Störung bewirkt, dass eine vorbestimmte Bewegungsroute des Trägers geändert und die Störung von mehreren Seiten aufgenommen wird. Nach der Routenänderung kann der Träger wieder zur vorbestimmten Route zurückkehren und diese weiter abfliegen.
  • Eine weitere vorteilhafte Ausführungsform der Erfindung sieht vor, dass sich der Träger autonom zum und entlang des Systems bewegt, autonom die Bildaufnahmen steuert, die Störung ermittelt und Bilder und Koordinaten der Störung an einen bodengebundenen Server übermittelt. Es kann eine kostengünstige und zügige Ermittlung der Störung erreicht werden.
  • Die Erfindung ist außerdem gerichtet auf eine Vorrichtung zum Erkennen einer Störung in einem System mit einem mobilen Träger enthaltend eine Kamera, einer Steuereinheit zum Ansteuern des Systems und zur Steuerung einer Aufnahme von Bildern des Systems mit der Kamera und einer Auswerteeinheit.
  • Um eine schnelle Erkennung von Systemfehlern zu erreichen, wird vorgeschlagen, dass die Auswerteeinheit erfindungsgemäß dazu vorbereitet ist, aus Bildern der Kamera die Störung und den Ort der Störung im System zu bestimmen und Bilder der Störung und Ortsangaben zur Störung an einen bodengebundenen Server zu übertragen.
  • Eine zuverlässige Erkennung von Systemfehlern kann erreicht werden, wenn die Auswerteeinheit dazu vorbereitet ist, aus den Bildern eine Bildanomalie zu bestimmen und aus einer Sequenz von Bildern, die die Bildanomalie zeigen, zu bestimmen, ob es sich um die Störung oder einen Strahlungseffekt handelt.
  • Die Steuereinheit ist zweckmäßigerweise ein Teil des Trägers und wird vom Träger auf seiner Bewegung entlang des Systems oder über dem System mitgeführt.
  • Die bisher gegebene Beschreibung vorteilhafter Ausgestaltungen der Erfindung enthält zahlreiche Merkmale, die in einigen abhängigen Ansprüchen zu mehreren zusammengefasst wiedergegeben sind. Diese Merkmale können jedoch zweckmäßigerweise auch einzeln betrachtet und zu sinnvollen weiteren Kombinationen zusammenfasst werden, insbesondere bei Rückbezügen von Ansprüchen, sodass ein einzelnes Merkmal eines abhängigen Anspruchs mit einem einzelnen, mehreren oder allen Merkmalen eines anderen abhängigen Anspruchs kombinierbar ist. Außerdem sind diese Merkmale jeweils einzeln und in beliebiger geeigneter Kombination sowohl mit dem erfindungsgemäßen Verfahren als auch mit der erfindungsgemäßen Vorrichtung gemäß den unabhängigen Ansprüchen kombinierbar. So sind Verfahrensmerkmale auch als Eigenschaft der entsprechenden Vorrichtungseinheit gegenständlich formuliert zu sehen und funktionale Vorrichtungsmerkmale auch als entsprechende Verfahrensmerkmale.
  • Die oben beschriebenen Eigenschaften, Merkmale und Vorteile dieser Erfindung, sowie die Art und Weise, wie diese erreicht werden, werden klarer und deutlicher verständlich im Zusammenhang mit der folgenden Beschreibung der Ausführungsbeispiele, die im Zusammenhang mit den Zeichnungen näher erläutert werden. Die Ausführungsbeispiele dienen der Erläuterung der Erfindung und beschränken die Erfindung nicht auf die darin angegebene Kombination von Merkmalen, auch nicht in Bezug auf funktionale Merkmale. Außerdem können dazu geeignete Merkmale eines jeden Ausführungsbeispiels auch explizit isoliert betrachtet, aus einem Ausführungsbeispiel entfernt, in ein anderes Ausführungsbeispiel zu dessen Ergänzung eingebracht und/oder mit einem beliebigen der Ansprüche kombiniert werden.
  • Es zeigen:
    • 1 eine Photovoltaikanlage mit einer Vielzahl von PV-Modulen, die auf nicht dargestellten Gestellen auf dem Boden montiert sind,
    • 2 ein unbemanntes Fluggerät, das von einem Bediener am Boden gestartet wird,
    • 3 eine schematische Draufsicht auf die Photovoltaikanlage und eine Bewegungsroute entlang der das Fluggerät über die Photovoltaikanlage fliegt,
    • 4 ein Steuergerät beim Bediener zum Steuern des Fluggeräts und das Fluggerät selbst jeweils in einer schematischen Darstellung,
    • 5 ein Ablaufdiagramm einer Inspektion eines Systems,
    • 6 einen Ausschnitt der Photovoltaikanlage in einer höher aufgelösten Darstellung mit einer Störung und einem Strahlungseffekt in Form eines Sonnenreflexes und
    • 7 die aufgrund eines erkannten Strahlungseffekts und einer erkannten Störung geänderte Bewegungsroute.
  • 1 zeigt eine Photovoltaikanlage mit einer Vielzahl von Photovoltaikmodulen, die auf nicht dargestellten Ständern auf dem Erdboden in langen Reihen angeordnet sind. Die Photovoltaikanlage wird im Folgenden als ein System 2 bezeichnet, das auf technische Störungen untersucht werden soll, beispielsweise auf defekte Komponenten der Anlage. In der Photovoltaikanlage 2 werden solche Störungen durch Ausfälle von Photovoltaikmodulen oder Teilen davon gebildet.
  • Zum Erkennen und Lokalisieren einer technischen Störung des Systems 2 wird ein unbemanntes Fluggerät, im Folgenden allgemein als Träger 4 bezeichnet, mit einer Kamera 6 (2) von einem Bediener 8 gestartet und fliegt anschließend autonom über die Photovoltaikanlage 2. Hierfür erhält eine Steuereinheit des Trägers Zugriff auf eine vorbestimmte Flugroute, die auf die Inspektion des zu überprüfenden Systems abgestimmt ist. Der Träger 4 ist ein Multikopter, in diesem Ausführungsbeispiel ein Quadrokopter, der die Kamera 6 trägt.
  • Aus 2 ist zu erkennen, dass die Kamera 6 ein nach unten ausgerichtetes Blickfeld 10 aufweist. Die Kamera 6 nimmt eine Sequenz von Bildern des Systems 2 auf, beispielsweise in Form eines Inspektionsfilms. Aus den Bildern erkennt eine Auswerteeinheit 12 des Trägers 4 Störungen des Systems 2 und sendet Bilder der Störung und Positionsdaten der Störung über eine Fernkommunikationsverbindung 14 an einen bodengebundenen Server 16 in einem Gebäude. Die Fernkommunikationsverbindung kann eine LTE- oder UMTS-Verbindung sein, oder eine Verbindung eines anderen Standards zur Datenübermittlung über Strecken über 1 km und mehr. Sie erfolgt zweckmäßigerweise über ein Fernkommunikationsprotokoll, beispielsweise GSM.
  • Ein Beobachter 18, der Zugriff auf Daten des Servers 16 hat, schaut die Bilder beziehungsweise den Film an und überprüft beispielsweise die gefundenen Störungen oder sucht Störungen aus den aufgefundenen zur Reparatur aus. Anhand der Bilder und Positionsdaten der Störungen sendet er einen Reparaturauftrag zur Behebung der Störungen an eine Reparaturorganisation.
  • Der Bediener 8 kann den Flugfilm auf eine Anzeige 22 des Steuergeräts 24 des Trägers 4 gesendet bekommen, beispielsweise über eine Nahkommunikationsverbindung 26, wie eine WLAN-Verbindung. Er kann so den Flug kontrollieren und gegebenenfalls eingreifen, wenn die Bewegung des Trägers 4 vom Bediener 8 nicht für in Ordnung befunden wird oder wenn der Beobachter 18 Anweisungen dazu gibt, der mit dem Bediener in einer Fernkommunikationsverbindung stehen kann.
  • 3 zeigt eine schematische Draufsicht auf das System 2. Zu sehen sind viele Reihen von Photovoltaikmodulen 28, die jeweils aus einer Anzahl von Strings zusammengesetzt sind. In diesem Ausführungsbeispiel ist die Kamera 6 ein Infrarotkamera und die Bilder sind thermische Bilder, in deren Bilddaten jedem Bildpunkt ein Temperaturwert zugeordnet ist. Die Bildpixel können in Falschfarben dargestellt sein, wobei jede Temperatur einer Falschfarbe zugeordnet ist.
  • Zu sehen ist in 3 außerdem die Bewegungsroute 30, die dem Träger 4 vorgegeben ist zum Abscannen des Systems 2 während seines Inspektionsflugs. Die Route 30 verläuft in Schleifen über das ganze System, sodass jede relevante Systemkomponente in den Bildern zumindest einer Bildsequenz der Kamera 6 abgebildet wird.
  • 4 zeigt das Steuergerät 24 und den Träger 4 in einer schematischen Darstellung. Wie aus 4 zu sehen ist, ist das Steuergerät 24 mit einem Anzeigefeld 32 versehen, auf dem der Flugfilm komprimiert oder unkomprimiert dem Bediener 8 angezeigt wird. Diese Bildinformation wird aus den Bilddaten der Kamera 6 gewonnen, drahtlos an das Steuergerät 24 übertragen und dort angezeigt. Das Steuergerät 24 umfasst ferner eine Kommunikationseinheit 34 mit einem Sender, mit dem das Steuergerät 24 Steuerdaten zur Steuerung des Trägers 4 drahtlos an dieses übermittelt. Die Kommunikationseinheit 34 enthält außerdem einen Empfänger zum Empfangen von Steuerdaten, Positionsdaten und den Flugfilm zum Anzeigen auf dem Anzeigefeld 32.
  • Auch das Fluggerät 4 umfasst eine Kommunikationseinheit 36 mit einem Sender und einem Empfänger. Dies ist das Gegenstück zur Kommunikationseinheit 34 des Steuergeräts 24 und dient zum besagten Datenaustausch mit dieser. Über einen GPS-Empfänger 38 empfängt das Fluggerät 4 seine aktuellen Positionsdaten und sendet diese über die Kommunikationseinheiten 36 und 34 an das Steuergerät 24 beziehungsweise den Bediener 8. Der GPS-Empfänger 38 und die Kommunikationseinheit 36 sind Teil eines ersten Datenmoduls, das mit dem Steuergerät 24 kommuniziert, und über das die vollständige Funktion des Trägers 4, wie von dessen Hersteller zur Verfügung gestellt ist, erreicht werden kann.
  • Dies kann auch unter Zuhilfenahme weiterer Einheiten geschehen, wie einem Datenspeicher 40 und der zweiten Kamera 42 für visuelle Aufnahmen.
  • Der Träger 4 umfasst jedoch auch ein zweites Datenmodul 44 mit einer weiteren Kommunikationseinheit 46 umfassend einen Sender und einen Empfänger und mit einem weiteren GPS-Empfänger 48. Dieses zweite Datenmodul 44 stellt zusätzlich zu den vollständigen vom Hersteller bereitgestellten Funktionen weitere Funktionen des Trägers 4 zur Verfügung. Das zweite Datenmodul 44 kommuniziert mittels Fernkommunikation 14 mit dem Server 16.
  • Der Träger 4 umfasst weiter eine Steuereinheit 50 zur Steuerung der Bewegung des Trägers 4 und der Kameras 6, 42 sowie eine Auswerteeinheit 52 zum Auswerten der Bilder zumindest einer der Kameras 6, 42.
  • 5 zeigt ein Ablaufdiagramm eines Verfahrens zum Erkennen einer Störung des Systems 2. Zum Start 54 des Verfahrens erhält der Träger 4 seine Bewegungsroute 30 und gegebenenfalls Inspektionsdaten und Kameradaten zu dem jeweiligen Inspektionsauftrag. Die Daten kann der Träger 4 durch einen Zugriff auf den Server 16 erhalten, den die Kommunikationseinheit 46 anwählt und über Zugangsdaten Zugriff zu den Inspektionsdaten erhält. Anschließend oder währenddessen wird der Träger 4 vom Bediener 8 gestartet und schwenkt auf seine Bewegungsroute 30 ein, um das System 2 abzufliegen.
  • Am System 2 erfolgt eine kontinuierliche Bildaufnahme 56 von Teilen des Systems 2. Die Kamera 6 nimmt mehrere Bilder pro Sekunde auf, sodass jedes aufzunehmende Element des Systems 2 in zumindest einer Bildsequenz von unmittelbar hintereinander aufgenommenen Bildern abgebildet ist. Zu jedem Aufnahmezeitpunkt wird vom GPS-Empfänger 48 der Ort des Trägers 4 ermittelt, der mit dem Bild, das zu diesem Zeitpunkt aufgenommen wurde, verknüpft 58 wird.
  • Aufgenommene Bilder werden von der Auswerteeinheit 52 des Trägers 4 auf Bildanomalien überprüft 60. Hierfür enthält die Auswerteeinheit 52 eine Bildverarbeitungssoftware, die die Bilder auf Anomalien untersucht. Die Bildverarbeitungssoftware kann hierbei mit Untersuchungsparametern arbeiten, die der Auswerteeinheit 52 als Teil der Inspektionsdaten mitgeteilt wurden.
  • 6 zeigt beispielhaft drei Bilder 62 einer Bildsequenz, in denen jeweils zwei verschiedene Bildanomalien 64 dargestellt sind. Die jeweils untere Bildanomalie 64 zeigt einen Ausfall einer Bypass-Diode, sodass nur ein Teil eines PV-Moduls außer Betrieb ist. Die jeweils obere Bildanomalie 64 zeigt einen Sonnenreflex in den Bildern 62, also eine Spiegelung der Sonne in den PV-Modulen. Beide Bildanomalien 64 äußern sich durch regional erhöhte Temperaturen in den Bildern 62, bei dem ausgefallenen Modulteil wegen hoher Ströme, die durch den Modulteil hindurchgetrieben werden, bei dem Sonnenreflex wegen der rückgestrahlten Infrarotstrahlung der Sonne.
  • Im Schritt 60 des Inspektionsverfahrens werden alle Bildanomalien 64 entdeckt und als solche klassifiziert. Bereits für diese Klassifizierung werden die Positionen der Bildanomalien jeweils in den Bildern 62 bestimmt, beispielsweise relativ zur Bildmitte oder einem anderen zum Bildrand festen Bezugspunkt. Zu jeder Bildanomalie wird eine Bildsequenz gebildet, in deren Bildern 62 diese Bildanomalie sichtbar ist. Bei mehreren Bildanomalien können sich die Sequenzen überlappen. Jede Sequenz ist eindeutig einer Anomalie zugeordnet und umgekehrt.
  • Mit einer Prüfschleife 68 wird gewährleistet, dass alle Bildanomalien 64 in der gerade geprüften Bildsequenz gefunden wurden. Ist nicht sicher, dass alle Bildanomalien 64 gefunden wurden, so springt das Verfahren zurück zu Schritt 60 und prüft weiter. Wurden alle Bildanomalien 64 gefunden, so werden im nächsten Schritt 70 alle Bilder 62 der zu einer Bildanomalie gehörenden Bildsequenzen dauerhaft gespeichert. Mit ihnen werden auch die zugehörigen GPS-Daten und Sensordaten gespeichert. Die Bilder 62, die keine Anomalie zeigen, werden gelöscht oder zum Überschreiben freigegeben.
  • Im nächsten Schritt 72 werden die Bilder 62, die eine Bildanomalie 64 zeigen, auf eine Störung ausgewertet. Zweck dieses Prüfschritts 72 ist es, Strahlungseffekte 74 von Störungen 76 zu trennen. Hierfür umfasst die Bildverarbeitungssoftware eine eigene Prüfungsroutine, mit der Strahlungseffekte 74 von Störungen 76 unterschieden werden können. Hierzu wird die Veränderung der Position einer Bildanomalie 64 relativ zu einer Bildposition durch die Bilder 62 der Sequenz verfolgt. Die festgelegte Bildposition ist beispielsweise die Bildmitte. Aus den GPS-Daten der Bilder 62 ist bekannt, dass die Bilder 62 von verschiedenen Orten aufgenommen wurden. Entsprechend sollten die Bildanomalien 64 in der Sequenz durch die Bilder wandern, ihre Position in den Bildern 62 sollte sich also von Bild 62 zu Bild 62 relativ zur festgelegten Bildposition verändern.
  • Bei dem Beispiel aus 6 ist zu sehen, dass die Abbildung der Störung 76 wie erwartet durch die Bilder 62 wandert. Die durch den Sonnenreflex erzeugt Bildanomalie 64 verharrt jedoch relativ stabil rechts oben in den Bildern 62. Sie wandert zwar etwas aus den Bildern 62 aus, verändert ihre Position im Laufe der Bilder 62 jedoch weniger, als die GPS-Daten der Bilder 62 erwarten lassen. In einem Prüfschritt 78 wird die Positionsveränderung gegen eine Schwelle geprüft. Ist sie geringer als die Schwelle (Ja-Zweig in 6), die von den GPS-Daten der Bilder 62 abhängig sein kann, so wird die Bildanomalie 64 als Strahlungseffekt 74 klassifiziert. Ansonsten wird die Bildanomalie 64 als Störung 76 klassifiziert (Nein-Zweig in 6).
  • Wenn die Bildanomalie 64 als Strahlungseffekt 74 klassifiziert wurde, so verändert die Steuereinheit 50 des Trägers 4 in Schritt 80 die Bewegungsroute 30. Diese Veränderung hat den Zweck, die Aufnahmerichtung der Kamera 6 zum System ändern zu können und hierbei den gleichen Teil, der den Strahlungseffekt 74 zeigte, erneut aufnehmen zu können, nun möglichst ohne Strahlungseffekt 74, also ohne eine Sonnenreflex im Bild 62 oder ohne die Abbildung eines Schattens des Trägers 4 im Bild 62. Eine solche Änderung der Flugroute 30 ist in 7 beispielhaft gezeigt.
  • 7 zeigt das System 2 von oben mit der vorgegebenen Flugroute 30, die in Schleifen über dem System 2 verläuft. Zu sehen ist, dass der Träger 4 die vorbestimmte Flugroute 30 nach der Klassifizierung der Strahlungsanomalie 64 als Strahlungseffekt 74 abbricht und zurück fliegt. In einer Bewegungsbahn, die zur abgebrochenen versetzt ist, fliegt er erneut an dem Teil des Systems 2 vorbei, der den Strahlungseffekt 74 zeigte, um diesen Teil erneut aufzunehmen. Das Inspektionsverfahren springt von Schritt 80 zur kontinuierlichen Bildaufnahme 56 zurück, um diesen Teil des Systems 2 erneut zu prüfen.
  • Aus dem Beispiel aus 6 ist zu sehen, dass die Prüfung auf Positionsveränderung beziehungsweise auf einen Strahlungseffekt 74 in Schritt 78 so ablaufen sollte, dass zunächst alle Bildanomalien 64 so geprüft werden, bevor das Verfahren in Schritt 80 oder 82 fortgesetzt wird. Erst wenn alle Bildanomalien 64 geprüft wurden, wird gefragt, ob ein Strahlungseffekt 74 vorliegt. Wenn dies der Fall ist, so geht das Verfahren in Schritt 80 weiter. Liegen ausschließlich eine oder mehrere Störungen 76 in den Bildern der Bildsequenz vor, so springt das Verfahren in Schritt 82. Diese Reihenfolge verhindert, dass das Verfahren zu Schritt 82 gelangt, ohne dass zu jedem Strahlungseffekt 74 die Routenänderung vorgenommen wurde. Denn sonst könnte es sein, dass der Strahlungseffekt 74 eine Störung 76 überblendet, die dann nicht gefunden wird.
  • In Schritt 82 wird die gefundene Störung 76 aus mehreren weiteren Positionen aufgenommen, die die ursprüngliche Bewegungsroute 30 nicht erreicht hätte. Die ursprüngliche Bewegungsroute 30 wird also geändert, beispielsweise wird die Störung umkreist. Hierdurch wird die Störung 76 aus möglichst verschiedenen Blickrichtungen aufgenommen. Dies ist auch in der Darstellung aus 7 wiedergegeben. Die neue Bewegungsroute 30 umkreist die Störung 76, um dann auf die ursprüngliche Route 30 beziehungsweise die durch einen Strahlungseffekt veränderte Route 30 wieder einzuschwenken.
  • In Schritt 84 wird die Position der Störung in Geokoordinaten ermittelt, um die Störung 76 im System 2 lokalisieren und zügig beheben zu können. Hierfür bestehen mehrere Möglichkeiten.
  • In einer ersten Möglichkeit werden die Bilder, die die Störung 76 zeigen, in einem Fotogrammetrieverfahren verwendet. Aus ihnen wird ein 3D-Modell des Teils des Systems 2 berechnet, das die Störung 76 enthält. Hierfür werden neben den Bilddaten auch die GPS-Daten, die jedem Bild 62 zugeordnet sind, verwendet. Aus den GPS-Daten und den Bilddaten wird das Modell erzeugt. Das Modell umfasst seine Position in Geokoordinaten und auch die Position der Störung 76 in Geokoordinaten, die sich aus der Position der Störung 76 im Modell bestimmen lässt.
  • In einer anderen Methode werden Sensordaten, die mit den Bildern 62 verknüpft sind, zur Positionsbestimmung verwendet. Hierfür umfasst der Träger 4 einen Sensor zur Erfassung der Ausrichtung des Trägers 4 im Raum, beispielsweise eine IMU. Weiter ist ein Sensor zur Erfassung der Ausrichtung der Kamera 6 relativ zum Träger 4 vorhanden. Möglich ist ein zusätzlicher Entfernungssensor, der die Entfernung zwischen Kamera 6 und abgebildetem Gegenstand ermittelt. Mit diesen Sensoren und der GPS-Position des Trägers 4 zum Bildaufnahmezeitpunkt kann die Position des in der Bildmitte abgebildeten Gegenstands eines jeden Bilds 62 bestimmt werden. Liegt die Störung außerhalb der Bildmitte, so ist mittels Pixelkalibrierung in den einzelnen Bildern 62 aus der Lage der Störung 76 deren Position im Raum zu bestimmen. Auf diese Weise liegt die Position der Störung 76 aus jedem Bild 62 jeweils vor. Die Positionen können gemittelt werden, sodass Sensorfehler ausgemittelt werden.
  • Die Position der Störung 76 und Bilder 62 der Störung 76 werden in Schritt 86 vom Träger 4 an den Server 16 gesendet. In Schritt 88 wird geprüft, ob der Inspektionsflug vollständig absolviert wurde. Ist das der Fall, so wird das Inspektionsverfahren in Schritt 90 beendet. Ansonsten wird das Verfahren in Schritt 56 mit der kontinuierlichen Bildaufnahme fortgesetzt.
  • Bezugszeichenliste
  • 2
    System
    4
    Träger
    6
    Kamera
    8
    Bediener
    10
    Blickfeld
    12
    Auswerteeinheit
    14
    Fernkommunikationsverbindung
    16
    Server
    18
    Beobachter
    20
    Anzeige
    22
    Anzeige
    24
    Steuergerät
    26
    Nahkommunikationsverbindung
    28
    Photovoltaikmodul
    30
    Bewegungsroute
    32
    Anzeigefeld
    34
    Kommunikationseinheit
    36
    Kommunikationseinheit
    38
    GPS-Empfänger
    40
    Datenspeicher
    42
    Kamera
    44
    Datenmodul
    46
    Kommunikationseinheit
    48
    GPS-Empfänger
    50
    Steuereinheit
    52
    Auswerteeinheit
    54
    Start
    56
    Bildaufnahme
    58
    Datenverknüpfung
    60
    Überprüfung auf Bildanomalien
    62
    Bild
    64
    Bildanomalie
    68
    Prüfung alle Anomalien gefunden?
    70
    Bildspeicherung
    72
    Auswertung auf Störung
    74
    Strahlungseffekt
    76
    Störung
    78
    Prüfung auf Positionsveränderung
    80
    Bewegungsroute ändern
    82
    Störung umkreisen
    84
    Position der Störung ermitteln
    86
    Bilddaten an Server
    88
    Prüfung Vollständigkeit Inspektion
    90
    Verfahrensende

Claims (14)

  1. Verfahren zum Erkennen einer Störung (76) in einem System (2), bei dem ein mobiler Träger (4) das System (2) ansteuert und mit seiner Kamera (6, 42) aufnimmt, aus Bildern (62) der Kamera (6, 42) die Störung (76) und der Ort der Störung (76) im System (2) bestimmt wird und Bilder (62) der Störung (76) und Ortsangaben zur Störung (76) an einen bodengebundenen Server (16) übertragen werden, dadurch gekennzeichnet, dass aus den Bildern (62) eine Bildanomalie (64) bestimmt wird und aus einer Sequenz von Bildern (62), die die Bildanomalie (64) zeigen, bestimmt wird, ob es sich um die Störung (76) oder einen Strahlungseffekt (74) handelt.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass der Strahlungseffekt (74) von einer Auswerteeinheit (52) im Träger (4) daran erkannt wird, dass er durch die Bildsequenz relativ zu einer vorgegebenen Bildposition der Bilder (62) der Sequenz stabiler positioniert ist als eine im System (2) stationäre Störung (76).
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass der Strahlungseffekt (74) von einer Auswerteeinheit (52) im Träger (4) daran erkannt wird, dass die Bildanomalie (64) durch die Bildsequenz relativ zu in den Bildern (62) der Sequenz abgebildeten Systemelementen mehr wandert, als eine im System (2) stationäre Störung (76) wandern würde.
  4. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass das Erkennen eines Strahlungseffekts (74) bewirkt, dass eine vorbestimmte Bewegungsroute (30) des Trägers (4) entlang des Systems (2) geändert wird.
  5. Verfahren nach Anspruch 4, dadurch gekennzeichnet, dass nach der Änderung der Bewegungsroute (30) der Teil des Systems (2), in dem der Strahlungseffekt (74) erkannt wurde, erneut aufgenommen und auf eine Störung (76) untersucht wird.
  6. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Ortsangaben der Störung (76) von einer Auswerteeinheit (52) im Träger (4) ermittelt werden aus - Positionskoordinaten des Trägers (4), - einer Ausrichtung der Kamera (6, 42) im Raum, - einer Entfernung der Kamera (6, 42) zum Ort der Störung (76) und - einer Lage der Abbildung der Störung (76) in zumindest einem Bild (62).
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass die Entfernung der Kamera (6, 42) zum Ort der Störung (76) aus der bekannten realen Ausdehnung eines im Bild (62) abgebildeten Objekts und dessen Ausdehnung im Bild (62) bestimmt wird.
  8. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass die Ortsangaben der Störung (76) von einer Auswerteeinheit (52) im Träger (4) jeweils aus mehreren Bildern (62) ermittelt werden und aus den ermittelten Ortsangaben die Ortskoordinaten der Störung (76) berechnet werden.
  9. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass aus mehreren Bildern (62) der Störung (76) mittels Fotogrammetrie ein 3D-Modell des die Störung (76) beinhaltenden Teils des Systems (2) erstellt wird und die Position der Störung (76) innerhalb dieses Modells bestimmt wird.
  10. Verfahren nach Anspruch 9, dadurch gekennzeichnet, dass aus Positionskoordinaten des Trägers (4) zu den Aufnahmezeitpunkten der mehreren Bilder (62) eine Skalierung des 3D-Modells errechnet und Geokoordinaten der Störung (76) bestimmt werden.
  11. Verfahren nach Anspruch 9 oder 10, dadurch gekennzeichnet, dass die Fotogrammetrie von einer Auswerteeinheit (52) des Trägers (4) ausgeführt und Ergebnisdaten daraus an einen bodengebundenen Server (16) drahtlos übermittelt werden.
  12. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass eine Erkennung einer Störung (76) bewirkt, dass eine vorbestimmte Bewegungsroute (30) des Trägers (4) geändert und die Störung (76) von mehreren Seiten aufgenommen wird.
  13. Verfahren nach einem der vorhergehenden Ansprüche, dadurch gekennzeichnet, dass sich der Träger (4) autonom zum und entlang des Systems (2) bewegt, die Bildaufnahmen steuert, die Störung (76) ermittelt und Bilder (62) und Koordinaten der Störung (76) an einen bodengebundenen Server (16) übermittelt.
  14. Vorrichtung zum Erkennen einer Störung (76) in einem System (2) mit einem mobilen Träger (4) enthaltend eine Kamera (6, 42), einer Steuereinheit (50) zum Ansteuern des Systems (2) und zur Steuerung einer Aufnahme von Bildern (62) des Systems (2) mit der Kamera (6, 42) und einer Auswerteeinheit (52), die dazu vorbereitet ist, aus Bildern (62) der Kamera (6, 42) die Störung (76) und den Ort der Störung (76) im System (2) zu bestimmen und Bilder (62) der Störung (76) und Ortsangaben zur Störung (76) an einen bodengebundenen Server (16) zu übertragen, dadurch gekennzeichnet, dass die Auswerteeinheit (52) dazu vorbereitet ist, aus den Bildern (62) eine Bildanomalie (64) zu bestimmen und aus einer Sequenz von Bildern (62), die die Bildanomalie (64) zeigen, zu bestimmen, ob es sich um die Störung (76) oder einen Strahlungseffekt (74) handelt.
DE102018122319.6A 2018-09-12 2018-09-12 Verfahren zum Erkennen einer Störung in einem System Withdrawn DE102018122319A1 (de)

Priority Applications (1)

Application Number Priority Date Filing Date Title
DE102018122319.6A DE102018122319A1 (de) 2018-09-12 2018-09-12 Verfahren zum Erkennen einer Störung in einem System

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018122319.6A DE102018122319A1 (de) 2018-09-12 2018-09-12 Verfahren zum Erkennen einer Störung in einem System

Publications (1)

Publication Number Publication Date
DE102018122319A1 true DE102018122319A1 (de) 2020-03-12

Family

ID=69621557

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018122319.6A Withdrawn DE102018122319A1 (de) 2018-09-12 2018-09-12 Verfahren zum Erkennen einer Störung in einem System

Country Status (1)

Country Link
DE (1) DE102018122319A1 (de)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11928975B2 (en) 2020-11-19 2024-03-12 Enphase Energy, Inc. Methods and apparatus for servicing distributed energy generation systems using an unmanned aerial vehicle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100215212A1 (en) * 2009-02-26 2010-08-26 Honeywell International Inc. System and Method for the Inspection of Structures
DE102011017564A1 (de) * 2011-04-26 2012-10-31 Aerospy Sense & Avoid Technology Gmbh Verfahren und System zum Prüfen einer Oberfläche auf Materialfehler
DE102013113326A1 (de) * 2013-12-02 2015-06-03 Hgz Patentvermarktungs Gmbh Verfahren zum optischen Erfassen einer Windkraftanlage zu Prüfzwecken mit Hilfe eines Luftfahrzeuges
US20170277966A1 (en) * 2016-03-28 2017-09-28 General Dynamics Mission Systems, Inc. System and methods for automatic solar panel recognition and defect detection using infrared imaging
US20180130361A1 (en) * 2016-11-04 2018-05-10 Loveland Innovations, LLC Systems and methods for adaptive property analysis via autonomous vehicles

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20100215212A1 (en) * 2009-02-26 2010-08-26 Honeywell International Inc. System and Method for the Inspection of Structures
DE102011017564A1 (de) * 2011-04-26 2012-10-31 Aerospy Sense & Avoid Technology Gmbh Verfahren und System zum Prüfen einer Oberfläche auf Materialfehler
DE102013113326A1 (de) * 2013-12-02 2015-06-03 Hgz Patentvermarktungs Gmbh Verfahren zum optischen Erfassen einer Windkraftanlage zu Prüfzwecken mit Hilfe eines Luftfahrzeuges
US20170277966A1 (en) * 2016-03-28 2017-09-28 General Dynamics Mission Systems, Inc. System and methods for automatic solar panel recognition and defect detection using infrared imaging
US20180130361A1 (en) * 2016-11-04 2018-05-10 Loveland Innovations, LLC Systems and methods for adaptive property analysis via autonomous vehicles

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11928975B2 (en) 2020-11-19 2024-03-12 Enphase Energy, Inc. Methods and apparatus for servicing distributed energy generation systems using an unmanned aerial vehicle

Similar Documents

Publication Publication Date Title
DE102016124311B4 (de) Autonomes Freileitungskabel-Inspektionssystem
EP3293115B1 (de) Verfahren zur steuerung unbemannter flugobjekte
DE102011017564B4 (de) Verfahren und System zum Prüfen einer Oberfläche auf Materialfehler
EP3596570B1 (de) Verfahren zum bestimmen eines pfades entlang eines objekts, system und verfahren zum automatischen inspizieren eines objekts
EP3376213A1 (de) Verfahren und anordnung für eine zustandsüberwachung einer anlage mit betriebsmitteln
EP2266314B9 (de) Überwachungsverfahren und -vorrichtung für flugkorridore oder teile von flugkorridoren von flughäfen
DE102005010155A1 (de) Verfahren und Anordnung zum Gewinnen von Fernerkundungsdaten
WO2020048666A1 (de) Überwachungsvorrichtung und verfahren zur mann-über-bord-überwachung
EP3373092B1 (de) Verfahren zum lokalisieren einer störung eines systems
EP2813914A1 (de) Überwachung von technischen Anlagen mit einem unbemannten Flugobjekt
DE102012020093A1 (de) Anordnung zur Ortung, Erfassung und Überwachung von Eisbergen sowie Verfahren zur Bestimmung eines von treibenden Eisbergen ausgehenden Gefährdungspotentials für stationäre oder schwimmende Meeresbauwerke
DE102018122319A1 (de) Verfahren zum Erkennen einer Störung in einem System
EP3811286A1 (de) Verfahren und anordnung zum erkennen von objekten an anlagen
EP3372967A1 (de) Verfahren zum erkennen von systemfehlern einer photovoltaikanlage
DE102018114310A1 (de) Verfahren und Vorrichtung zur Außenhaut- und/oder Innenhaut-Inspektion von Infrastrukturobjekten mithilfe einer Drehflügel-Flugdrohne
EP3623893B1 (de) Verfahren zum lokalisieren einer störung eines systems
DE112020000170T5 (de) Unbemanntes Luftfahrzeug und Prüfverfahren
DE102019206083A1 (de) Verfahren zur optischen Inspektion, Kamerasystem und Fahrzeug
EP3811091A1 (de) Verfahren und anordnung zum erkennen von koronaentladungen einer anlage mit betriebsmitteln
DE102018121243A1 (de) Verfahren und Vorrichtung zur Inspektion von Photovoltaik- und/oder Sonnenkollektoranlagen mithilfe einer Drehflügel-Flugdrohne
DE102021115140B4 (de) Verfahren zum Steuern einer Flugbewegung eines Fluggeräts zum Landen oder zum Abwerfen einer Ladung sowie Fluggerät
DE10359868B3 (de) Verfahren zur Erkennung von sich hinter einem Flugzeug bildendem/n Kondensstreifen sowie Einrichtung zur Durchführung des Verfahrens
DE202018003266U1 (de) Überwachungseinrichtung für einen Brandmelder sowie Brandmelder mit einer derartigen Überwachungseinrichtung
DE102009043080B4 (de) Verfahren zur Detektion von Rauch und/oder Flammen und Detektionssystem
DE102013217824A1 (de) Vorrichtung und Verfahren zum Ermitteln einer geeigneten Position einer Sensoreinrichtung

Legal Events

Date Code Title Description
R163 Identified publications notified
R079 Amendment of ipc main class

Free format text: PREVIOUS MAIN CLASS: G06K0009030000

Ipc: G06V0030120000

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee