BR112019018930B1 - Método e arranjo para monitorar uma condição de uma instalação com meios de operação - Google Patents
Método e arranjo para monitorar uma condição de uma instalação com meios de operação Download PDFInfo
- Publication number
- BR112019018930B1 BR112019018930B1 BR112019018930-0A BR112019018930A BR112019018930B1 BR 112019018930 B1 BR112019018930 B1 BR 112019018930B1 BR 112019018930 A BR112019018930 A BR 112019018930A BR 112019018930 B1 BR112019018930 B1 BR 112019018930B1
- Authority
- BR
- Brazil
- Prior art keywords
- vehicle
- operating means
- overview
- masts
- data
- Prior art date
Links
- 238000000034 method Methods 0.000 title claims abstract description 52
- 238000009434 installation Methods 0.000 title claims abstract description 26
- 238000012544 monitoring process Methods 0.000 title claims abstract description 11
- 238000011156 evaluation Methods 0.000 claims abstract description 31
- 239000012212 insulator Substances 0.000 claims abstract description 30
- 235000005770 birds nest Nutrition 0.000 claims description 3
- 239000000615 nonconductor Substances 0.000 claims description 3
- 235000005765 wild carrot Nutrition 0.000 claims description 3
- 238000001514 detection method Methods 0.000 abstract description 5
- 230000003287 optical effect Effects 0.000 abstract description 2
- 230000008901 benefit Effects 0.000 description 17
- 238000013459 approach Methods 0.000 description 13
- 238000004891 communication Methods 0.000 description 11
- 230000015654 memory Effects 0.000 description 4
- 238000011161 development Methods 0.000 description 3
- 230000018109 developmental process Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000011179 visual inspection Methods 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 238000013480 data collection Methods 0.000 description 2
- 230000033001 locomotion Effects 0.000 description 2
- 238000012545 processing Methods 0.000 description 2
- 230000011218 segmentation Effects 0.000 description 2
- 239000000725 suspension Substances 0.000 description 2
- 238000001429 visible spectrum Methods 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 1
- 230000008859 change Effects 0.000 description 1
- 239000003086 colorant Substances 0.000 description 1
- 238000013481 data capture Methods 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 239000000428 dust Substances 0.000 description 1
- 238000010616 electrical installation Methods 0.000 description 1
- 238000005265 energy consumption Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 238000012423 maintenance Methods 0.000 description 1
- 238000007726 management method Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 239000000463 material Substances 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 238000003909 pattern recognition Methods 0.000 description 1
- 238000007781 pre-processing Methods 0.000 description 1
- 230000008569 process Effects 0.000 description 1
- 230000005855 radiation Effects 0.000 description 1
- 238000001454 recorded image Methods 0.000 description 1
- 230000008439 repair process Effects 0.000 description 1
- 238000007665 sagging Methods 0.000 description 1
- 230000002123 temporal effect Effects 0.000 description 1
- 230000007704 transition Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/176—Urban or other man-made structures
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/95—Investigating the presence of flaws or contamination characterised by the material or shape of the object to be examined
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64C—AEROPLANES; HELICOPTERS
- B64C39/00—Aircraft not otherwise provided for
- B64C39/02—Aircraft not otherwise provided for characterised by special use
- B64C39/024—Aircraft not otherwise provided for characterised by special use of the remote controlled vehicle type, i.e. RPV
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U10/00—Type of UAV
- B64U10/10—Rotorcrafts
- B64U10/13—Flying platforms
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/10—Simultaneous control of position or course in three dimensions
- G05D1/101—Simultaneous control of position or course in three dimensions specially adapted for aircraft
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0004—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
- G06V20/17—Terrestrial scenes taken from planes or by drones
-
- H—ELECTRICITY
- H02—GENERATION; CONVERSION OR DISTRIBUTION OF ELECTRIC POWER
- H02G—INSTALLATION OF ELECTRIC CABLES OR LINES, OR OF COMBINED OPTICAL AND ELECTRIC CABLES OR LINES
- H02G1/00—Methods or apparatus specially adapted for installing, maintaining, repairing or dismantling electric cables or lines
- H02G1/02—Methods or apparatus specially adapted for installing, maintaining, repairing or dismantling electric cables or lines for overhead lines or cables
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B64—AIRCRAFT; AVIATION; COSMONAUTICS
- B64U—UNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
- B64U2101/00—UAVs specially adapted for particular uses or applications
- B64U2101/30—UAVs specially adapted for particular uses or applications for imaging, photography or videography
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01N—INVESTIGATING OR ANALYSING MATERIALS BY DETERMINING THEIR CHEMICAL OR PHYSICAL PROPERTIES
- G01N21/00—Investigating or analysing materials by the use of optical means, i.e. using sub-millimetre waves, infrared, visible or ultraviolet light
- G01N21/84—Systems specially adapted for particular applications
- G01N21/88—Investigating the presence of flaws or contamination
- G01N21/8851—Scan or image signal processing specially adapted therefor, e.g. for scan signal adjustment, for detecting different kinds of defects, for compensating for structures, markings, edges
- G01N2021/8854—Grading and classifying of flaws
- G01N2021/8867—Grading and classifying of flaws using sequentially two or more inspection runs, e.g. coarse and fine, or detecting then analysing
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30108—Industrial image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
- G06T2207/30184—Infrastructure
Landscapes
- Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Aviation & Aerospace Engineering (AREA)
- Remote Sensing (AREA)
- Multimedia (AREA)
- Automation & Control Theory (AREA)
- Radar, Positioning & Navigation (AREA)
- Analytical Chemistry (AREA)
- Chemical & Material Sciences (AREA)
- Pathology (AREA)
- Quality & Reliability (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Health & Medical Sciences (AREA)
- Biochemistry (AREA)
- Immunology (AREA)
- Mechanical Engineering (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Length Measuring Devices By Optical Means (AREA)
- Traffic Control Systems (AREA)
- Image Processing (AREA)
- Electric Propulsion And Braking For Vehicles (AREA)
Abstract
a presente invenção refere-se a um método para o monitoramento de uma condição de uma instalação com meios de operação (7), no qual os dados de visão geral são detectados por meio de um primeiro veículo (9) com um arranjo de sensores de visão geral (17, 18) para detecção óptica da instalação e a os meios de operação são identificados nos dados de visão geral por meio de um dispositivo de avaliação (20) e as posições dos meios de operação são determinadas levando em consideração a posição do primeiro veículo. as fotos detalhadas dos meios de operação são produzidas por meio de uma câmera de detalhes (19) a bordo de um segundo ou primeiro veículo, orientada em relação às respectivas posições dos meios de operação. a presente invenção também se refere a um arranjo correspondente para a realização do método de acordo com a invenção. um modo de modalidade se refere ao monitoramento da condição de mastros de alta-tensão (1) com linhas livres de alta-tensão (29) que são presas entre os mastros. os isoladores (7) são suspensos nos membros transversais (4, 5, 6) como meios de operação.
Description
[001] A presente invenção refere-se a um método de acordo com o reivindicado no preâmbulo da reivindicação 1 e a um arranjo de acordo com o reivindicado no preâmbulo da reivindicação 16.
[002] As infraestruturas, por exemplo, linhas de alta-tensão, tur binas eólicas ou estruturas de pontes, em geral têm grandes dimensões. Mastros de alta-tensão com altura de mastro em torno de 100 m não são incomuns. Uma inspeção visual por pessoal treinado, parcialmente com o uso de um auxílio de ampliação óptica, por exemplo, binóculos, não atende aos requisitos de documentação contínua e verificável e geralmente pode ser realizada apenas aqui e ali com uma quantidade razoável de esforço. Além disso, uma análise de progressão temporal dos danos no âmbito da detecção de alterações entre diferentes tempos de medição não é possível.
[003] Se a intenção é realizar a captura automatizada de imagens de meios operacionais, por exemplo, isoladores, em linhas aéreas de alta-tensão, deve ser atualmente assegurado, no âmbito de uma inspeção e avaliação visual, os detalhes da superfície que revelam danos menores também são capturados. Uma alta resolução de imagem é necessária para esse fim. Com o atual nível de tecnologia da câmera, não é possível usar uma única câmera para capturar simultaneamente a totalidade da instalação e obter a resolução de superfície necessária.
[004] Embora pareça ser possível sobrevoar sequencialmente regiões de altura individuais, por exemplo, no caso de estruturas verticais como turbinas eólicas, isso não é econômico em relação ao gerenciamento de voo no caso de estruturas de linhas, como linhas de alta-tensão uma vez que as redes de linhas devem ser capturadas a uma extensão de centenas de quilômetros.
[005] Voar sobre linhas de alta-tensão ou outras instalações por meio de dispositivos de varredura a laser (chamado LIDAR, em particular "varredura a laser no ar" (ALS)) e gravação de imagens (fotografia aérea) com inspeção visual subsequente por um engenheiro tem sido uma prática comum há mais de uma década. Dentro do escopo da invenção, o termo "foto aérea" é usado como sinônimo do termo "imagem aérea". No caso da gravação em formato completo de imagens aéreas, câmeras com até 100 megapixels estão atualmente disponíveis. Por exemplo, câmeras aéreas do tipo iXU / iXU-RS 1000 são conhecidas no folheto do produto "Câmeras aéreas da primeira fase, soluções fotográficas totalmente integradas" da PhaseOne Industrial, Roskildeej 39, DK-2000 Frederiksberg, Dinamarca, http://industrial. phaseone. com/iXU_camera_system.aspx. No entanto, refletido na altura total da infraestrutura, o uso dessa câmera não resulta em resoluções que permitem a detecção de alterações sutis da superfície, por exemplo, traços de pó, rachaduras ou casos de lascas de tinta, na faixa de mm. Portanto, não existe uma maneira possível conhecida de fornecer imagens detalhadas dos meios operacionais a serem monitoradas com resolução suficiente sem um engenheiro treinado.
[006] A publicação de Christoph Waldhauser et al., "Automated Classification of Airborne Laser Scanning Point Clouds", Springer Proceedings in Mathematics & Statistics, vol. 97, páginas 269-292, setembro de 2014, divulga a prática de usar uma aeronave para capturar objetos no chão usando um dispositivo de varredura a laser na forma de um conjunto de dados em nuvem de pontos. Além disso, os autores Jie e Toth descrevem, em "Topographic laser ranging and scanning: principles and processing", publicado pela CRC press, 2008, a prática de registrar objetos sob uma plataforma de voo (tripulada ou não tripulada) na forma de uma assim chamada nuvem de pontos 3D por meio de varredura a laser no ar (ALS) da referida plataforma.
[007] Com base em métodos conhecidos para capturar fotos aé reas de alta resolução de instalações, a invenção é baseada no objetivo de especificar um método automatizado que pode ser usado para monitorar a condição de uma instalação de maneira comparativamente rápida e econômica.
[008] A presente invenção alcança esse objetivo por meio de um método de acordo com a reivindicação 1.
[009] O objetivo é usar as imagens da câmera detalhada para realizar uma avaliação, a fim de detectar danos à instalação que são monitorados em relação às suas condições. Essa avaliação das imagens detalhadas pode ser realizada manualmente por um engenheiro em um centro de controle, por exemplo, ou por uma máquina usando um software adequado. O pré-processamento da máquina e a avaliação manual subsequente também são possíveis. Se forem detectados danos a um isolador em uma linha de energia elétrica aérea, por exemplo, um reparo poderá ser iniciado antes que os meios operacionais falhem. Isso aumenta a disponibilidade da instalação e de toda a rede de energia, economizando custos com falhas. Além disso, inspeções manuais antieconômicas da instalação, por exemplo, de uma linha de energia elétrica aérea, não são necessárias.
[0010] Uma vez que o dispositivo sensor captura uma vista geral de toda a infraestrutura ou instalação, os elementos de infraestruturas individuais (por exemplo, isoladores) ainda são resolvidos de modo relativamente grosseiro no seu interior, por exemplo em um conjunto de dados de nuvens de pontos definidos e um conjunto de dados de imagem definidas. Detalhes desses elementos de infraestrutura ainda não podem ser discernidos nessas imagens. Dentro do escopo da invenção, o termo "conjunto de dados de nuvem de pontos" denota uma nuvem de pontos 3D obtida usando um dispositivo de varredura a laser.
[0011] Como câmera de detalhe, é possível usar, por exemplo, uma câmera que pode criar fotos aéreas a uma distância de várias dúzias a algumas centenas de metros, o que é típico de um viaduto, as referidas fotos aéreas tornam danos ainda menores na faixa de mm discerníveis. Em comparação com uma câmera de visão geral, por exemplo, uma distância focal comparativamente mais longa, ou seja, uma lente telefoto, pode ser usada para essa finalidade. Por exemplo, esse dano pode ser uma rachadura de 2,5 cm de comprimento em um escudo isolador.
[0012] É particularmente preferido se usar uma câmera colorida. Também é vantajoso se a câmera for montada de maneira rotativa e giratória para permitir uma orientação precisa em relação às posições determinadas dos meios de operação. Nesse caso, a câmera de detalhes pode ser rastreada vantajosamente durante o movimento do veículo ao longo da instalação, de maneira que o desfoque de movimento das imagens detalhadas seja neutralizado. Para este fim, a velocidade e a direção do veículo podem ser determinadas com base em uma determinação temporalmente precisa da posição do veículo. A câmera de detalhes pode estar na forma de uma câmera de alta resolução. Por conta da seção de imagem que é muito menor em comparação com uma câmera de visão geral, a resolução da câmera de detalhes pode ser selecionada para ser ainda menor do que a resolução de uma câmera de visão geral.
[0013] Como dispositivo de determinação de posição adequado, é possível usar, por exemplo, uma determinação de posição baseada em satélite, por exemplo por meio de GPS ou Galileo, no veículo. Uma posição no sentido da presente invenção nem sempre indica a longitude e latitude geográfica, mas também a altura (por exemplo, acima do nível do mar). Nesse caso, uma determinação de posição temporalmente precisa, em particular uma determinação de posição exata de ms, é possível, por exemplo, se o veículo se mover ao longo da instalação. É preferível que o dispositivo de determinação da posição possa determinar a posição com uma resolução inferior a um metro. Nesse caso, o chamado sistema GNSS/RTK é mais preciso que o GPS.
[0014] O dispositivo de avaliação pode ser proporcionado com dispositivos de computador convencionais e memórias de dados, por exemplo. Pode ser proporcionado a bordo do veículo ou centralmente em um centro de controle.
[0015] Como veículo, é possível usar, por exemplo, um caminhão que conduz ao longo de uma linha de energia elétrica aérea em uma estrada. No entanto, o veículo também pode ser uma aeronave, como um avião, um helicóptero ou semelhante. Fotos aéreas resultam no caso de uma aeronave. O veículo pode ser operado de maneira tripulada ou não, possivelmente de maneira autônoma.
[0016] A vantagem importante do método de acordo com a pre sente invenção em relação às soluções anteriores reside na automação do processo de gravação. Os elementos de infraestrutura de interesse são localizados automaticamente e, em seguida, são registrados automaticamente em detalhes. Visão geral e imagens detalhadas são habilmente combinadas para obter uma visão geral completa da infra- estrutura. Regiões potencialmente particularmente relevantes são capturadas seletivamente em uma resolução de detalhes mais alta, o que permite análises e avaliações diferenciadas.
[0017] A câmera "IGI Urban Mapper", IGI mbH, Langenauer Str. 46, D-57223 Kreuztal, "www.IGI-SYSTEMS.com", é realmente conhecida a partir da brochura com o mesmo nome e foi desenvolvida para criar imagens urbanas tridimensionais. No entanto, para capturar uma infraestrutura como uma linha de energia elétrica aérea com meios operacionais, uma pluralidade de câmeras teria que ser combinada para capturar um mastro inteiro, por exemplo. Isso é comparativamen- te muito caro e, com um alto requisito de peso e espaço, impõe altas demandas em uma aeronave.
[0018] Como alternativa para a presente invenção, também seria possível usar uma câmera de varredura de linha de alta resolução, mas isso implicaria no problema de orientar as linhas de imagem gravadas uma em relação à outra de uma maneira extremamente precisa, pois, caso contrário, distorções serão induzidas. Em resumo, pode ser determinado que as abordagens anteriores não são adequadas para a aplicação do monitoramento automatizado de uma infraestrutura com grande extensão vertical e horizontal, por exemplo, uma linha de energia elétrica aérea.
[0019] Em uma modalidade preferida do método de acordo com a presente invenção, um dispositivo de varredura a laser para capturar um conjunto de dados em nuvem de pontos é usado para um arranjo geral do sensor. Um dispositivo de varredura a laser é, por exemplo, um sistema LIDAR, usado em veículos a motor (parcialmente) autônomos para obter modelos tridimensionais do ambiente do veículo. O laser mede, respectivamente, os valores da distância entre o sensor e os objetos no ambiente, com o resultado de que um conjunto de dados em nuvem de pontos surge de uma multiplicidade de medições. Se a posição do sensor ou do veículo for conhecida, a posição de um ponto do conjunto de dados da nuvem de pontos pode ser reconstruída com muita precisão, ao se referir à posição do dispositivo de varredura a laser ou do objeto voador e à direção, com relação ao qual o dispositivo de digitalização a laser está orientado. Nos métodos dinâmicos de medição, por exemplo, digitalização a laser móvel (MLS) ou digitalização a laser no ar (ALS), os leitores a laser são usados em conjunto com um sistema GNSS/INS (sistema global de navegação por satélite ou sistema de navegação inercial). Isso é usado para determinar uma trajetória do veículo para capturar o ambiente do veículo na forma de uma nuvem de pontos 3D. Se a orientação relativa entre o sistema GNSS/INS e o leitor a laser for conhecida, uma nuvem de pontos 3D pode ser gerada combinando a trajetória do veículo e as medições de varredura a laser (distância e direções).
[0020] Nesse caso, é útil se usar o dispositivo de varredura a laser para capturar toda a dimensão vertical da instalação, ou seja, sobre toda a altura de um mastro, por exemplo. Atualmente, os dispositivos de varredura a laser são tipicamente usados sempre quando se monitora uma condição de uma instalação por meio de uma aeronave, porque a flacidez de uma linha e a distância entre uma linha e o solo também podem ser capturadas usando o referido dispositivo. Além disso, é possível se monitorar a proximidade da vegetação à instalação, ou seja, se árvores ou arbustos, por exemplo, estão crescendo em direção a uma linha de energia elétrica aérea.
[0021] Em uma modalidade preferida do método de acordo com a presente invenção, uma câmera de visão geral para capturar um conjunto de dados de imagem é usada para um arranjo da disposição do sensor de visão geral. Como câmera de visão geral para capturar um conjunto de dados de imagem, é possível usar uma câmera que, devido ao design, possivelmente como resultado de um mecanismo de ampliação adequado ou de uma lente correspondente, possa capturar uma seção similarmente grande do ambiente do veículo como dispositivo de digitalização a laser. A resolução deve ser suficiente para tornar objetos de um tamanho de alguns cm a dm discerníveis, pelo menos em contornos. Os referidos podem ser, por exemplo, meios opera-cionais, como isoladores ou outros corpos estranhos, como ninhos de pássaros. Uma lente grande angular é preferencialmente usada para a câmera de visão geral.
[0022] Também é vantajoso se a câmera de visão geral estiver orientada substancialmente da mesma maneira que o dispositivo de leitura a laser, se também for usado no arranjo do sensor de visão geral. Isso pode ser conseguido, por exemplo, organizando o dispositivo de leitura a laser e a câmera de visão geral em um dispositivo de fixação, com o resultado de que eles sempre apontam na mesma direção. A orientação do dispositivo de leitura a laser e da câmera de visão geral e, ao usar um dispositivo de fixação comum, a orientação do dispo-sitivo de fixação pode ser determinada, se um veículo for utilizado, em relação ao veículo, com o resultado de que não é possível alterar a "direção da visualização" durante a coleta de dados. Como alternativa, é possível se obter uma direção de visualização que pode ser alterada durante a coleta de dados montando o dispositivo de fixação ou os dois sensores individuais - o leitor a laser e a câmera de visão geral - de maneira rotativa e pivotável, com o resultado de que, se um objeto voador é usado como veículo, por exemplo, se torna possível definir a direção em relação à direção de voo ou a uma trajetória de voo conhecida no planejamento de voo anterior por meio de motores elétricos ou similares.
[0023] Como alternativa a uma orientação substancialmente idên tica do dispositivo de leitura a laser e da câmera de visão geral, é possível se usar um dispositivo de leitura a laser projetado para uma faixa de direção comparativamente grande de 330°, por exemplo. Isso possibilita que o dispositivo de leitura a laser sempre colete dados em nuvem em 3D em pontos suficientes, mesmo sem corresponder à direção de visualização de uma câmera de visão geral, a fim de combinar os dados com as gravações de imagem a partir de uma câmera.
[0024] A orientação do dispositivo de leitura a laser e/ou câmera de visão geral pode ser selecionada, por exemplo, em relação a um eixo longitudinal através do objeto voador de tal maneira que, se o objeto voador voa para a frente, ou seja em uma linha reta e paralela à superfície da Terra, o resultado é um ângulo de visão orientado obli- quamente para baixo (por exemplo, entre 30° e 70° em relação à superfície da Terra). Isso tem a vantagem de que uma instalação organizada em uma grande área, por exemplo, uma linha de energia elétrica aérea, pode ser facilmente capturada. Além disso, a orientação pode ser efetuada de tal maneira que o ângulo de visão seja inclinado para um lado da trajetória de voo, com o resultado de que um ângulo entre 30° e 70° em relação à superfície da Terra resulte para a direita ou esquerda, por exemplo. Isso tem a vantagem de que os meios de operação e outros objetos são gravados do lado em vez de diretamente de cima, como resultado do qual a forma tridimensional pode ser discernida de uma maneira aprimorada e os objetos podem ser facilmente atribuídos. Por exemplo, durante uma passagem aérea com um ângulo de visão oblíquo, um isolador aparece, para uma primeira aproximação, como um tubo entre o mastro e a linha de energia elétrica aérea. Por outro lado, diretamente da frente, um isolador aparece apenas como um retângulo e, diretamente de cima, apenas como um círculo.
[0025] Se uma câmera de visão geral e um dispositivo de digitali zação a laser forem usados juntos, é vantajoso sobrepor ou registrar espacialmente o conjunto de dados de imagem e os dados da nuvem de pontos de forma que os dados da nuvem de pontos e os dados de imagem da câmera de visão geral são armazenados um em relação ao outro em uma memória de dados interna do veículo, por exemplo, com o resultado de que uma posição exata pode ser atribuída a um objeto na imagem por meio da nuvem de pontos.
[0026] Em uma modalidade preferida do método de acordo com a presente invenção, a luz visível é capturada por meio da câmera de visão geral. Isso é uma vantagem, pois muitos objetos são claramente discerníveis no espectro visível, por exemplo, objetos com cores diferentes das do ambiente.
[0027] Em outra modalidade preferida do método de acordo com a presente invenção, a luz infravermelha e/ou ultravioleta é capturada por meio da câmera de visão geral. Isso é uma vantagem, porque os meios de operação elétricos aquecidos durante a operação, por exemplo, são facilmente discerníveis como fontes de calor em relação ao ambiente fora do espectro visível, em particular por meio de radiação térmica na faixa de infravermelho.
[0028] Em outra modalidade preferida do método de acordo com a presente invenção, os dados da visão geral são obtidos pela primeira vez e as imagens detalhadas são obtidas posteriormente pela segunda vez e após a determinação das posições dos meios de operação. Isso é uma vantagem, porque a referida abordagem é particularmente simples. Os dados de visão geral, por exemplo, dados em nuvem de pontos e/ou dados de imagem, são obtidos antes de tudo usando um primeiro veículo. Os referidos podem então ser avaliados, por exemplo, fora de linha depois que o veículo retornar ao centro de controle e as posições dos meios operacionais de interesse podem ser determinadas. A instalação pode ser examinada novamente usando o segundo veículo para capturar as imagens detalhadas com a câmera detalhada.
[0029] Em outra modalidade preferida do método de acordo com a presente invenção, o dispositivo de avaliação é proporcionado no primeiro veículo. Isso é uma vantagem, pois os dados da visão geral podem ser processados virtualmente em tempo real se o dispositivo de avaliação for projetado de acordo, com o resultado de que, no caso de uma única operação de captura, por exemplo, um único voo sobre uma instalação de linha de energia elétrica aérea, as posições dos meios operacionais podem ser determinadas diretamente e as imagens detalhadas podem ser capturadas. Isso economiza tempo, custos e esforço para uma segunda operação de captura para as imagens detalhadas. O dispositivo de avaliação pode ser projetado com dispositivos de computador convencionais e memórias de dados.
[0030] Adicionalmente ou alternativamente, o veículo pode coletar conjuntos de dados em uma primeira operação de captura por meio do dispositivo de leitura a laser e/ou da câmera de visão geral e pode armazenar os referidos conjuntos de dados. Após a primeira operação de captura, os conjuntos de dados armazenados podem ser lidos e processados para detectar as posições dos meios de operação e planejar uma segunda operação de captura para a instalação. Durante a segunda operação de captura, a câmera de detalhes para fotos aéreas é usada. Para esta modalidade, basta que o primeiro veículo para a primeira operação de captura esteja equipado com o dispositivo de varredura a laser e/ou a câmera de visão geral e um segundo veículo para uma segunda operação de captura esteja equipado apenas com a câmera de detalhes.
[0031] Em outra modalidade preferida do método de acordo com a presente invenção, o dispositivo de avaliação é proporcionado em um centro de controle para monitorar a condição. Isso é uma vantagem, porque a determinação das posições dos meios de operação, conforme descrito no início, não precisa ser realizada no veículo. Isso torna possível economizar peso e consumo de energia no veículo, o que torna o veículo comparativamente mais econômico, menor e utilizável em distâncias maiores. Em um desenvolvimento preferido da presente modalidade, uma conexão de comunicação pode ser mantida substancialmente continuamente entre o veículo e o dispositivo de avaliação ou centro de controle, com o resultado de que o veículo transmite os dados de visão geral para o dispositivo de avaliação e recebe as posições presumidas dos meios operacionais do dispositivo de avaliação. Dessa maneira, as imagens detalhadas podem ser obtidas diretamente, mesmo em uma única operação de captura, o que economiza tempo, custos e esforço para uma segunda operação de captura das imagens detalhadas.
[0032] Em outra modalidade preferida do método de acordo com a presente invenção, é proporcionado um dispositivo de avaliação em nuvem. O dispositivo de avaliação em nuvem pode ser proporcionado como um aplicativo em nuvem, por exemplo, e pode recorrer a centros de computação externos para detectar as posições. É vantajoso se o objeto voador possibilitar a comunicação permanente de dados, por exemplo, por rede de satélite, para trocar dados com a nuvem.
[0033] Em outra modalidade preferida do método de acordo com a presente invenção, um drone aéreo é usado como o primeiro e/ou o segundo veículo. Um drone aéreo no sentido da presente invenção é uma aeronave não tripulada. Um drone multicopter que, para uma operação de captura de dados de visão geral e/ou imagens detalhadas, voa comparativamente devagar, por exemplo, a 30-40 km/h, e a uma baixa altura ao longo da instalação é adequado, por exemplo. Isso tem a vantagem de que um drone não tripulado exclui o risco que teria que ser suportado por um piloto humano. Se houver um acidente, por exemplo, geralmente apenas danos materiais podem ser esperados. Como nos drones militares hoje em dia, por exemplo, o drone geralmente pode ser controlado remotamente por rádio a partir de um centro de controle. É preferível que o drone voe automaticamente sobre uma rota predefinida a uma altura predefinida. Isso é particularmente econômico. Nesse caso, a rota de voo pode ser planejada, por exemplo, de forma automatizada, com base nos planos de desenvolvimento dos operadores de instalação.
[0034] Alternativamente, no entanto, é também possível se usar um objeto voador convencional tal como um avião ou um helicóptero com um piloto.
[0035] Em outra modalidade preferida do método de acordo com a presente invenção, um único veículo que possui um arranjo geral do sensor e a câmera de detalhes é usada como o primeiro e o segundo veículo. Essa é uma vantagem, pois apenas um único veículo é necessário para executar o método. Isso economiza custos na fabricação e configuração do veículo.
[0036] Em outra modalidade preferida do método de acordo com a presente invenção, a câmera detalhada é usada na mesma operação de captura que o dispositivo de leitura a laser e a câmera de visão geral. Isso é uma vantagem porque o esforço para uma segunda operação de captura, por exemplo, outro viaduto com uma aeronave, é então dispensado. O pré-requisito para esse procedimento é que o dispositivo de avaliação forneça uma avaliação da posição dos objetos a serem filmados, por exemplo, meios operacionais, com rapidez suficiente para que a câmera detalhada possa ser imediatamente direcionada o mesmo.
[0037] Em outra modalidade preferida do método de acordo com a presente invenção, as dimensões dos meios de operação são adicionalmente determinadas. Essa é uma vantagem, pois as dimensões tridimensionais também são conhecidas além da posição, com o resultado de que a câmera detalhada pode ser guiada, no caso de objetos particularmente grandes, de tal maneira que os referidos objetos possam ser fotografados completamente de modo confiável.
[0038] Em outra modalidade preferida do método de acordo com a presente invenção, uma instalação elétrica aérea com mastros e linhas é usada como instalação, em que meios elétricos de operação são dispostos nos mastros.
[0039] Em outra modalidade preferida do método de acordo com a presente invenção, isoladores elétricos nos mastros são usados como os meios de operação.
[0040] Em outra modalidade preferida do método de acordo com a presente invenção, as linhas são detectadas usando o dispositivo de avaliação por meio de um método de classificação automática treinado com base nos dados da amostra, e um modelo simplificado de linha das linhas detectadas é criado, e as posições dos isoladores são detectadas respectivamente no ponto de contato de duas linhas modeladas. Isso é realizado modelando inicialmente o percurso da linha, ou seja, representando o mesmo por meio da chamada curva de catená- ria ou funicular. Isso é conhecido há muito tempo e é explicado, por exemplo, na Wikipedia: https://de.wikipedia.org/wiki/Kettenlinie_(Ma- thematik). Por exemplo, o ponto de conexão de um isolador pode ser determinado a partir dos pontos de transição entre os pontos da classe "linha" e "mastro" ou os pontos de interseção de duas catenárias de seções de linha sucessivas. O método de classificação automática pode capturar as linhas, por exemplo, por meio da chamada classificação semântica na nuvem de pontos gravada; isto é, os pontos no conjunto de dados da nuvem de pontos são atribuídos a classes predefinidas - em particular a classe "linha". A referida etapa pode ser realizada por meio de uma ampla variedade de abordagens. As abordagens de aprendizado de máquina podem ser mencionadas como um método possível. Nesse caso, os recursos que descrevem a estrutura espacial são reunidos em primeiro lugar para cada ponto de dados da nuvem de pontos e, então, um chamado classificador é treinado nesse espaço de recursos. Uma abordagem adequada para um método de classificação automática é conhecida na publicação de Christoph Waldhauser et al., "Automated Classification of Airborne Laser Scanning Point Clouds", Springer Proceedings in Mathematics & Statistics, vol. 97, páginas 269-292, setembro de 2014.
[0041] Outra abordagem adequada é conhecida na publicação "Fast semantic segmentation of 3D point clouds using a dense CRF with learned parameters" por Daniel Wolf et al., Conferência Internacional sobre Robótica e Automação, páginas 4867-4873, 2015. Com base em um conjunto de dados de imagens de um interior, o método descrito é capaz de detectar objetos e considerar, em particular, que objetos específicos, por exemplo, uma cadeira e uma mesa, podem ser encontrados com frequência dispostos de maneira espacialmente próximas. Aplicado ao presente exemplo de uma linha de energia elétrica aérea, pode se esperar um isolador, por exemplo, onde um mastro e uma linha também foram detectados.
[0042] A publicação "Fast semantic segmentation of 3d point clouds with strongly varying density" de Timo Hackel et al., ISPRS Annals - ISPRS Congress, Praga, 2016, também trata do tópico de detecção de objetos em conjuntos de dados de nuvens de pontos.
[0043] Em outra modalidade preferida do método de acordo com a presente invenção, as linhas e os mastros são detectados usando o dispositivo de avaliação por meio de um método de classificação automática treinado com base nos dados da amostra, e é criado um modelo de linha simplificado das linhas e mastros detectados, e as posições dos isoladores são detectadas no ponto de contato dos mastros com as linhas. De modo análogo, as mesmas abordagens de solução explicadas para a modalidade anterior podem ser usadas.
[0044] Em outra modalidade preferida do método de acordo com a presente invenção, a posição de um meio de operação em um mastro é estimada usando o dispositivo de avaliação, determinando, com base em uma posição anteriormente conhecida do mastro e uma seção já capturada de uma linha para o referido mastro, a posição dos meios de operação em um ponto de interseção de um percurso de linha extrapolado da seção com uma linha vertical através da posição do mastro. Esta modalidade tem a vantagem de estimar as posições que são de interesse e devem ser monitoradas em um mastro até certo ponto de uma maneira antecipada, mesmo antes que o arranjo geral do sensor tenha capturado o referido mastro. Portanto, a câmera de detalhes já pode começar a coletar imagens detalhadas à medida que se apro- xima do mastro relevante. Isso aumenta a probabilidade de pelo menos uma das imagens detalhadas representando os meios operacionais serem monitoradas em resolução mais alta e em boas condições de visibilidade. A orientação antecipada da câmera detalhada, portanto, aumenta a confiabilidade do monitoramento da condição e, portanto, a disponibilidade da instalação.
[0045] Em um desenvolvimento da modalidade mencionada aci ma, uma altura de montagem da linha já capturada é levada em consideração determinando a posição dos meios de operação em um ponto de interseção do percurso da linha extrapolado com um plano horizontal na altura de montagem. Isso é uma vantagem, pois aprimora a qualidade da determinação da posição.
[0046] Em uma modalidade preferencial alternativa do método de acordo com a presente invenção, a posição de um meio de operação em um mastro é estimada usando o dispositivo de avaliação, determinando, com base em uma posição previamente conhecida do mastro e uma altura de montagem já capturada, a posição do meio de operação no ponto de interseção de uma linha vertical através da posição do mastro com um plano horizontal na altura de montagem. Esta modalidade tem a vantagem de que, após capturar dados relacionados a um mastro em uma fileira de mastros de uma linha de transmissão aérea, as posições dos meios de operação já podem ser estimadas se a altura de montagem for semelhante em cada caso. É o caso de terrenos planos, por exemplo. No caso de terrenos ondulados ou montanhosos, um perfil de altura pode ser levado em consideração de tal maneira que uma altura de montagem que difere de mastro para mastro também possa ser processada.
[0047] Em outra modalidade preferida do método de acordo com a presente invenção, como alternativa ou além dos meios operacionais, pelo menos um dos outros objetos é detectado e capturado com ima- gens detalhadas: sinais nos mastros, anomalias nas linhas, acessórios na linha e/ou mastros, anomalias no mastro, ninhos de pássaros. Nesse caso, os outros objetos são detectados analogicamente e as posições desses objetos são armazenadas da mesma maneira descrita acima para os isoladores.
[0048] Em outra modalidade preferida do método de acordo com a presente invenção, os meios de operação detectados são atribuídos a grupos espaciais com base em sua posição por meio do dispositivo de avaliação, de modo a reduzir o número de operações de orientação necessárias da câmera de detalhes por meio dos grupos. A câmera de detalhes ou a lente são projetadas de tal maneira que, com o conhecimento das dimensões típicas do isolador, por exemplo, o isolador é capturado em formato completo e em sua totalidade na imagem. A prática de registrar grupos de isoladores ou agrupamentos no caso de isoladores próximos, a fim de reduzir as posições de configuração do sistema de sensor de detalhe economiza tempo e custos durante a captura de dados.
[0049] Em outra modalidade preferida do método de acordo com a presente invenção, os meios de operação são detectados com base nos dados de imagem configurados por meio do dispositivo de avaliação, em que as respectivas posições dos meios de operação são determinadas com base em dados de amostra, levando em consideração o conjunto de dados de nuvem de pontos. Essa abordagem de detecção direta de isoladores ou outros objetos nos dados da imagem utiliza retroprojeção no espaço 3D usando o relacionamento conhecido da imagem em relação às coordenadas fornecidas pelo conjunto de dados da nuvem de pontos. Por exemplo, é possível seguir uma abordagem conforme descrito por Joseph Redmon et al. na publicação "You Only Look Once: Unified, Real-Time Object Detection", Conferência sobre visão computacional e reconhecimento de padrões (CVPR), 2016, páginas 779-788. Nesse caso, o algoritmo pode ser treinado diretamente com imagens de amostra de meios operacionais e similares, gravadas de diferentes perspectivas.
[0050] Uma abordagem semelhante e igualmente adequada é co nhecida na publicação "Faster R-CNN: Towards real-time object detection with region proposal networks" por Shaoquing Ren, Advances in neural information processing systems (páginas 91-99), 2015.
[0051] Com base em arranjos conhecidos para a captura manual de fotos aéreas de alta resolução de instalações, a presente invenção também se baseia no objetivo de especificar um arranjo que possa ser usado para monitorar uma condição de uma instalação de forma automatizada e comparativamente rápida e de modo econômico.
[0052] A presente invenção alcança esse objetivo por meio de um arranjo como reivindicado na reivindicação 16. As modalidades preferidas emergem das reivindicações 17 a 28. As mesmas vantagens explicadas desde o início para o método de acordo com a invenção surgem analogamente para o arranjo de acordo com a presente invenção e suas modalidades.
[0053] A presente invenção deve ser descrita abaixo, para melhor explicação, com base em modalidades exemplificativas e Figuras es-quemáticas associadas, nas quais:
[0054] Figura 1 mostra um exemplo de modalidade de um arranjo de acordo com a presente invenção, e
[0055] Figura 2 mostra uma vista detalhada de um objeto voador de acordo com o arranjo a partir da Figura 1, e
[0056] Figura 3 mostra uma seção de imagem ampliada de um mastro de alta-tensão com isoladores de acordo com a Figura 1, e
[0057] Figura 4 mostra um exemplo de modalidade de estimativa de antecipação da posição dos meios de operação.
[0058] A Figura 1 mostra um exemplo de modalidade de um arran- jo de acordo com a presente invenção para monitorar uma condição de uma instalação com meios de operação 7. Neste exemplo, a instalação são mastros de alta-tensão 1 com linhas aéreas de alta-tensão 29 que são apoiadas entre os mastros 1. Os mastros 1 ficam em pé livremente no chão 2. Nesse caso, os mastros 1 têm uma altura típica 3. Um mastro 1 é ilustrado de modo esquemático na parte esquerda da figura 1. O mesmo tem três membros transversais 4, 5, 6 em alturas diferentes, de cada um dos quais dois isoladores 7 estão suspensos. As linhas aéreas de alta-tensão 29 são fixadas aos isoladores 7. Por razões de maior clareza, apenas duas linhas de energia elétrica aéreas 29 são ilustradas.
[0059] Um objeto voador 9 é usado para obter imagens detalhadas dos isoladores 7. Os danos nos isoladores 7 podem ser detectados manualmente ou pela máquina com base em imagens detalhadas, com o resultado de que a manutenção ou substituição de um isolador danificado 7 pode ser realizada em tempo útil, mesmo antes de um isolador falhar.
[0060] O objeto voador 9 é um drone não tripulado que voa auto maticamente sobre a instalação que tem mastros 1 e linhas aéreas 29. O drone 9 possui um dispositivo de detecção de posição 10 que recebe sinais do "Sistema de Posicionamento Global (GPS)" 16 de um GPS satélite 8 e, portanto, pode determinar a posição do objeto voador a qualquer momento, de uma maneira altamente precisa. O objeto voador 9 tem um arranjo de sensor de visão geral 17, 18 que é na forma de uma câmera de visão geral 17 e um dispositivo de leitura a laser 18. O objeto voador 9 também possui uma câmera de detalhes 19. A câmera de detalhes 19, a câmera de visão geral 17, o dispositivo de leitura a laser 18 e o dispositivo de determinação de posição 10 são conectados a um dispositivo de computador 20 por meio de linhas de comunicação de dados 22. O dispositivo de computador 20 está co- nectado a uma memória de dados 21 através de uma linha de comunicação de dados 22. O dispositivo de computador 20 também está conectado, por meio de uma linha de comunicação de dados 22, a um dispositivo de comunicação 11 que está conectado a uma rede de comunicação 12 por meio de sinais de rádio 15. A rede de comunicação 12 possui, por exemplo, uma plataforma em nuvem na qual os dados do objeto voador podem ser avaliados. A rede de comunicação 12 é conectada, através de uma conexão de comunicação 14, a um centro de controle 13 no qual os dados de voo, os dados de visão geral obtidos por meio do dispositivo sensor de visão geral 17, 18 e as imagens detalhadas que foram obtidas por meio da câmera de detalhes 19, por exemplo, são permanentemente armazenados e são proporcionados para processamento adicional.
[0061] O método de operação do objeto voador 9 deve agora ser brevemente explicado com mais detalhes abaixo. Ao sobrevoar um mastro de alta-tensão 1, o arranjo 17, 18 do sensor de visão geral orientado em conformidade tem um ângulo de visão 23 que possui um ângulo amplo e pode representar toda a altura do mastro 1. As posições dos isoladores 7 podem ser estimadas por meio do dispositivo de computador 20 a partir dos dados de visão geral, ou seja, imagens da câmera de visão geral 17 e dados da nuvem de pontos do dispositivo de leitura a laser 18. A câmera de detalhes 19 pode então ser orientada em conformidade em relação aos isoladores com um ângulo de visão comparativamente estreito (não ilustrado) para obter imagens detalhadas. Uma lente telefoto pode ser usada, por exemplo. As imagens detalhadas são transmitidas para o centro de controle 13 por meio do dispositivo de comunicação 11 por meio da rede 12.
[0062] A Figura 2 mostra uma vista detalhada do objeto voador 9 que está equipado com um primeiro arranjo de pivotamento 52 na frente na direção de voo 37. O primeiro arranjo de pivotamento 52 é fixado em um primeiro ponto de suspensão 51 e torna possível se orientar conjuntamente a câmera de visão geral 17 montada no arranjo de pi- votamento 52 e no dispositivo de leitura a laser 18. Orientar adequadamente o primeiro arranjo de pivotamento 52 resulta em um ângulo de visão 23 que pode ser usado para capturar um mastro inteiro 1. Se a posição dos meios de operação de interesse ou isoladores 7 foi estimado, a câmera de detalhe 19 montada um pouco mais atrás no objeto voador pode ser orientada. A câmera de detalhe 19 é disposta para esse fim em um segundo arranjo de pivotamento 25 com um segundo ponto de suspensão 26 e pode ser orientada em relação à posição presumida 53 de um meio de operação de uma maneira altamente precisa, a fim de obter imagens detalhadas.
[0063] A Figura 3 mostra uma vista detalhada ampliada da posição presumida 53 na qual dois isoladores 7 estão situados. Um dos isoladores 7 tem danos 54 que podem ser vistos em imagens detalhadas de alta resolução. Ao avaliar as imagens detalhadas, é possível detectar os danos 54 em tempo hábil e substituir o isolador 7. Isso aumenta a confiabilidade e a disponibilidade da rede de energia cuja parte é a linha de energia elétrica aérea.
[0064] A Figura 4 mostra um exemplo de modalidade de estimativa antecipada de uma posição 39 de um isolador 7. O objeto voador 9 voa paralelo ao chão ao longo de uma linha de energia elétrica aérea na direção de voo 37. Nesse caso, ele já capturou o mastro 31 com o isolador 7 usando seu arranjo de sensor de visão geral. Além disso, ele já capturou a seção de linha 34 que é presa ao isolador a uma altura de montagem 33 durante o sobrevoo. Uma outra seção de linha 35 está situada no ângulo de visão atual 23 do arranjo de sensor de visão geral. Um dispositivo de avaliação (não ilustrado) pode ser usado para extrapolar um curso de uma linha de energia suspensa, que é indicada por meio da curva tracejada 36, com base nas seções de linha agora conhecidas 34 e 35. Todas as posições do GPS dos mastros são normalmente conhecidas anteriormente a partir de gravações pelo operador da rede de energia, com o resultado de que a posição dos mastros 32 adjacentes na direção de voo 37 também é conhecida do objeto voador 9. Se o percurso da linha extrapolada 36 for agora estendido para um ponto de interseção 38 com uma linha que passa verticalmente através do mastro 32, uma posição 39 do isolador 7 no mastro 32 pode, portanto, ser presumida sem que o objeto voador 9 já tenha capturado esta região.
[0065] Adicionalmente ou alternativamente, é possível presumir a posição 39 no ponto de interseção de um plano horizontal, ou seja, um plano que corre paralelo ao solo 2, na altura de montagem 33 com a linha vertical através do mastro 32 e/ou com o curso de linha extrapolado.
[0066] O presente método em suas diferentes variantes proporcio na a vantagem de que a câmera de visão geral já pode ser orientada em relação à região 39 de interesse durante uma primeira aproximação ao mastro 32, de modo a possivelmente já capturar e armazenar as primeiras imagens detalhadas. Quanto mais imagens detalhadas forem gravadas a partir de diferentes ângulos de visão, à medida que o objeto voador 9 se aproxima, mais cedo poderão ser detectados danos ao isolador 7 ou possivelmente uma má qualidade da imagem devido a condições de luz ou condições climáticas desfavoráveis podem ser compensadas.
Claims (15)
1. Método para monitorar uma condição de uma instalação (1, 4, 5, 6, 7, 29, 31, 32) com meios de operação (7), em que os dados de visão geral são capturados por meio de um primeiro veículo (9) tendo um arranjo de sensor de visão geral (17, 18) para capturar por meio ótico a instalação (1, 4, 5, 6, 7, 29, 31, 32) e imagens detalhadas dos meios de operação (7) são geradas por meio de um segundo veículo (9) com uma câmera de detalhes (19), em que um único veículo (9) que tem o arranjo de sensor de visão geral (17, 18) e a câmera de detalhes (19) é usada como o primeiro e o segundo veículos, em que os meios de operação (7) são detectados nos dados gerais por meio de um dispositivo de avaliação (20) e as posições dos meios de operação (7) são determinadas levando em consideração a posição do primeiro veículo (9), e em que a câmera de detalhes (19) é orientada em relação às respectivas posições dos meios de operação (7), e um dispositivo de leitura a laser (18) para capturar um conjunto de dados de nuvem de pontos é usado para o arranjo de sensor de visão geral (17, 18), uma linha de energia elétrica aérea tendo mastros (1, 31, 32) e linhas (29) é usada como a instalação (1, 4, 5, 6, 7, 29, 31, 32), em que meios elétricos de operação (7) são arranjados nos mastros (1, 31, 32), em que os isoladores elétricos (7) nos mastros (1, 31, 32) são usados como meios de operação, caracterizado pelo fato de que as linhas (29) e os mastros (1, 31, 32) são detectados usando o dispositivo de avaliação (20) por meio de um método de classificação automática treinado com base em dados de amostra, e um modelo de linha simplificado das linhas detectadas (29) e mastros (1, 31, 32) é criado, e as posições dos isoladores (7) são detectadas no ponto de contato dos mastros (1, 31, 32) com as linhas (7)..
2. Método, de acordo com a reivindicação 1, caracterizado pelo fato de que uma câmera de visão geral (17) para capturar um conjunto de dados de imagem é usada para o arranjo de sensor de visão geral (17, 18).
3. Método, de acordo com qualquer uma das reivindicações precedentes, caracterizado pelo fato de que os dados de visão geral são obtidos em um primeiro tempo, e as imagens detalhadas são obtidas subsequentemente em uma segunda vez e depois das posições dos meios de operação (7) terem sido determinadas.
4. Método, de acordo com qualquer uma das reivindicações precedentes, caracterizado pelo fato de que o dispositivo de avaliação (20) é proporcionado no primeiro veículo, sendo que como primeiro e como segundo veículos é usado um único veículo (9).
5. Método, de acordo com qualquer uma das reivindicações precedentes, caracterizado pelo fato de que o dispositivo de avaliação é proporcionado em um centro de controle (13) para monitorar a condição.
6. Método, de acordo com qualquer uma das reivindicações precedentes, caracterizado pelo fato de que um drone aéreo (9) é usado como o primeiro e o segundo veículo, sendo que como primeiro e como segundo veículos é usado um único veículo (9).
7. Método, de acordo com qualquer uma das reivindicações precedentes, caracterizado pelo fato de que, como alternativa ou em adição aos meios de operação (7), pelo menos um dos outros objetos é detectado e capturado com imagens detalhadas: sinais nos mastros, anomalias nas linhas, acessórios na linha e/ou nos mastros, anomalias em um mastro, ninhos de pássaros.
8. Método, de acordo com qualquer uma das reivindicações precedentes, caracterizado pelo fato de que os meios de operação detectados (7) e/ou objetos são atribuídos a agrupamentos espaciais com base em sua posição por meio do dispositivo de avaliação (20), de modo a reduzir o número de operações de orientação necessárias da câmera de detalhe (19) por meios dos agrupamentos.
9. Arranjo para monitorar uma condição de uma instalação (1, 4, 5, 6, 7, 29, 31, 32) com meios de operação (7), tendo um primeiro veículo (9) que tem um arranjo de sensor de visão geral (17, 18) para capturar oticamente dados de visão geral relacionados à instalação (1, 4, 5, 6, 7, 29, 31, 32) e tendo um segundo veículo (9) que é projetado para gerar imagens detalhadas dos meios de operação (7) usando uma câmera de detalhes (19), sendo que como primeiro e como segundo veículos é usado um único veículo (9), o qual possui o arranjo de sensor de visão geral (17, 18) e a câmera de detalhes (19), um dispositivo de avaliação (20) é disposto e projetado para detectar os meios de operação (7) nos dados gerais e determinar as posições dos meios de operação (7), levando em consideração a posição do primeiro veículo (9), em que o segundo veículo (9) é projetado para orientar a câmera de detalhes (19) para as respectivas posições dos meios de operação (7), em que o arranjo de sensor de visão geral (17, 18) tem um dispositivo de leitura a laser (18) para capturar um conjunto de dados de nuvem de pontos, em que o dispositivo de avaliação é adaptado para monitorar a condição de uma instalação, a instalação (1, 4, 5, 6, 7, 29, 31, 32) tem uma linha de energia elétrica aérea tendo mastros (1, 31, 32) e linhas (29), em que meios elétricos de operação (7) são arranjados nos mastros (1, 31, 32), em que os meios de operação têm isoladores elétricos (7) nos mastros (1, 31, 32), caracterizado pelo fato de que o dispositivo de avaliação (20) é projetado para detectar as linhas (29) por meio de um método de classificação automática treinado com base em dados de amostra e para criar um modelo de linha simplificado das linhas detectadas (29) e para detectar respectivamente as posições dos isoladores (7) em o ponto de contato de duas linhas modeladas (29).
10. Arranjo, de acordo com a reivindicação 9, caracterizado pelo fato de que o arranjo de sensor de visão geral (17, 18) tem uma câmera de visão geral (17) para capturar um conjunto de dados de imagem.
11. Arranjo, de acordo com qualquer uma das reivindicações 9 ou 10, caracterizado pelo fato de que o primeiro veículo (9) é projetado para obter os dados de visão geral em um primeiro tempo, e em que o segundo veículo (9) é projetado para obter as imagens detalhadas em um segundo tempo subsequente e após as posições dos meios de operação (7) terem sido determinadas, sendo que como primeiro e como segundo veículos é usado um único veículo (9).
12. Arranjo, de acordo com qualquer uma das reivindicações 9 a 11, caracterizado pelo fato de que o dispositivo de avaliação (20) é proporcionado no primeiro veículo, sendo que como primeiro e como segundo veículos é usado um único veículo (9).
13. Arranjo, de acordo com qualquer uma das reivindicações 9 a 12, caracterizado pelo fato de que o primeiro e o segundo veículo são um drone aéreo (9), sendo que como primeiro e como segundo veículos é usado um único veículo (9).
14. Arranjo, de acordo com qualquer uma das reivindicações 9 a 13, caracterizado pelo fato de que o dispositivo de avaliação (20) é projetado para detectar as linhas (29) e os mastros (1, 31, 32) por meio de um método de classificação automática treinado com base em dados de amostra e para criar um modelo de linha simplificado das linhas (29) e mastros detectados (1, 31, 32) e para detectar as posições dos isoladores (7) no ponto de contato dos mastros (1, 31, 32) com as linhas (29).
15. Arranjo, de acordo com qualquer uma das reivindicações 9 a 14, caracterizado pelo fato de que o dispositivo de avaliação (20) é projetado para estimar a posição de um meio de operação (7) em um mastro ao determinar, com base em uma posição previamente conhecida do mastro (32) e uma seção já capturada (34) de uma linha para este mastro (32) , a posição dos meios de operação (7) no ponto de interseção (38) de um percurso de linha (36) extrapolado da seção com uma linha vertical através da posição do mastro (32).
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP17161027.2A EP3376213A1 (de) | 2017-03-15 | 2017-03-15 | Verfahren und anordnung für eine zustandsüberwachung einer anlage mit betriebsmitteln |
EP17161027.2 | 2017-03-15 | ||
PCT/EP2018/056146 WO2018167006A1 (de) | 2017-03-15 | 2018-03-13 | Verfahren und anordnung für eine zustandsüberwachung einer anlage mit betriebsmitteln |
Publications (3)
Publication Number | Publication Date |
---|---|
BR112019018930A2 BR112019018930A2 (pt) | 2020-04-28 |
BR112019018930A8 BR112019018930A8 (pt) | 2023-04-25 |
BR112019018930B1 true BR112019018930B1 (pt) | 2024-02-06 |
Family
ID=58578809
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
BR112019018930-0A BR112019018930B1 (pt) | 2017-03-15 | 2018-03-13 | Método e arranjo para monitorar uma condição de uma instalação com meios de operação |
Country Status (5)
Country | Link |
---|---|
US (1) | US11017228B2 (pt) |
EP (1) | EP3376213A1 (pt) |
CN (1) | CN110418957B (pt) |
BR (1) | BR112019018930B1 (pt) |
WO (1) | WO2018167006A1 (pt) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DK179018B1 (en) * | 2016-03-14 | 2017-08-21 | Ventus Eng Gmbh | Method of condition monitoring one or more wind turbines and parts thereof and performing instant alarm when needed |
AT520291B1 (de) * | 2018-06-01 | 2019-03-15 | Plasser & Theurer Export Von Bahnbaumaschinen Gmbh | Verfahren zur Ermittlung einer Ist-Lage von Schienen eines Gleises |
CN109614969A (zh) * | 2018-11-22 | 2019-04-12 | 华南理工大学 | 基于深度学习的大规模配电线路灾情抢修图像识别方法 |
CN109659859A (zh) * | 2019-01-28 | 2019-04-19 | 广东科凯达智能机器人有限公司 | 输电线路智能巡检*** |
CN109902647B (zh) * | 2019-03-08 | 2023-04-18 | 成都国铁电气设备有限公司 | 一种便携式在线鸟巢智能识别方法及*** |
CN110280911B (zh) * | 2019-07-31 | 2024-06-25 | 安徽南瑞继远电网技术有限公司 | 激光远程异物清除仪自动来回切割的方法和结构 |
TWI726536B (zh) * | 2019-12-16 | 2021-05-01 | 財團法人工業技術研究院 | 影像擷取方法及影像擷取設備 |
DE102020210622A1 (de) | 2020-08-20 | 2022-02-24 | Knut Wagner | Verfahren und fluggerät zur überwachung von betriebszuständen und zur ermittlung von ausfallwahrscheinlichkeiten von energie-freileitungssystemen und/oder pipelinesystemen |
US11521357B1 (en) * | 2020-11-03 | 2022-12-06 | Bentley Systems, Incorporated | Aerial cable detection and 3D modeling from images |
US11594022B2 (en) | 2020-11-16 | 2023-02-28 | International Business Machines Corporation | Power line georectification |
US11308656B1 (en) | 2020-11-16 | 2022-04-19 | International Business Machines Corporation | Power line extraction using reference data |
CN112960132B (zh) * | 2021-03-26 | 2021-12-07 | 中国能源建设集团江苏省电力设计院有限公司 | 分布式共享机巢及其电力线路无人机巡检方法 |
CN113487541B (zh) * | 2021-06-15 | 2022-05-03 | 三峡大学 | 绝缘子检测方法及装置 |
CN113298874B (zh) * | 2021-07-26 | 2021-11-02 | 广东工业大学 | 基于无人机巡检的输电线路安全距离风险评估方法及装置 |
DE102021121784B3 (de) * | 2021-08-23 | 2022-08-25 | Knut Wagner | Verfahren zur helikoptergestützten montage von hochspannungsfreileitungen und deren elementen sowie flugkörper zur durchführung des verfahrens |
US20230415786A1 (en) * | 2022-06-24 | 2023-12-28 | Sharper Shape Oy | System and method for localization of anomalous phenomena in assets |
Family Cites Families (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP1548908B1 (en) * | 2002-08-01 | 2010-01-13 | Union Fenosa Distribucion, S.A. | Method and device for inspecting linear infrastructures |
JP2010510559A (ja) * | 2006-10-30 | 2010-04-02 | テレ アトラス ベスローテン フエンノートシャップ | 地上モバイルマッピングデータからオブジェクトを検出する方法及び装置 |
US8374431B2 (en) * | 2010-07-27 | 2013-02-12 | Aerotec, Llc | Method and apparatus for direct detection, location, analysis, identification, and reporting of vegetation clearance violations |
US9145140B2 (en) * | 2012-03-26 | 2015-09-29 | Google Inc. | Robust method for detecting traffic signals and their associated states |
EP2902319B1 (en) * | 2014-01-30 | 2019-06-26 | The Boeing Company | Unmanned aerial vehicle |
CN103941746B (zh) * | 2014-03-29 | 2016-06-01 | 国家电网公司 | 无人机巡检图像处理***及方法 |
EP3271788A4 (en) * | 2015-03-18 | 2018-04-04 | Izak Van Cruyningen | Flight planning for unmanned aerial tower inspection with long baseline positioning |
US10255719B2 (en) * | 2015-04-14 | 2019-04-09 | ETAK Systems, LLC | Systems and methods for satellite data capture for telecommunications site modeling |
US10311565B2 (en) * | 2015-04-14 | 2019-06-04 | ETAK Systems, LLC | Cell site equipment verification using 3D modeling comparisons |
CN106326808B (zh) * | 2015-06-23 | 2020-04-03 | 上海深邃智能科技有限公司 | 基于无人机图像的检测输电线路杆塔上鸟窝的方法 |
CN105244805A (zh) * | 2015-10-14 | 2016-01-13 | 国家电网公司 | 一种基于激光雷达的输电线路智能预警评估方法和*** |
CN106017551A (zh) * | 2016-05-16 | 2016-10-12 | 国网河南省电力公司电力科学研究院 | 一种智能化输电线路综合监测分析预警方法 |
US11029352B2 (en) * | 2016-05-18 | 2021-06-08 | Skydio, Inc. | Unmanned aerial vehicle electromagnetic avoidance and utilization system |
CN106356757B (zh) * | 2016-08-11 | 2018-03-20 | 河海大学常州校区 | 一种基于人眼视觉特性的电力线路无人机巡检方法 |
EP3293115B1 (de) * | 2016-09-07 | 2019-10-30 | Siemens Aktiengesellschaft | Verfahren zur steuerung unbemannter flugobjekte |
KR101769718B1 (ko) * | 2016-09-21 | 2017-08-18 | 한국전력공사 | 송전선로 전자계 및 순시 점검 영상 취득 장치 및 방법 |
US10380423B2 (en) * | 2017-10-31 | 2019-08-13 | Pilot Fiber Inc. | Utility infrastructure mapping |
US10872534B2 (en) * | 2017-11-01 | 2020-12-22 | Kespry, Inc. | Aerial vehicle inspection path planning |
US11021246B2 (en) * | 2018-03-09 | 2021-06-01 | Sharper Shape Oy | Method and system for capturing images of asset using unmanned aerial vehicles |
-
2017
- 2017-03-15 EP EP17161027.2A patent/EP3376213A1/de active Pending
-
2018
- 2018-03-13 US US16/493,078 patent/US11017228B2/en active Active
- 2018-03-13 WO PCT/EP2018/056146 patent/WO2018167006A1/de active Application Filing
- 2018-03-13 BR BR112019018930-0A patent/BR112019018930B1/pt active IP Right Grant
- 2018-03-13 CN CN201880018394.XA patent/CN110418957B/zh active Active
Also Published As
Publication number | Publication date |
---|---|
EP3376213A1 (de) | 2018-09-19 |
CN110418957A (zh) | 2019-11-05 |
WO2018167006A1 (de) | 2018-09-20 |
BR112019018930A8 (pt) | 2023-04-25 |
US11017228B2 (en) | 2021-05-25 |
CN110418957B (zh) | 2022-07-05 |
BR112019018930A2 (pt) | 2020-04-28 |
US20200074176A1 (en) | 2020-03-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
BR112019018930B1 (pt) | Método e arranjo para monitorar uma condição de uma instalação com meios de operação | |
Guan et al. | UAV-lidar aids automatic intelligent powerline inspection | |
CN112904877A (zh) | 一种基于无人机的风机叶片自动巡检***及方法 | |
CN110133440A (zh) | 基于杆塔模型匹配及视觉导航的电力无人机及巡检方法 | |
BR102018012662A2 (pt) | Sistema de posicionamento para inspeção aérea não destrutiva | |
CN104091168B (zh) | 基于无人机影像的电力线自动提取定位方法 | |
JP2019035736A (ja) | 航空機用レーザスペックルのシステム及び方法 | |
CN110637264B (zh) | 确定沿着对象的路径的方法、用于自动检查对象的***及方法 | |
CN109446973B (zh) | 一种基于深度神经网络图像识别的车辆定位方法 | |
CN111311967A (zh) | 基于无人机的电力线路巡检***及方法 | |
CN105862556A (zh) | 智能车载道路信息采集装置以及采集道路信息的方法 | |
CN114373138A (zh) | 一种高速铁路全自动无人机巡检方法及*** | |
Sun et al. | Measuring the distance of vegetation from powerlines using stereo vision | |
JP2009068951A (ja) | 空中架線の管理システム | |
CN113066120B (zh) | 一种基于机器视觉的智能杆塔倾斜检测方法 | |
CN108765620A (zh) | 一种联网电力电网线路自动巡检方法 | |
CN112923928B (zh) | 一种基于图像识别的光伏板导航方法、装置、电子设备及存储介质 | |
CN113900436B (zh) | 巡检控制方法、装置、设备和存储介质 | |
CN114944816B (zh) | 一种应用于光伏组件的智能巡检*** | |
KR102377859B1 (ko) | 태양광 패널 관리 시스템. | |
Liu et al. | Framework for automated UAV-based inspection of external building façades | |
BR112021002143A2 (pt) | método e montagem para detectar objetos sobre instalações | |
Kähler et al. | Automating powerline inspection: A novel multisensor system for data analysis using deep learning | |
CN116893685A (zh) | 一种无人机航线规划方法及*** | |
CN114008447A (zh) | 用于查明和显示架空电线的部件处的潜在的损伤部位的方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
B350 | Update of information on the portal [chapter 15.35 patent gazette] | ||
B25A | Requested transfer of rights approved |
Owner name: SIEMENS ENERGY GLOBAL GMBH AND CO. KG (DE) |
|
B06W | Patent application suspended after preliminary examination (for patents with searches from other patent authorities) chapter 6.23 patent gazette] | ||
B09A | Decision: intention to grant [chapter 9.1 patent gazette] | ||
B16A | Patent or certificate of addition of invention granted [chapter 16.1 patent gazette] |
Free format text: PRAZO DE VALIDADE: 20 (VINTE) ANOS CONTADOS A PARTIR DE 13/03/2018, OBSERVADAS AS CONDICOES LEGAIS |