BR112012006577A2 - sistemas e métodos para capturar imagens de área grande em detalhes incluindo câmeras em cascata e/ou aspectos de calibragem - Google Patents

sistemas e métodos para capturar imagens de área grande em detalhes incluindo câmeras em cascata e/ou aspectos de calibragem Download PDF

Info

Publication number
BR112012006577A2
BR112012006577A2 BR112012006577-7A BR112012006577A BR112012006577A2 BR 112012006577 A2 BR112012006577 A2 BR 112012006577A2 BR 112012006577 A BR112012006577 A BR 112012006577A BR 112012006577 A2 BR112012006577 A2 BR 112012006577A2
Authority
BR
Brazil
Prior art keywords
image
images
overview
detail
image capture
Prior art date
Application number
BR112012006577-7A
Other languages
English (en)
Inventor
Stuart Willian Nixon
Original Assignee
Nearmap Pty Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nearmap Pty Ltd filed Critical Nearmap Pty Ltd
Publication of BR112012006577A2 publication Critical patent/BR112012006577A2/pt

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/10Artificial satellites; Systems of such satellites; Interplanetary vehicles
    • B64G1/1021Earth observation satellites
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/10Artificial satellites; Systems of such satellites; Interplanetary vehicles
    • B64G1/1021Earth observation satellites
    • B64G1/1028Earth observation satellites using optical means for mapping, surveying or detection, e.g. of intelligence
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64GCOSMONAUTICS; VEHICLES OR EQUIPMENT THEREFOR
    • B64G1/00Cosmonautic vehicles
    • B64G1/10Artificial satellites; Systems of such satellites; Interplanetary vehicles
    • B64G1/1085Swarms and constellations
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U20/00Constructional aspects of UAVs
    • B64U20/80Arrangement of on-board electronics, e.g. avionics systems or wiring
    • B64U20/87Mounting of imaging devices, e.g. mounting of gimbals
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/40Extracting pixel data from image sensors by controlling scanning circuits, e.g. by modifying the number of pixels sampled or to be sampled
    • H04N25/41Extracting pixel data from a plurality of image sensors simultaneously picking up an image, e.g. for increasing the field of view by combining the outputs of a plurality of sensors
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Astronomy & Astrophysics (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Mechanical Engineering (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Signal Processing (AREA)
  • Evolutionary Computation (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

SISTEMAS E MÉTODOS PARA CAPTURAR IMAGENS DE ÁREA GRANDE EM DETALHES INCLUINDO CÂMERAS EM CASCATA E/OU ASPECTOS DE CALIBRAGEM. A presente invenção refere-se a um método e sistema nos quais as imagens são capturadas a partir de dispositivos de geração de imagem de vista geral e em detalhe, de modo que as imagens de vista geral são criadas com um primeiro grau de redundãncia, e as imagens de detalhes são capturadas com menos sobreposição e com um segundo grau de redundância.

Description

' Relatório Descritivo da Patente de Invenção para "SISTEMAS E
MÉTODOS PARA CAPTURAR IMAGENS DE ÁREA GRANDE EM ” DETALHES INCLUINDO CÂMERAS EM CASCATA E/OU ASPECTOS DE - CALIBRAGEM". Referência Cruzada a Pedido Relacionado Este pedido é uma continuação em parte do Pedido de Patente US 12/101.167, depositado em 11 de abril de 2008, e denominado Systems and Methods of Capturing Large Area Images in Detail Including Cascaded Cameras and/or Calibration Features, cuja descrição na totalidade é incorpo- * 10 radaneste documento por referência. . Aviso e Autorização de Direitos Autorais ' Partes da documentação neste documento de patente contêm material que é assunto para a proteção de direitos autorais. O proprietário dos direitos autorais não tem objeção quanto à reprodução fac-símile por qualquer pessoa do documento de patente ou da descrição de patente como ela é publicada no arquivo ou registros do Patent and Trademark Office, mas de outro modo reserva todos os direitos autorais quaisquer que sejam. Breve Descrição dos Desenhos Nos desenhos: figura 1 é um diagrama de blocos de um sistema ilustrativo para capturar imagens de visão geral e de detalhe; figuras 2A e 2B são diagramas de blocos de outros sistemas ilustrativos para capturar imagens de visão geral e de detalhe; figura 3 é um diagrama de blocos de outro sistema ilustrativo pa- racapturar imagens de vista geral e de detalhe; figura 4 é um diagrama representativo de um sistema de com- partimento de câmera; figura 5A ilustra uma implementação ilustrativa incluindo um compartimento externo montado em uma aeronave pequena de motor singu- lar figura 5B ilustra uma implementação ilustrativa de subsistemas de captura de imagem montados dentro de um compartimento externo;
. figura 5C ilustra a utilização ilustrativa de uma aeronave para co- leta de dados de imagens de vista geral e de detalhes; ” figura 5D ilustra um plano de voo para coleta de imagens de vis- - ta geral e de detalhes; figuras 6A e 6B são diagramas ilustrando representações ilustra- tivas de imagem de vista geral e de detalhe; figuras 7A e 7B são diagramas ilustrando representações ilustra- tivas adicionais de imagem de vista geral e de detalhe; figuras 8A até 8C são tabelas ilustrando configurações represen- - 10 tativasda câmera para as duas concretizações de sistemas ilustrativos para capturar imagens de vista geral e de detalhes; : figura 9 ilustra uma aeronave equipada com um sistema de computação/processamento; e figura 10 ilustra um diagrama de blocos para um computador no- tebook/laptop funcionando em conjunto com um sistema controlador e GPS como descrito em uma concretização.
Descrição Detalhada Certa terminologia é utilizada neste documento somente por conveniência e não é para ser interpretada como uma limitação em relação às concretizações da presente descrição.
Nos desenhos, as mesmas letras e números de referência são empregados para designar os mesmos elemen- tos por todas as várias figuras.
As palavras "direita", "esquerda", "inferior", "superior" designam direções nos desenhos para quais são feitas referências.
As palavras "para frente”, "para os lados" se referem às direções de percurso de um veículo, aeronave, espaçonave, submarino ou outra plataforma que seja translada referindo-se ao terreno.
A terminologia inclui as palavras acima especifica- mente mencionadas, derivações das mesmas e palavras de sentido similar.
O Termo "resolução" quando utilizado neste documento referin- do-seauma imagem :;se refere à habilidade de distinguir objetos retratados, com a resolução tipicamente sendo fornecida em cm e com referência ao objeto(s) no terreno.
Quando utilizado neste contexto, resolução pode ser
. denominada de forma variada como elemento de resolução no terreno, célu- la de resolução, resolução no terreno, resolução de pixel no terreno. Quando - utilizado referindo-se a uma câmera ou a outro dispositivo de geração de - imagem, a resolução pode se referir à densidade dos pixels deste dispositivo de geração de imagem. Como será entendido pelos versados na técnica, a resolução da imagem (elemento de resolução no terreno, célula de resolu- ção, resolução no terreno, ou resolução de pixel no terreno) é dependente de vários parâmetros, incluindo não somente a resolução da câmera, mas também outras variáveis incluindo, sem limitação, o sistema de geração de - 10 imagem (por exemplo, lente) e condições operacionais (por exemplo, altitu- de) na qual as imagens são capturadas.
: As imagens aéreas e por satélite da terra são utilizadas para uma grande variedade de aplicações militares, comerciais e de pessoas físi- cas. Uma série de aplicações emergentes inclui atender às fotocartas na Internet, e serviços baseado na geração destas fotocartas (por exemplo, mapas e direções, valores de estado real). Em geral, existe uma crescente demanda por fotocartas, e por fotocartas recentemente atualizadas. Entre- tanto, os sistemas existentes para a geração de fotocartas frequentemente envolvem componentes excessivamente complexos, exigem altos gastos de capital, e/ou possuem altos custos operacionais, dentre outras desvanta- gens. Eles não estão aptos a produzirem imagens dentro de curtos períodos de tempo e regimes de operação, ou de outro modo proporcionar a alta reso- lução atualmente desejada.
Em geral, as soluções existentes de imagens de fotogrametria falhamem atender à crescente demanda por imagens mais oportunas e com maior resolução devido à sua falta de habilidade em capturar quantidades suficientes de dados apropriados de alta resolução de uma maneira eficiente. De acordo com os princípios consistentes com certos aspectos relacionados com as inovações neste documento, os sistemas de câmera utilizados para fotogrametria espacial devem endereçar dois requerimentos conflitantes.
Primeiro, é vital que os parâmetros do sistema de lente e focal do sistema de câmera (conhecidos como orientação interior), bem como sua
. posição no espaço e no ângulo de visão (conhecida como orientação exte- rior) sejam precisamente calculados. Uma solução fotogramétrica conhecida ? como feixes perspectivos pode ser utilizada para calcular a informação de - orientação interior e exterior para a câmera e para cada fotografia tirada pela câmera. Tais cálculos frequentemente representam um pré-requerimento para permitir a junção de fotos individuais em fotocartas contínuas. Um meio de alcançar o nível exigido de precisão é obter múltiplas imagens, com uma grande quantidade de dados redundantes entre as fotografias. Aspectos co- muns, elementos comuns, pontos comuns, ou elementos da imagem visíveis - 10 em várias fotografias então podem ser identificados e utilizados para calcular os parâmetros interior e exterior da câmera. Entretanto, mesmo com grandes : quantidades de dados redundantes entre as fotografias, pode ser difícil iden- tificar pontos ou elementos de imagem comuns se as fotografias tiverem sido tiradas em momentos diferentes ou sob condições diferentes (por exemplo, diferentes altitudes, diferentes horas do dia) desde que os pontos ou ele- mentos de imagem comuns podem ter se movido ou podem ter diferenças na aparência (por exemplo, sombreamento diferente devido às alterações na iluminação) que tornam difícil a correlação entre estes pontos ou elementos de imagem comuns.
Em segundo lugar, é desejável que o levantamento topográfico seja completado rapidamente. Isto proporciona várias vantagens, tais como custos reduzidos de operação e atrasos minimizados resultantes de condi- ções desfavoráveis ambientais ou de topografia tal clima rigoroso. Um modo eficaz de aumentar a quantidade de área de terreno capturada, medida em km? por hora, é minimizar a quantidade de redundância entre as fotos deta- lhadas de alta resolução que são subsequentemente utilizadas para gerar as fotocartas.
Assim, o desejo de aumentar a redundância entre as imagens para permitir o posicionamento fotogramétrico preciso das imagens deve ser equilibrada com o desejo de diminuir a redundância entre fotografias para completar topografias em um custo inferior.
A coleta de dados aéreos de fotocarta pode ser realizada por
. conduzir uma aeronave equipada com dispositivos de geração de imagens aéreas (por exemplo, câmeras) junto com um plano de voo que envolve voar 7 ao longo de um caminho relativamente reto, inclinando lateralmente e viran- - do a aeronave para girar 180º para voar um caminho de retorno paralelo com alguns deslocamentos laterais a partir do caminho original, e repetindo este padrão até que uma área designada do terreno tenha sido fotografada. Como será entendido pelos versados na técnica, as imagens ou fotografias são capturadas em intervalos periódicos ao longo da parte reta do plano de voo para criar fotografias com sobreposição dianteira, e o plano de voo é - 10 projeto de modo que as imagens capturadas possuam sobreposição lado a lado.
: A sobreposição nas imagens pode ser criada por uma série de mecanismos. Por exemplo, um sistema de geração de imagens que está sendo transladado ao longo de um eixo geométrico ou geralmente movido acimado terreno em um veículo (por exemplo, uma aeronave) pode capturar imagens periodicamente. O tempo entre as imagens (fotografias) capturadas pode ser disposto de modo que as fotografias possuam sobreposição na direção do percurso. A sobreposição resultante da direção para frente do percurso é normalmente referida como sobreposição dianteira. As fotografias que são tiradas uma após outra em tal sistema e que possuem a sobreposi- ção dianteira mencionada anteriormente podem ser referidas como fotografi- as sequenciais ou adjacentes. Nos planos de voo com um caminho para frente e um caminho de retorno, a sobreposição lateral é criada pelo espa- çamento do caminho para frente e do caminho de retorno de modo que as imagens capturadas ao longo destes caminhos possuam um grau desejado de sobreposição. A sobreposição resultante do espaçamento dos caminhos para frente e de retorno no caminho do voo é normalmente referida como sobreposição lateral. Finalmente, os sistemas de geração de imagens ou câmeras podem ser dispostos dentro de um sistema de captura de imagem de modo que eles apontem para diferentes áreas do terreno abaixo, com a sobreposição entre as imagens capturadas sendo criada devido à disposição mecânica dos sistemas de captura de imagens (por exemplo, câmeras).
. Apesar da quantidade de sobreposição dianteira e lateral poder variar de aplicação para aplicação, uma sobreposição comum dos sistemas * atuais de mapeamento aéreo é 80/30, indicando sobreposição dianteira de - 80% com fotografias sequenciais ao longo de uma linha de voo e sobreposi- ção lateral de 30% com fotografias em linhas de voo paralelas adjacentes. Em tal configuração, capturar imagens sequenciais durante a translação pa- ra frente em uma linha de voo iria resultar em somente 20% de cada imagem contendo nova informação. Coletar dados desta maneira permite que um aspecto, elemento de imagem ou ponto comum seja identificado dentro do - 10 aoredorde5 imagens. Em termos de redundância para o exemplo mencio- nado acima, qualquer ponto, pixel, conjunto de pixels, elemento, elemento ' de imagem, objeto, ou aspecto nesta área comum possui uma redundância de 4 (imagem original mais quatro imagens mais identificáveis deste ponto ou objeto). Assim, um conjunto de imagens sequenciais possuindo sobrepo- siçãode 80% poderia ser considerado como possuindo uma redundância de
4. Em geral, a redundância pode ser descrita como o número de imagens (em um conjunto de imagens) nas quais um ponto aparece em média, me- nos um. Os pontos que são capturados de forma redundante podem ou não ser utilizados como elementos de imagem, mas tais pontos ou pixels apare- cemem múltiplas imagens dentro do conjunto. Como será entendido pelos versados na técnica, para altos valores de redundância, o número de ima- gens nas quais um ponto aparece em média (n), o qual se aproxima da re- dundância (n -1). A quantidade de informação redundante nos conjuntos de imagens adicionalmente seria aumentada pela sobreposição lateral resultan- teem somente ao redor de 14% de cada imagem contendo nova informação e ao redor de 86% da informação de imagem sendo redundante em termos da fotocarta final. Como será entendido pelos versados na técnica, a sobre- posição crescente, seja na sobreposição dianteira, sobreposição lateral, ou sobreposição gerada por outras operações ou configurações mecânicas, irá aumentara redundância nos conjuntos de imagens. Em uma concretização dos presentes sistemas e métodos, pelo menos dois sistemas/subsistemas de geração de imagem são utilizados pa-
' ra capturar imagens de vista geral e imagens de detalhe.
Em outra concreti- zação pelo menos dois sistemas/subsistemas de geração de imagem são * utilizados para capturar imagens de vista geral em um primeiro nível de reso- - lução, e imagens de detalhe em um segundo nível de resolução, o segundo nívelde resolução sendo mais refinado (mais detalhes da imagem) do que o primeiro nível de resolução.
Como ilustrado na figura 1, as imagens de deta- lhe 122, 124 e 126, capturadas pelo segundo sistema 120, se situam parci- almente ou completamente dentro da área de captura de uma imagem de vista geral 112, capturada pelo primeiro sistema 110. O primeiro e segundo - 10 sistema 110 e 120 podem ser transladados, tipicamente ao longo do eixo geométrico X 115. As figuras 5C e 5D ilustram a captura de imagens de de- ' talhe e de vista geral a partir de um plano e ao longo de um típico caminho de topografia aérea, respectivamente.
Imagens são coletadas de modo que exista sobreposição significativa nas imagens de vista geral, mas a sobrepo- sição nas imagens de detalhe seja significativamente reduzida ou minimiza- da referindo-se à quantidade de sobreposição nas imagens de vista geral.
De forma similar, a quantidade de sobreposição das imagens de detalhe em uma ou mais concretizações dos presentes sistemas e métodos é altamente reduzida referindo-se às imagens obtidas em outros sistemas tradicionais de geração de imagem de fotocarta.
Por ter uma quantidade significativa de sobreposição nas imagens de vista geral, existe alta redundância nestas imagens de baixa resolução, esta redundância sendo utilizada para proces- samento de imagem relacionado com a geração da fotocarta.
As imagens de detalhe, as quais estão na resolução desejada para as fotocartas, possuem uma quantidade muito menor de redundância, assim reduzindo os requeri-
mentos de armazenamento e de processamento para estas imagens.
Maiores níveis de redundância ou de sobreposição aumentam a habilidade de precisamente calcular a orientação exterior e interior para o sistema de câmera.
Entretanto, a redundância aumentada é muito desperdi- cada quando se criando uma fotocarta final, à medida que significativamente mais dados de imagem são capturados do que é necessário para criar a fo- tocarta final.
A coleta destes dados em excesso aumenta o tempo e o custo
. envolvidos em conduzir a topografia. Por exemplo, se um sistema tradicional de geração de imagens aéreas for conduzido em uma altitude suficiente para 7 produzir uma fotocarta com tamanho de pixel de terreno de 10 cm utilizando - sobreposição 80/30, aproximadamente 100 Terabytes (TB) de dados de imagem teriam que ser coletados para gerar uma fotocarta final que tenha aproximadamente 14 TB de tamanho. Assim, as imagens de resolução de pixel do terreno de 10 cm irão possuir uma redundância de ao redor de 6 (correspondendo ao redor de somente 14% de novas informações em cada imagem) e estas imagens irão servir tanto para o cálculo da orientação exte- - 10 riore interior do sistema de câmera bem como para a geração da fotocarta final.
' Alternativamente, o uso dos presentes métodos e sistemas per- mitiria o uso de um primeiro sistema de câmera proporcionando tamanho de pixel do terreno de 100 cm em uma alta redundância (por exemplo, 98) com 15 uma única área de cobertura muito pequena coberta por foto (aproximada- mente 1%) e um segundo sistema de câmera proporcionando alta resolução em 10 cm com uma única grande área por foto de 80%. Utilizar está técnica e sistema iria exigir ao redor de 15 TB para o conjunto de fotografias com alta redundância e ao redor de 15 TB para o conjunto de fotografias com 20 baixa redundância, para um requerimento total de armazenamento de me- nos do que 30 TB. Adicionalmente, devido à alta redundância (98) nos foto- grafias de baixa resolução, o processamento posterior pode obter maior ro- bustez (menos erros) e maior precisão do que as imagens de menor redun- dância em maior resolução. Por exemplo, se o sistema tradicional possuir 25 um erro quadrático médio (RMS) de 0,5 pixels, o erro absoluto do terreno seria 5 cm (0,5 * 10 cm). Utilizando os métodos e sistemas da invenção, as fotografias com alta redundância podem permitir um processamento poste- rior RMS de 0,1 pixels, para um erro absoluto de terreno de 0,1 * 100 cm = cm. Isto pode ser adicionalmente melhorado por localizar as imagens mais detalhadas dentro das imagens com alta redundância, resultando na habilidade de se obter níveis de erro absoluto de terreno que sejam compa- ráveis ou menores do que nos sistemas anteriores.
- Em uma concretização, os métodos e sistemas da invenção em- pregam o uso de múltiplos conjuntos de câmeras, cada conjunto de câmeras * potencialmente compreendendo múltiplas câmeras. Assim, a resolução não - está limitada a esta dos sistemas atuais de câmeras. Por exemplo, os siste- mas atuaisde câmeras tais como estes oferecidos pela Vexcel corporation podem possuir uma resolução de 300 megapixels, mas isto é obtido através do uso de múltiplas câmeras que são montadas em uma plataforma extre- mamente rígida e pré-calibrada. Utilizando os métodos e sistemas da inven- ção, é possível criar um sistema virtual de câmeras com resolução extrema- - 10 mente alta (por exemplo, 10 gigapixels). Devido aos requerimentos de demanda em relação à fotografia " aérea, os sistemas de câmeras tipicamente são customizados para a aplica- ção particular de fotografia aérea. Os sistemas tradicionais não tiram vanta- gem dos componentes de Commercial Off The Shelf (COTS) ("Componentes Prontos"), e assim, não tiram vantagem de forma fácil do avanço na fotogra- fia digital, tal como o custo relativamente baixo (e continuamente decrescen- te) das câmeras reflex monobjetivas digitais (D-SLR). O grande peso e o alto custo dos sistemas de câmeras requeridos utilizando as abordagens tradi- cionais encorajam ou exigem o uso de aeronaves turboélices com motor du- plo, o que adicionalmente aumenta os custos operacionais, à medida que tais aeronaves são significativamente mais caras de operar do que a aero- nave comercial comum de motor único, tal como o Cessna 210. Em adição, o uso de sistemas tradicionais comuns exige modificações personalizadas para a aeronave para a montagem da câmera. Em contraste, os métodos e sistemas da invenção permitem, em certas concretizações, a habilidade de utilizar aeronave de motor único, possuindo custos operacionais mais baixos do que a aeronave com motor duplo, e não exige modificação junto à estru- tura da aeronave.
Utilizando os métodos e sistemas da invenção, imagens digitais de altaresolução podem ser capturadas através de grandes áreas para le- vantamentos topográficos aerotransportados e espaciais. Os tempos de co- leta de dados podem ser significativamente reduzidos em relação aos siste-
. mas atuais. Assim, os custos de capital e de operação podem ser reduzidos, e os levantamentos aéreos podem ser rapidamente conduzidos quando o ? clima permite. Em algumas concretizações, os levantamentos de alta resolu- - ção podem ser capturados a partir de grandes altitudes, assim reduzindo o impacto sobre o Controle de Tráfego Aéreo, proporcionando condições de voo mais suaves para a tripulação do levantamento aéreo, e geralmente re- duzindo a carga de trabalho do piloto.
Adicionalmente, diferentes tipos de câmeras, ou câmeras utiliza- das em diferentes ângulos, podem ser utilizados para coletar as imagens de - 10 diferentes resoluções e com diferentes graus de redundância. Por exemplo, na coleta de dados de imagem para aplicações de fotogrametria, overhead " câmeras podem ser utilizadas para coletar imagens de vista geral em uma resolução relativamente baixa com um alto grau de redundância, e câmeras obliquas podem ser utilizadas para coletar dados de alta resolução com um baixo grau de redundância. Outras combinações de câmeras e de resolu- ções/redundância são possíveis, tanto para aplicações de fotogrametria co- mo para outras aplicações. Utilizando os métodos e sistemas da invenção, diferentes tipos de câmeras podem ser combinados para gerar fotocartas nadir, fotocartas oblíquas, fotocartas infravermelhas, ou outras combinações como ditadas pelos requerimentos do levantamento.
Apesar de descrito neste documento como sistemas de câmeras de detalhe e de vista geral, conjuntos adicionais de câmeras (ou de outros tipos de dispositivos de captura de imagem) podem ser incorporados para formar cascatas de sistemas de captura de imagem operando com diferen- tes resoluções e diferentes quantidades de redundância. Por se ter maiores graus de redundância em imagens com menores resoluções do que nas i- magens com maiores resoluções, é possível ter a quantidade apropriada de redundância para o processamento de imagem (por exemplo, feixes pers- pectivos, geração de mapa de elevação digital), enquanto ao mesmo tempo minimizando a quantidade de redundância nas imagens com maior resolu- ção. Por exemplo, o método e sistema descritos neste documento podem ser utilizados com três conjuntos de câmeras, o primeiro conjunto de câme-
. ras operando em uma baixa resolução com alta redundância, o segundo conjunto de câmeras operando em uma resolução média com uma redun- í dância média, e o terceiro conjunto de câmeras operando em uma alta reso- - lução com baixa redundância.
Em geral, a colocação em cascata pode ser executada utilizando múltiplos conjuntos de câmeras que capturam imagens com diferentes graus de sobreposição, resolução e/ou redundância, de mo- do que os conjuntos resultantes de imagens com baixa resolução possuam maior redundância do que os conjuntos de imagens tiradas em uma resolu- ção mais elevada.
Como será entendido pelos versados na técnica, a casca- - 10 tade câmeras pode ser estendida para n câmeras ou n conjuntos de câme- ras, sem limitações quanto às disposições físicas específicas.
A cascata de " câmeras pode produzir imagens com um espectro de resoluções, consisten- te com a redundância sendo menor nas imagens com mais alta resolução.
Um conjunto de câmeras, seja organizado de um modo linear, em uma ma- triz (formato de linha e coluna), ou em uma hierarquia de ampliações, pode ser considerado como sendo organizado de um modo em cascata quando o resultado é várias imagens capturadas possuindo diferentes resoluções do terreno.
Como um exemplo, um conjunto de quatro câmeras disposto como uma matriz pode ser organizado de uma maneira em cascata por capturar imagens em diferentes resoluções do terreno, ou em diferentes resoluções do terreno com diferentes ampliações.
Se as câmeras forem organizadas para cobrirem ou sobreporem as áreas do terreno, existirão dados de ima-
gem redundantes entre as imagens capturadas.
Como entendido pelos versados na técnica, após as imagens te- rem sido capturadas, seja através destes métodos ou dos métodos da técni- ca anterior, eles podem ser processados utilizando ferramentas de fotogra- metria de modo a produzir uma série de aplicações, tais como fotocartas ou mapas digitais de elevação.
Programas de software comuns utilizados para tal processamento incluem, mas não estão limitados a um ou mais dentre os seguintes programas: software de triangulação Match-AT vendido pela Inpho Corporation; software de mapeamento digital vendido sob a marca registrada Socet Setº pela BAE Systemsº; software Socet Setº que é integrado com o
. software de feixes perspectivos fotogramétrico vendido como BINGO pela GIP mbH; e software de processamento de imagem ERDAS ER Mapper * vendido pela ERDASº. Adicionalmente, uma ampla variedade de softwares - de processamento e de triangulação de imagens vendidos por vários produ- tores podem ser utilizados para processar os dados.
Os sistemas/subsistemas de geração de imagem para captura de imagem de vista geral e de detalhe podem ser colocados juntos em um veículo adequado para captura de imagem (por exemplo, aeronave, espaço- nave, submarino, balão) ou podem estar localizados em plataformas diferen- - 10 tes. Em várias concretizações, os sistemas de geração de imagem de vista geral e de detalhe estão localizados juntamente em um gabinete (por exem- ' plo, compartimento) que se conecta com uma pequena aeronave. Em uma ou mais concretizações, as imagens de vista geral e de detalhe são captura- das substancialmente simultaneamente. Um sinal de captura de imagem pode ser gerado a partir do sistema/subsistema sincronizado (por exemplo, um controlador de sistema) que facilita a captura quase simultânea das ima- gens de vista geral e de detalhe.
Em uma ou mais concretizações dos sistemas e métodos da in- venção, as imagens de vista geral são coletadas de modo que exista uma sobreposição de imagens de vista geral sequencialmente capturadas (daqui para frente referidas como imagens de vista geral sequenciais) de maior ou igual a 50% na direção para frente. Em uma concretização alternativa, a so- breposição de imagens de vista geral sequenciais na direção para frente é pelo menos 90%. Em uma concretização, a sobreposição das imagens de detalhe sequenciais na direção para frente está na faixa de 0% até 20%. Ou- tras concretizações com outras combinações de sobreposição são possíveis como será entendido pelos versados na técnica, e consistente com ter o grau de sobreposição nas imagens sequenciais de detalhe significativamen- te menor do que o grau de sobreposição nas imagens de vista geral sequen- ciais.
Em uma concretização dos métodos e sistemas da invenção, um primeiro sistema de captura de imagem é utilizado para capturar uma ima-
. gem de vista geral de uma área de vista geral, enquanto um segundo siste- ma de captura de imagens captura, substancialmente ao mesmo tempo, * uma imagem de detalhe de pelo menos uma parte da área de vista geral, EF com redundância existindo entre as imagens de vista geral, e redundância existindo entre as imagens de detalhe.
Em termos de redundância, em uma concretização, a redundân- cia nas imagens de vista geral é maior do que 10, ao passo que a redundân- cia nas imagens de detalhe é menor ou igual a 10. Em outra concretização, a redundância nas imagens de detalhe se aproxima de zero. Ainda em outra * 10 concretização, a redundância nas imagens de detalhe é ocasionalmente menor do que zero (negativa) indicando espaços nas imagens capturadas.
' Devido à alta redundância nas imagens de vista geral, os espaços nas ima- gens de detalhe podem ser recriados ou preenchidos através do processa- mento de imagem subsequente.
Como será apreciado pelos versados na técnica, o grau de re- dundância pode ser variado dependendo do ambiente ou das condições sob as quais as imagens estão sendo coletadas. Em ambientes com pouca visi- bilidade ou com alteração rápida, o grau de redundância precisará ser ex- tremamente alto. Por exemplo, em condições de nevoeiro/poeira, ou em a- plicações submarinas, a solução pode ser tendida a maior redundância. Isto pode ser realizado através de vários mecanismos incluindo o uso de mais câmeras de vista geral ou por se ter captura de imagem mais frequente (a- bordagem uniforme de taxa de quadros de vídeo). No caso de aplicações submarinas, múltiplos sensores de 270º, funcionando muito próximo da fre- —quência de vídeo, poderiam ser utilizados para coletar imagens do tipo vista geral com redundância muito alta, enquanto uma única câmera poderia ser utilizada para obter imagens com alta resolução/baixa redundância. Inver- samente, em um ambiente que se altera menos com o passar do tempo (por exemplo, observação de um planeta inteiro a partir do espaço), o grau de redundância nas imagens de vista geral poderia ser reduzido.
Em uma aplicação, as imagens de vista geral e de detalhe são coletadas simultaneamente, por consequência garantindo que imagens re-
R dundantes contenham um número suficiente de potenciais aspectos comuns, elementos comuns, pontos comuns, ou elementos de imagem, e minimizan- E: do os efeitos de movimentos de objetos ou alterações na iluminação. Em . outra concretização, as imagens de vista geral e de detalhe são capturadas aproximadamente a partir da mesma localização. Ainda em outra concretiza- ção, as imagens de vista geral e de detalhe são capturadas simultaneamen- te aproximadamente a partir da mesma localização. Em uma ou mais concretizações dos sistemas e métodos da in- venção, os sistemas/subsistemas de captura de imagem utilizam câmeras - 10 digitais. Em uma ou mais concretizações, as câmeras digitais são câmeras ou sensores baseados em CMOS. Em uma concretização alternativa, um ' sensor push broom é utilizado, e ainda em outra concretização, um sensor whisk broom é utilizado para captura de imagem. Outros mecanismos para captura de imagem tanto de imagens de vista geral como de detalhe podem ser utilizados, incluindo, mas não limitado aos sistemas de filme analógico, scanners de ponto ou lineares, arranjos CCD de geração de imagem, outros dispositivos de geração de imagem baseados em III-V ou II-VI, geradores de imagens por ultrassom, geradores de imagem infravermelha (termográfica). Os geradores de imagem operam baseados na recepção de raios eletro- magnéticos e podem operar na parte infravermelha, visível ou em outras par- tes do espectro eletromagnético. Grande formato e múltiplas lentes, múlti- plos detectores, e múltiplos sistemas de detector/lente, tais como estes des- critos na Patente US 7.009.638 para Gruber e outros, e na Patente US
5.757.423 para Tanaka e outros, cujas descrições na totalidade são incorpo- radas neste documento por referência, também podem ser utilizados para capturar imagens de vista geral e de detalhe. Adicionalmente, múltiplos sis- temas de coleta de imagem, tais como o Multi-cameras Integrated Digital Acquisition System (MIDAS) oferecido pela TRACK'AIR corporation, e outros sistemas configurados para proporcionar vistas obliquas métricas detalhadas podem ser adotados e incorporados nos métodos e sistemas da presente invenção.
Em uma ou mais concretizações dos métodos e sistemas da in-
: venção, um sistema/subsistema sincronizado é utilizado para gerar sinais de captura de imagem que são alimentados para os sistemas/subsistemas de * captura de imagem e causam a captura das imagens de vista geral e de de- - talhe.
Em uma ou mais concretizações, o sistema/subsistema sincronizado é baseado em um microcontrolador ou microprocessador com software, firm- ware e hardware acompanhante apropriados para gerar sinais eletrônicos ou óticos que podem ser transmitidos via cabeamento ou através do espaço (por exemplo, sem uso de fios) para os sistemas/subsistemas de captura de imagem.
Alternativamente, um dispositivo de hardware eletrônico especiali- - 10 zado, funcionando em conjunto com um sistema de navegação, tal como um sistema de navegação baseado em GPS, ou sozinho, pode atuar como o ' sistema/subsistema de sincronização para gerar sinais de captura de ima- gem.
Em uma ou mais concretizações, os sinais de captura de imagem são gerados em um controlador do sistema na forma de um computador (por exemplo, computador laptop ou reforçado) e são recebidos por câmeras digi- tais que formam os sistemas de geração de imagem para as câmeras de vista geral e de detalhe.
Existe distorção inerente na transmissão dos sinais através de cabos (tipicamente possuindo diferentes comprimentos) e atrasos inerentes para as câmeras digitais de modo que existem variações no tempo realde captura das imagens, apesar do uso de um ou mais sinais de captura de imagem sincronizados resultar na captura substancialmente simultânea das imagens.
Em uma ou mais concretizações, o sinal de captura de imagem é um sinal unidirecional emanando a partir do sistema/subsistema de sincroni- zação,e nenhum sinal de retorno a partir dos sistemas/subsistemas de captu- ra de imagem é necessário.
De forma similar, os dados de captura de imagem podem ser armazenados localmente nos dispositivos de geração de imagem (por exemplo, câmeras digitais) e nenhum dado de imagem precisa ser retor- nado a partir dos dispositivos de geração de imagem para o controlador ou para outros dispositivos de armazenamento de dados.
O armazenamento de dados utilizado para o armazenamento das imagens inclui, mas não está limi- tado a: dispositivos de memória de estado sólido tais como memória flash,
. Memória de Acesso Aleatório Estática (SRAM), Memória de Acesso Aleatório Dinâmica (DRAM); dispositivos de armazenamento magnético incluindo, mas * não limitados a fitas, tambores magnéticos, memória essencial, memória da - corda do núcleo, memória de película fina, memória twistor e memória de bo- Ilha; dispositivos de armazenamento eletromagnético incluindo, mas não limi- tados a discos rígidos ou unidades de disco e discos flexíveis; dispositivos de armazenamento ótico incluindo, mas não limitados a película fotográfica, dis- positivos de memória holográfica e hologramas, e discos óticos; e unidades magneto-ópticas e dispositivos de armazenamento de dados. - 10 A figura 1 é um diagrama de blocos de um sistema ilustrativo 100 consistente com alguns aspectos relacionados com os métodos e siste- ' mas da invenção. Referindo-se à figura 1, o sistema 100 pode compreender um primeiro sistema 10 que adquire pelo menos uma imagem de vista geral 112, e um segundo sistema 120 que adquire imagens de detalhe 122, 124,
126. O sistema pode ser orientado em um sistema de coordenadas x-y como ilustrado na Figura 1 e de acordo com o eixo geométrico x 115 e o eixo ge- ométrico y 114. Em uma concretização, os dispositivos de captura de ima- gem (por exemplo, câmeras) são dispostos para capturarem imagens de detalhe 122, 124, 126 nas tiras ao longo de um eixo geométrico de detalhes 130, como eixo geométrico de detalhes 130 sendo geralmente paralelo ao eixo geométrico y 114.
Cada um dentre o primeiro e o segundo sistema 110 e 120 pode incluir um ou mais dispositivos de captura de imagem, por exemplo, câmeras (por toda esta descrição, o termo amplo "dispositivo de captura de imagem" é frequentemente referido como "câmera" para propósito de conveniência, não de limitação). Adicionalmente, um arranjo de geração de imagem pode ser criado através de uma disposição de sensores individuais que são utili- zados para capturar uma imagem, e podem atuar como um dispositivo indi- vidual de captura de imagem ou câmera. Câmeras ou dispositivos de captu- rade imagem individuais podem ser dispostos em uma disposição linear, dispostos ao longo de um eixo geométrico e estabelecidos em ângulos vari- ados para capturar diferentes áreas do terreno, ou dispostos em um formato
. de matriz ou arranjo (linha e coluna). Quando dispostos de modo que os dis- positivos de captura de imagem capturam áreas de imagem adjacentes ou * próximas, seja sobrepondo ou não, os dispositivos podem ser considerados - como sendo dispostos de uma maneira adjacente.
Em uma concretização, o primeiro sistema 10 e o segundo sis- tema 120 são transladados em uma direção x com imagens capturadas peri- odicamente de modo que um alto grau de sobreposição seja criado nas ima- gens de vista geral sequenciais capturadas a partir do primeiro sistema 10, e um grau menor de sobreposição seja criado nas imagens de detalhe se- - 10 quenciais capturadas pelo segundo sistema 120. Nas várias concretizações, as imagens de vista geral possuem uma menor resolução do que as ima- Ú gens de detalhe, de modo a produzir uma alta redundância dentro das ima- gens de vista geral sem criar armazenamento de dados e requerimentos de processamento desnecessários.
Como ilustrado na figura 1, devido à disposição física dos siste- mas de geração de imagem ou câmeras, a imagem de detalhe 122 possui alguma sobreposição com a imagem de detalhe 124, e a imagem de detalhe 124 possui alguma sobreposição com a imagem de detalhe 126 na direção do eixo geométrico de detalhes 130. Como será entendido pelos versados natécnica, a translação do primeiro sistema 110 e do segundo sistema 120 ao longo do eixo geométrico x 115 com captura periódica de imagens permi- te que uma faixa ou tira de terreno seja representada nas imagens de deta- lhe 122, 124 e 126, com a sobreposição garantindo que as imagens de deta- lhe capturem uma tira contígua correspondendo a uma faixa de terreno.
O movimento ou translação do primeiro sistema 10 e do segundo sistema 120 junto com a captura periódica de imagens resulta na captura de ti- ras/faixas contíguas possuindo um primeiro grau de sobreposição para fren- te no nível de imagem de detalhe, e captura das imagens de vista geral pos- suindo um segundo grau de sobreposição para frente, o segundo grau de sobreposição sendo mais elevado do que o primeiro grau de sobreposição.
Em concretizações alternativas, o primeiro sistema 110 e o se- gundo sistema 120 são transladados ao longo do eixo geométrico y 114.
. Ainda em oura concretização, o primeiro sistema 110 é transladado separa- damente do segundo sistema 120. Ainda em outra concretização, a imagem : de vista geral 112 e as imagens de detalhe 122, 124 e 126 são capturadas - em momentos separados do primeiro sistema 10 e do segundo sistema 120, respectivamente.
Adicionalmente, os primeiro e segundo sistemas 110, 120 podem incluir arranjos de dispositivos digitais de captura de imagem, tal co- mo em cascata ou grupos adjacentes de múltiplas câmeras montadas em suportes rígidos ou semirrígidos. Os versados na técnica irão apreciar que - 10 taisdetalhes de montagem são ilustrativos. Por exemplo, o termo sistema de montagem rígido ou semirrígido pode descrever qualquer aparelho capaz de ' precisamente definir a posição relativa de um sistema de geração de ima- gem tal como uma única câmera ou várias câmeras. Tal sistema de monta- gem pode ser construído de vários modos. Por exemplo, o sistema de mon- tagem pode ser compreendido de uma estrutura rígida, tal como montar as câmeras em um fechamento por compartimento; ele pode compreender câ- meras mantidas em posições independentes, porém precisas, em relação uma à outra, tais como câmeras montadas em multipolos sistemas aéreos ou de satélite distintos com um sistema de referência local para definir o po- sicionamento relativo da câmera entre os satélites. Alternativamente, o pri- meiro sistema 110 pode consistir de um arranjo de geração de imagem de baixa resolução, e o segundo sistema 120 pode consistir de um ou mais ar- ranjos de geração de imagem com alta resolução, com a disposição e a ge- ração de imagem dos arranjos selecionadas de modo que o arranjo de gera- çãodeimagem com baixa resolução do primeiro sistema 110 capture a ima- gem de vista geral 112, e os arranjos de geração de imagem com alta reso- lução capturem imagens de detalhe 122, 124 e 126. O sistema 100 da figura 1 também é ilustrativo referindo-se às várias configurações que podem estar presentes entre ou no meio dos sis- temas 110, 120 e/ou seus dispositivos de captura de imagem. Por exemplo, as figuras 2A e 2B são diagramas de blocos ilustrando diferentes disposi- ções do primeiro sistema 10 e do segundo sistema 120 consistentes com os
. métodos e sistemas revelados neste documento. Em ambas as figuras 2A e 2B, os sistemas de geração de imagem 210A e 220A são utilizados com o 7 primeiro sistema 110 e com o segundo sistema 120, respectivamente. A figu- - ra 2A ilustra uma implementação onde o primeiro sistema 10 e o segundo sistema 120 estão localizados em uma localização fixa, tal como em uma plataforma aérea, dentro ou em uma aeronave incluindo, sem limitação, uma aeronave de asas fixas ou helicóptero, em um satélite, em uma plataforma de observação de alta altitude ou no espaço, ou dentro ou em uma embar- cação de navegação no oceano, tal como um navio, submarino, ou outra - 10 embarcação submarina. Nesta concretização, o primeiro sistema 10 e o se- gundo sistema 120 estão localizados próximos um do outro e são movidos ' juntos. Em outras aplicações, o primeiro sistema 110 e o segundo sistema 120 proximamente localizados são utilizados para observações do terreno, observações da terra e do céu, geração de imagem submarina, ou geração deimagem microscópica.
A figura 2B ilustra uma concretização onde o primeiro sistema 110 está posicionado separadamente do segundo sistema 120. Nesta con- cretização, o primeiro e o segundo sistemas são mantidos independentes, mas as localizações dos dois (ou mais) sistemas em relação um ao outro são precisamente conhecidas ou calculadas. Em uma estrutura física, isto pode ser realizado através da montagem rígida tal como em um fechamento por compartimento. Alternativamente, o rastreamento da posição relativa entre o primeiro sistema 110 e o segundo sistema 120 irá permitir o uso de duas plataformas completamente independentes. Em uma concretização, uma primeira aeronave ou outro tipo de veículo pode criar imagens de vista geral utilizando o primeiro sistema 10, enquanto uma segunda aeronave ou outro tipo de veículo pode criar as imagens de detalhe utilizando o segundo sistema 120. Os sistemas de orientação navegacional ou inerciais podem ser utilizados para determinar o posicionamento relativo dos sistemas. Ainda em outra concretização, os sistemas são montados em múltiplos sistemas de satélite distintos com um sistema de referência local utilizado para definir O posicionamento relativo da câmera entre os satélites.
' A figura 3 é um diagrama de blocos de outro sistema ilustrativo consistente com alguns aspectos relacionados com as inovações neste do- cumento.
Como apresentado na figura 3, uma plataforma unitária ou módulo 310 pode incluir ou incorporar tanto o primeiro sistema 110 como o segundo sistema 120. A plataforma unitária pode ser qualquer disposição ou configura- ção na qual o primeiro sistema e o segundo sistema são conectados de forma fixa e podem ser transladados ou movidos juntos.
De acordo com implemen- tações adicionais, a plataforma 310 também pode incluir várias disposições elou arranjos do primeiro e segundo dispositivos de captura de imagem ou - 10 câmeras.
Referindo-se à figura 3, os sistemas de captura de imagem 210A e 210A' representam os primeiros sistemas de geração de imagem que captu- ' ram imagens de vista geral em uma primeira resolução.
O número de siste- mas de captura de imagem que capturam as imagens de vista geral em uma primeira resolução pode ser estendido como ilustrado pelo sistema de captura deimagem 210A", e como tal, várias câmeras ou ouros dispositivos de gera- ção de imagem podem ser utilizados para criar a imagem de vista geral 112. Em uma concretização, cada um dos primeiros sistemas de geração de ima- gem 210A, 210A' até 210AY" é utilizado para obter a imagem de vista geral completa 112, enquanto em uma concretização alternativa, os primeiros sis- temas de geração de imagem 210A, 210A' até 210AY são dispostos para ob- terem segmentos da imagem de vista geral 112 e como tal, suportam a mon- tagem de toda uma imagem de vista geral.
Em uma concretização, os primei- ros sistemas de geração de imagem 210A, 210A' até 210AV são dispostos ao longo do eixo geométrico de detalhes 130. Em concretizações alternativas, os primeiros sistemas de geração de imagem 210A, 210A' até 210AY” são dispos- tos ao longo do eixo geométrico x 115, em um formato de arranjo, ou em qualquer outra disposição que proporcione a cobertura da área de vista geral a ser capturada na imagem de vista geral 112. Como anteriormente discutido, as disposições e/ou arranjos de dispositivos de geração de imagem podem ser configuradas para criarem uma cascata de sistemas de geração de ima- gem produzindo um espectro de resoluções com redundância geralmente di-
minuindo com a resolução aumentando.
. Novamente se referindo à figura 3, as imagens de detalhe 122, 124 e 126, possuindo uma resolução mais elevada do que a imagem de vis- * ta geral 12, são capturadas com os segundos sistemas de geração de ima- - gem 220A, 220A' e 220AY, respectivamente. Em uma concretização, as ima- gensde detalhe 122, 124 e 126 são imagens de detalhe sobrepostas alinha- das ao longo do eixo geométrico de detalhes 130, o eixo geométrico de deta- lhes 130 sendo substancialmente paralelo ao eixo geométrico y 114. Em ou- tras concretizações, os segundos sistemas de geração de imagem 220A, 220A' e 220AY são todos dispostos ao longo do eixo geométrico x 115, em - 10 um formato de arranjo, ou em qualquer outro formato de sobreposição ou que não seja de sobreposição que permita a captura de imagens de detalhe : tais como as imagens de detalhe 122, 124 e 126.
Em uma concretização, os primeiros sistemas de geração de imagem 210A, 210A' até 210AY e os segundos sistemas de geração de ima- gem 7220A,220A'e 220AY são todos baseados no mesmo tipo de sistema de geração de imagem, tal como uma câmera digital operando na parte visível do espectro. Em uma concretização alternativa, os sistemas de geração de imagem individuais dentro dos primeiros sistemas de geração de imagem 210A, 210A' até 210AY e dos segundos sistemas de geração de imagem 220A,220A'e220AY são diferentes. Por exemplo, o primeiro sistema de ge- ração de imagem 220A pode operar na região visível do espectro, enquanto o segundo sistema de geração de imagem 220A' pode operar na parte infra- vermelha do espectro. De forma similar, os segundos sistemas de geração de imagem 220A, 220A' e 220AY podem ser de tipos diferentes (por exem- plo, visível e infravermelho) e podem ser organizados de modo que a ima- gem de detalhe 122 é capturada duas vezes ou mais, uma vez por cada um dos dois ou mais sistemas de geração de imagem. Como será entendido pelos versados na técnica, as imagens de detalhe 122, 124 e 126 podem ser capturadas por múltiplos tipos de sistemas de geração de imagem (por e- xemplo, visível ou infravermelho), ou com cada imagem de detalhe sendo capturada por um único tipo de sistema de geração de imagem. Referindo-se à figura 4, um módulo unitário 400 é revelado, in-
. cluindo uma primeira câmera de vista geral 410A subtendendo uma primeira vista da câmera de vista geral 411A, uma segunda câmera de vista geral * (não apresentada na figura 4) subtendendo uma segunda vista de câmera . de vista geral 41B, uma primeira câmera de detalhe 420A subtendendo uma primeira vista de detalhe 421A, uma segunda câmera de detalhe 420B sub- tendendo uma segunda vista de câmera de detalhe 421B, uma terceira câ- mera de detalhe 420C subtendendo uma terceira vista de câmera de detalhe 421C, uma quarta câmera de detalhe 420D subtendendo uma quarta vista de câmera de detalhe 421D, uma quinta câmera de detalhe 420E subten- - 10 dendo uma quinta vista de câmera de detalhe 421E, uma sexta câmera de detalhe 420F subtendendo uma sexta vista de câmera de detalhe 421F, uma ' sétima câmera de detalhe 420G subtendendo uma sétima vista de câmera de detalhe 421G, uma oitava câmera de detalhe 420H subtendendo uma oitava vista de câmera de detalhe 421H, uma nona câmera de detalhe 4201| subtendendo uma nona vista de câmera de detalhe 4211, uma décima câme- ra de detalhe 420J subtendendo uma décima vista de câmera de detalhe 421J e uma décima primeira câmera de detalhe 420K subtendendo uma dé- cima primeira vista de câmera de detalhe 421K.
O armazenamento de dados local pode ser utilizado com cada câmera, assim, eliminando a necessidade degravarde volta junto a uma localização de memória ou de armazenamen- to central.
O armazenamento de dados local pode ser compreendido de qualquer tipo de memória digital incluindo, mas não limitado a memória flash ou a outro tipo de memória não volátil, memória volátil e sistemas associa- dos para reter informação nesta memória, unidades de disco, ou outros tipos demeios ou sistemas de armazenamento digital.
Alternativamente, câmeras podem compartilhar memória local.
Referindo-se ao último caso, algumas das inovações neste documento incluem aspectos de compactar e/ou de armazenar imagens em associação com cada câmera, ao invés do que re- querer que fotografias capturadas sejam transmitidas e armazenadas em um sistema central de armazenamento.
A compactação e armazenamento para- lelos de fotografias com cada câmera aumentam o rendimento e o armaze- namento máximos para o sistema de câmera, o que permite levantamentos
' serem conduzidos de forma mais rápida, permitindo que mais dados sejam armazenados e o tempo de voo seja aumentado. Tal compactação e arma- * zenamento paralelos com cada câmera também aumentam a confiabilidade - do armazenamento, à medida que isto permite o uso de meio flash compacto ououtromeio de estado sólido com cada câmera.
Os sistemas de geração de imagem digital existentes armaze- nam o sensor linear bruto como dados de 12 até 16 bits junto a um sistema central de armazenamento. Em contraste, por executar a compactação em cada câmera em paralelo, os dados podem ser convertidos para um espaço - 10 decoresgama tal como YCbCr. Isto permite que os dados sejam armazena- dos como dados de 8 bits, desde que intensidade de bits tipicamente somen- : te é necessária para dados lineares brutos, e adicionalmente permite a com- pactação de imagens antes do armazenamento em cada armazenamento de dados da câmera. A conversão para um espaço de cores gama e a compac- tação podem permitir uma redução ao redor de 10 vezes nos requerimentos de espaço de armazenamento. Por exemplo, em um sistema possuindo 14 câmeras, cada uma com seu próprio cartão de memória flash compactada de 32 GB, o total de 448 GB de armazenamento pode ser equivalente a mais do que ao redor de 4.500 GB ou 4,5 TB de armazenamento de dados brutos não compactados de fotografias. A operação paralela elimina a necessidade de transmitir dados da imagem ou quaisquer outros sinais a partir das câme- ras para o sistema de computador de controle de voo, e assim, aumenta a taxa de captura para o sistema de câmera, assim reduzindo o cabeamento e os requerimentos de sinalização.
Um subsistema de plano de voo e de sincronização de captura de imagem pode ser utilizado para gerar um ou mais sinais de captura a se- rem enviados para as câmeras tal como estes ilustrados na Figura 4. Em uma concretização, um único sinal de captura é enviado a partir do subsis- tema de plano de voo e de sincronização de captura de imagem para cada câmera. Entretanto, diferenças nos comprimentos dos cabos, tempos de a- traso nas câmeras, e outras variáveis podem resultar nas fotografias sendo tiradas com tempos ligeiramente diferentes. Adicionalmente, os geradores
. de sinais de sincronismo locais das câmeras podem ser inexatos ou exibirem flutuações. . Em uma concretização, câmeras digitais, tipicamente contendo ç arranjos de sensor de geração de imagem CMOS, são utilizadas para captu- rarasimagens de vista geral e de detalhe.
Em uma concretização alternativa, sensores push broom, compreendidos de um arranjo linear de sensores óti- cos, podem ser utilizados para capturar as imagens de detalhe e servem co- mo o sistema de captura de imagem de detalhe.
Em outra concretização, um sensor whisk broom ou sensor de foco pode ser utilizado para gerar as ima- - 10 gens de detalhe.
Quando utilizando um sensor whisk broom, um sistema de digitalização baseado em espelho ou outro tipo de sistema de digitalização : cria a imagem por gerar a imagem de um único ponto sobre o sensor.
O sis- tema de digitalização pode ser integrado com os sistemas de sincronização e navegacional de modo que a taxa de digitalização seja apropriadamente sin- cronizada com o movimento para frente do veículo transportando os sistemas de câmera e crie a imagem de detalhe com a resolução apropriada.
Os versados na técnica reconheceriam que as quantidades (isto é, tanto das câmeras como dos arranjos) de câmeras de detalhe podem ser ajustadas para proporcionarem os resultados de imagem desejados.
Vanta- gens consistentes com tais implementações incluem a habilidade de configu- rar e/ou reconfigurar o módulo 400 para almejar diferentes requerimentos de levantamento, tal como a coleta de imagens verticais ou oblíquas (altas e baixas), ou combinações das mesmas.
Como entendido pelos versados na técnica, imagens ou fotografias verticais são estas tiradas com o eixo geo- —métricoda câmera direcionado o mais verticalmente possível, ao passo que imagens ou fotografias oblíquas se referem a estas imagens ou fotografias tiradas com o eixo geométrico da câmera intencionalmente inclinado para longe da vertical.
Além disso, os versados na técnica irão entender que ima- gens ou fotografias oblíquas altas geralmente incluem o horizonte, ao passo que imagens ou fotografias oblíquas baixas geralmente não incluem o hori- zonte.
Referindo-se à figura 4, as várias câmeras podem ser dispostas
BR no módulo unitário 400 de modo que as câmeras geralmente fiquem alinha- das ao longo do eixo geométrico do módulo 450. Em uma concretização, o : eixo geométrico do módulo 450 é substancialmente paralelo ao eixo geomé- é trico x 115 da Figura 3, o qual tipicamente é na direção do percurso para frenteda aeronave ou de outro veículo.
Nesta concretização, o eixo geomé- trico de detalhes 130 (não apresentado na figura 4) é substancialmente per- pendicular ao eixo geométrico do módulo 450 e as câmeras de detalhe são dispostas para criar uma faixa de geração de imagem que é substancialmen-
te paralela ao eixo geométrico y 114 da figura 3. - 10 As figuras 8A e 8B proporcionam exemplos dos detalhes de dis- posições de câmera que podem ser utilizadas em uma concretização. ' Os exemplos específicos revelados neste documento não são para serem considerados limitativos e de nenhum modo restringem o uso dos métodos e sistemas revelados neste documento, os quais podem ser aplicados para vários tipos e configurações de sistemas de geração de imagem.
Por exem- plo, apesar dos detalhes de disposição ilustrativos fazerem referência ao equipamento Canon ou Nikon, ouros tipos de equipamento de geração de imagem ou combinações dos mesmos, ou combinações diferentes de gru- pos de câmeras, disposições, ou lentes, podem ser utilizadas.
Em uma con- cretização, as câmeras são agrupadas de modo que as câmeras de vista geral (câmeras da marca Canon ou Nikon) sejam compreendidas de uma câmera de vista geral vertical na forma de uma câmera com uma lente de 28 mm apontando verticalmente para baixo, como citado na Tabela 1 da Figura 8A, e uma câmera de vista geral traseira com uma lente de 28 mm apontan- do para trás (ou oposta à direção de movimento da aeronave ou do outro veículo) em um ângulo de 35 graus a partir da vertical.
Nesta concretização, as câmeras de alta resolução Canon são compreendidas de um grupo verti- cal de cinco câmeras com lentes de 200 mm e com um espaçamento do grupo de -19º, -9,5º, 0º, 9,5º, 19º e 28,5º; um grupo oblíquo lateral é com- preendido de três câmeras possuindo lentes de 200 mm e um espaçamento do grupo de 38º, 47,5º, 57º; e um grupo oblíquo traseiro compreendendo de três câmeras com lentes de 135 mm com um espaçamento do grupo de -
' 14,5º, 0º, 14,5º inclinadas 50º a partir da vertical. No caso das câmeras de alta resolução Nikon, um grupo vertical de 6 câmeras possuindo lentes de - 180 mm possui um espaçamento de grupo de -21º, -10,5º, 0º, 10,5º, 21º, 31,5º; um grupo oblíquo lateral de 3 câmeras possuindo lentes de 180 mm possuindo um espaçamento de grupo de 42º, 52,5º e 63º; e um grupo obli- quo traseiro de 3 câmeras possuindo lentes de 135 mm com um espaça- mento de grupo de -14,5º, 0º, 14,5º inclinado 50º a partir da vertical. Em uma concretização alternativa, um primeiro conjunto de câ- meras é configurado com lentes grande-angular e são utilizadas para captu- - 10 rar fotografias com uma quantidade muito grande de sobreposição tal como 50/99 (50% lateral e 99% para frente). Fotografias capturadas por estas câ- : meras cobrem uma grande área por fotografia, e o alto grau de sobreposição e de redundância resulta em aspectos comuns, elementos comuns, pontos comuns, ou pontos de elementos de imagem sendo visíveis em muito mais fotografias do que nos sistemas anteriores, assim, permitindo a determina- ção precisa de orientação interior e exterior mesmo sem o uso de uma plata- forma estabilizada. Um segundo conjunto de câmeras pode ser configurado com lentes de comprimento focal mais longos e utilizadas para capturar ima- gens de detalhe para gerar as fotocartas detalhadas para o levantamento. Uma baixa quantidade de sobreposição é utilizada nestas câmeras para mi- nimizar a redundância e para maximizar o uso das imagens de fotografia para o levantamento de detalhe, significativamente reduzindo os custos ge- rais e o tempo requerido para completar o levantamento.
A figura 5A ilustra uma implementação ilustrativa incluindo um compartimento externo montado em uma pequena aeronave de motor único
510. Referindo-se à figura 5A, em uma concretização da invenção, as câme- ras para o sistema de câmera são montadas dentro de um compartimento ou alojamento removível 520, o qual serve como o módulo unitário 400. Assim, é possível utilizar o sistema de câmera em uma pequena aeronave padrão 510,tal como uma Cessna 210, sem requerer modificações junto à aerona- ve. A figura 5B ilustra uma implementação ilustrativa de um sistema de cap- tura de imagem. Como apresentado na figura 5B, o compartimento ou alo-
. jamento removível 520 pode incluir várias câmeras de vista geral e de deta- lhe 410 e 420, as quais podem ser agrupadas ou dispostas como anterior- : mente descrito e referindo-se às figuras 4, 8A e 8B.
Implementações como - apresentadas nas figuras 5A e 5B proporcionam alta precisão sem requerer uma plataforma de montagem estabilizada, e também permitem peso e re- dução de tamanho suficientes permitindo que o sistema de câmera seja montado em um Veículo Aéreo Não Tripulado (UAV). Levantamentos aéreos podem ser executados em diferentes alti- tudes e com diferentes tempos de voo, com diferentes resoluções resultan- - 10 tes.
Por exemplo, e de acordo com as configurações de câmera ilustradas nas figuras 8A e 8B, um levantamento aéreo executado com uma câmera ] vertical Canon 1Ds MKIII com uma lente com uma distância focal de 200 mm em uma altitude de 8.000 pés, pode gerar dados para uma fotocarta final com uma resolução de 7,5 cm.
Neste exemplo, com uma taxa de captura de 330 km?/h, uma cidade típica de 50 km x 40 km pode ser capturada em um tempo de voo de 6 horas.
Em outra concretização, em correspondência com as configura- ções de câmera ilustradas na figura 8C, com 1 câmera de vista geral vertical Canon 1Ds MKIll com uma lente com distância focal de 28 mm e 9 câmeras dedetalheCanon 1Ds MKII! com lentes com distância focal de 300 mm e em uma altitude de 10.000 pés, uma taxa de captura de 500 km?/h pode ser ob- tida, resultando em um tempo de voo de 4 horas para capturar uma cidade típica de 50 km x 40 km com uma resolução resultante de 6,5 cm.
Maiores resoluções podem ser capturadas utilizando as mesmas concretizações discutidas acima, ou, em outras concretizações, pela utiliza- ção de tempos de voos mais longos (por exemplo, resolução de 3,5 cm cap- turada em um levantamento aéreo de 9 horas) em altitudes mais baixas.
Os levantamentos aéreos mencionados acima são somente exemplos represen- tativos e não dados para limitar o escopo da invenção, o qual pode ser prati- cado sob uma ampla variedade de condições.
Para aplicações submarinas, a altitude pode ser entendida como sendo comparável à distância acima do leito do mar.
. Como será apreciado pelos versados na técnica, várias configu- rações de sistemas de geração de imagem podem ser utilizadas com dife- - rentes relações entre altitude e resolução, todas estas configurações estan- . do dentro do espírito e do escopo da invenção. Em uma concretização, a resolução de 1 cm é produzida para cada 1.000 pés de altitude (por exem- plo, a resolução de 3 cm em 3.000 pés de altitude, resolução de 7 cm em
7.000 pés de Altitude). Em uma segunda concretização, a resolução de pon- to do terreno em cm é a altitude em pés dividida por 900. Em uma terceira concretização, a resolução de ponto do terreno em cm é a altitude em pés - 10 dividida por 800, e em uma quarta concretização, a resolução no terreno em cm é a altitude em pés dividida por 2.000.
: Referindo-se à figura 5C, o uso do método e sistema em uma concretização é ilustrado, no qual a aeronave 510 é equipada com o com- partimento ou alojamento removível 520 e percorre em uma dada altitude h 530 (representada ao longo do eixo geométrico z 117), em uma velocidade v 532, o percurso sendo geralmente executado no plano x-y como definido pelo eixo geométrico x 115 e pelo eixo geométrico y 114. A figura 5D é um plano de voo para um levantamento no plano x-y, este plano de voo possuindo um primeiro segmento longo 560, seguido poruma volta 564, seguida pelo segmento longo de retorno 568. Combina- ções repetidas de segmentos longos, curvas, e de segmentos longos de re- torno podem ser utilizadas para criar o plano de voo para a área de levanta- mento. O método e sistema descritos neste documento também podem incorporar um sistema/subsistema de plano de voo e de sincronização que gera um plano de voo adequado para gerar uma fotocarta de uma área par- ticular, bem como para capturar sinais indicando para os sistemas de captu- ra de imagem de vista geral e de detalhe que as respectivas imagens devem ser capturadas. Em uma concretização, o plano de voo contém parâmetros taiscomo altitude, direção de percurso, velocidade do ar, pontos de referên- cia e localizações de mudança de direção. Como será entendido pelos ver- sados na técnica, o plano de voo direciona o piloto (ou veículo no caso de
. uma aeronave não tripulada ou com controle automático) para voar em um padrão que permita a criação de imagens possuindo o grau apropriado de sobreposição lateral. Apesar da sobreposição na direção para frente ser con- - trolada pela sincronização dos sinais de captura de imagem, a sobreposição na direção lateral é controlada principalmente pelo caminho da aerona- velveículo em relação aos caminhos paralelos anteriores no voo.
Em uma concretização, o sistema/subsistema de plano de voo e de sincronização recebe sinais de entrada a partir do equipamento de nave- gação, incluindo sistemas terrestres (por exemplo, VOR, LORAN) e sistemas - 10 por satélite (por exemplo, GPS e WAAS) para determinar a posição. Sinais gerados a partir de sistemas inerciais podem ser utilizados em conjunto com Ú os sinais de determinação de localização para determinar alterações na ve- locidade bem como alterações na arfagem, guinada e rolamento da aerona- ve. Em uma concretização, alterações rápidas na direção podem ser deter- minadas utilizando os Sistemas Microelétrico-Mecânico (MEMS). Tanto os desvios em curto prazo como em longo prazo a partir do plano de voo pro- posto podem ser incorporados pelo sistema de plano de voo e de captura de imagem para indicar correções para o plano de voo ou para ajustar os sinais de captura sendo enviados para os sistemas de captura de imagem de vista geralede detalhe.
Em uma concretização, o subsistema de plano de voo e de sin- cronização de captura de imagem é baseado em um computador pessoal com equipamento navegacional adicional (por exemplo, GPS, D-GPS), exi- bições e programação que permitem um plano de voo ser desenvolvido e gerasinais de sincronização para captura de imagem consistente com a so- breposição desejada. Em uma concretização alternativa, hardware especiali- zado é utilizado para desenvolvimento do plano de voo e para a geração de sinal de captura de imagem.
As figuras 6A e 6B são diagramas ilustrando representações ilustrativas de imagem de vista geral e de detalhe. A figura 6A apresenta uma representação ilustrativa, onde múltiplas câmeras são configuradas pa- ra maximizar a quantidade de dados de imagem de detalhe 610 obtidos na
. área única (não sobreposta) através do uso de múltiplas câmeras de deta- lhe, enquanto garantindo que exista sobreposição suficiente entre as ima- é gens de vista geral 612 para criar a redundância desejada para permitir pro- « cessamento com sucesso em fotocartas.
A representação da figura 6A pode ser alcançada, por exemplo, utilizando uma câmera de vista geral (veja, por exemplo, as imagens repre- sentativas 612, 616, 620, 624 da mesma) para capturar orientação interior e exterior, e um grupo de nove câmeras dispostas de uma maneira adjacente para capturar uma faixa de fotografias de detalhe 610, 614, 618, 622 ou - 10 subpartes de cada fotografia de visa geral em resolução mais elevada do que a resolução da visa geral. Como exposto acima, aspectos das inovações ' neste documento podem incluir alinhamento fixo ou parcialmente ajustável de câmeras no sistema de câmera, o que permite que as fotografias sejam tiradas com sobreposição mínima entre as imagens de detalhe formando a faixa. Adicionalmente, imagens podem ser obtidas frequentes o suficiente para garantir que exista sobreposição entre imagens sequenciais obtidas ao longo de uma linha de voo, e linhas de voo podem ser organizadas para ga- rantir que exista sobreposição entre faixas de imagens de detalhe obtidas ao longo de linhas de voo adjacentes. Diferente dos sistemas existentes, onde sobreposição significativa é requerida para executar os feixes perspectivos precisos, as inovações da invenção permitem o uso de uma quantidade míi- nima de sobreposição existindo entre faixas subsequentes, sequenciais ou adjacentes de imagens de detalhe, a qual precisa ser somente suficiente para posteriormente executar a criação de uma fotocarta sem rupturas. Co- mo resultado, a redundância requerida para uma faixa de fotografias a partir de câmeras de detalhe é muito menor do que com os sistemas existentes, o que diminui de forma significativa o tempo e os custos do levantamento. Além disso, quantas câmeras de detalhe adicionais quanto re- queridas podem ser configuradas de um modo adjacente ou em cascata pa- ra capturar subpartes detalhadas das imagens de vista geral para vistas es- pecíficas, tais como imagens aéreas de nadir (vertical) ou imagens oblíquas a partir de diferentes ângulos de visão. Estas imagens podem ser subse-
. quentemente processadas para produzirem as fotocartas aéreas de nadir correspondentes ou fotocartas obliquas. Devido a uma única câmera de de- : talhe poder não ter resolução suficiente para capturar uma subparte em re- - solução suficiente para o levantamento desejado, um grupo de câmeras de detalhe para uma perspectiva de vista específica pode ser organizado em uma faixa para capturar uma faixa mais ampla da perspectiva desejada. As figuras 7A e 7B ilustram representações adicionais ilustrativas de imagem de vista geral e de detalhe. A figura 7A ilustra os resultados de três grupos ad- jacentes de câmeras de detalhe nos quais cinco câmeras produzem imagens - 10 correspondendo à vista vertical detalhada (por exemplo, imagens 730, 730A até E), quatro câmeras produzem imagens correspondendo às vistas oblí- Ú quas detalhadas direita e esquerda a partir de linhas de voo alternativas (por exemplo, imagens 740), e três câmeras produzem imagens correspondendo às vistas detalhadas obliquas frontal e traseira a partir de linhas de voo al- ternativas (por exemplo, imagens 750, 750A até 750C). A figura 7B ilustra a captura de imagem através do movimento do veículo ou da aeronave, onde múltiplas vistas oblíquas são proporcionadas por voar por linhas de voo em direções alternativas, por exemplo, por obter quatro vista obliquas a partir de dois grupos de câmeras obliquas.
Como anteriormente discutido referindo-se às figuras 8A, 8B e 8C, tipos particulares de câmeras podem ser geometricamente dispostos para obter as configurações de geração de imagem ilustradas nas figuras 7A e 7B. Os versados na técnica estarão aptos a determinar configurações al- ternativas para estas reveladas neste documento para captura de dados aé- reosa partir de vários veículos ou aeronaves transportados pelo ar, ou no caso de mapeamento de leito marinho, a partir de embarcações de alto mar.
Imagens coletadas utilizando o método e sistema da invenção possuem sobreposição com cada outra, resultando na aparição de pontos comuns para as duas ou mais imagens ou fotografias. Tais pontos podem ser referidos como aspectos comuns, elementos comuns, pontos comuns, ou elementos de imagem, pontos do terreno, pontos do aspecto, pontos de aspecto do terreno, pontos de amarração, par estéreo ou outros termos se
BR referindo à aparição repetida de um ponto ou objeto em várias imagens.
Em alguns casos, os pontos podem conter objetos com localizações conhecidas, : estes objetos normalmente referidos como pontos de controle.
Pontos co- - muns podem ser utilizados para desenvolver um modelo estéreo analítico apropriado através das etapas de orientação interior, orientação relativa e de orientação absoluta.
A orientação interior geralmente recria a geometria que existia na câmera (ou outro sistema de geração de imagem) quando a ima- gem ou fotografia foi obtida.
A orientação relativa analítica é o processo de determinar a atitude angular relativa e o deslocamento de posição entre as - 10 fotografias que existiam quando as fotografias forma obtidas.
O processo de estéreo orientação absoluta analítica resulta em relacionar as coordenadas : dos pontos de controle com suas coordenadas tridimensionais em um siste-
ma com base no solo.
Geralmente falando, dado um conjunto de imagens representan- do uma série de pontos a partir de diferentes pontos de vista, o processo tradicional de feixes perspectivos pode ser utilizado para ajustar todos os médicos fotogramétricos para fundamentar valores de controle (pontos no terreno ou pontos comuns) em uma única solução.
Os feixes perspectivos podem incluir determinar as coordenadas espaciais do objeto de todos os pontos do objeto, e os parâmetros de orientação exterior de todas as foto- grafias.
Os feixes perspectivos simultaneamente refinam as estimativas para as posições do ponto do terreno e para cada orientação exterior e interior das fotografias.
Uma posição do ponto no terreno é identificada como um aspecto em cada fotografia.
Um requerimento para os feixes perspectivos é maximizar o número médio e máximo de fotografias nas quais um ponto no terreno pode ser identificado.
Se um ponto no terreno for identificado em muito poucas fotos, então a solução não é muito rígida e sofre tanto de erros de precisão como de um risco aumentado de erros graves, onde pontos do terreno incorretamente identificados foram utilizados na solução de feixes perspectivos.
Os feixes perspectivos são capazes de refinar fotografias que possuem diferentes poses, por exemplo, as fotografias podem possuir dife- rentes ângulos oblíquos ou podem ser verticalmente orientadas.
Informação
' adicional referindo-se aos feixes perspectivos é conhecida pelos versados na técnica e encontrada em referência tais como "Elements of Photogram- * metry with Applications in GIS, 3rd edition", por Paul Wolf e Bom Dewitt - (McGraw Hill, 2000), Patente US 6.996.254 para Zhang e outros, e "Bundle adjustment - a modern synthesis" por Bill Triggs, Phillip McLauchlan, Ri- chard Hartley e Andrew Fitzgibbon, aparecendo no Lectures Notes em Com- puter Science, vol. 1882 (Springer Verlag, January 2000), todos sendo incor- porados neste documento por referência. Em uma concretização, um sistema de captura de imagem é - 10 montado dentro ou em uma aeronave para obter as imagens brutas apropri- adas utilizando os métodos e sistemas descritos neste documento e para Ú guiar o piloto da aeronave para as coordenadas corretas. A figura 9 ilustra uma aeronave ilustrativa equipada com o equipamento necessário de acordo com esta concretização. A aeronave 510 é preparada com o compartimento ou alojamento removível 520 que é rigidamente montado junto à aeronave
510. Em uma concretização, a montagem é executada através da remoção da porta lateral de passageiros da aeronave, e pela substituição da porta pelo suporte de porta/compartimento. O compartimento ou alojamento removível 520 contém várias câmeras como descrito acima referindo-se à figura 4. Em uma concretiza- ção, uma série de portas móveis cobrem as câmeras no compartimento ou alojamento removível 520 para proteger as câmeras durante partes do voo incluindo a decolagem e a aterrissagem. Em uma concretização, sensores são incorporados dentro das portas de câmera, de modo que a condição da porta pode ser monitorada. Em uma concretização, câmeras e portas do compartimento ou do alojamento removível 520 são conectadas com um computador 1000. Nesta concretização, o computador 1000 executa softwa- re desenvolvido para controlar e operar os elementos do sistema durante o voo. Apesar de representado como um laptop, o computador 1000 pode ser qualquer computador incluindo um laptop, computador pessoal reforçado, um sistema embutido na aeronave, um computador especializado, um dis- positivo portátil tal como um Assistente Pessoal Digital ou telefone celular.
: Novamente se referindo à figura 9, o computador 1000 está co- nectado com uma unidade de Sistema de Posicionamento Global (GPS) : 1010, a qual produz uma alimentação para rastrear a posição atual do plano - e o registro da posição atual no armazenamento no computador 1000. A unidade de controle de câmera 1030 controla o arranjo de câmeras no com- partimento ou no alojamento removível 520, incluindo enviar sinais para o foco automático e tirar fotografias.
Na concretização ilustrada na figura 10, a unidade GPS 1010 serve como um sistema/subsistema de navegação, en- quanto o computador 1000 serve como um sistema/subsistema de sincroni- - 10 zação.
Em uma concretização alternativa, o computador 1000 incorpora a funcionalidade do sistema de navegação e pode incluir a unidade GPS 1010. Ú Ainda em outra concretização, uma unidade dedicada possui subsistemas proporcionando as funções de navegação e de sincronização.
O visor de voo 1020 está conectado com o computador 1000 e em uma concretização exibe detalhes do voo.
Em uma concretização alter- nativa, o visor de voo 10209 apresenta a condição do sistema como um todo incluindo a condição das portas e a atividade das câmeras ao adquirir ima- gens.
O visor de voo 1020 pode ser o monitor do computador pessoal 1000, um monitor externo adicional ou um monitor embutido na aeronave.
O visor de voo 1020 pode ser um monitor sensível ao toque e permite a entrada de comandos para o sistema.
Alternativamente, um mouse, teclado ou outro dispositivo de entrada (não apresentado) pode ser utilizado para receber entrada do usuário.
Em uma concretização, o sistema exibe uma variedade de in- formações para o piloto da aeronave 510. Estas informações podem ser exi- bidas no visor de voo 1020, no vídeo do computador 1000 ou em outro visor disponível para o piloto.
O sistema exibe as linhas de voo de uma área proje- tada, áreas geográficas definidas e dados do levantamento que definem a área real dentro do mapa a ser capturada.
A figura 10 ilustra um diagrama de blocos para o computador 1000 funcionando em conjunto com um controlador 1120 e um dispositivo GPS 1122. Em uma concretização, o computador 1000 inclui pelo menos
. uma porta de Barramento Serial Universal (USB) 1100 que é conectada com um concentrador USB 1112. O concentrador USB 1112 possui várias portas ? USB adicionais que permitem que os dispositivos sejam conectados e se - comuniquem com o computador 1100. A porta USB 114 está conectada com um controlador 1120. Como será entendido pelos versados na técnica, ou- tros tipos de barramentos, com fios, sem uso de fios, seriais ou paralelos, podem ser utilizados para interconectar os componentes da figura 10. Em uma concretização, o controlador 1120 é uma unidade de controle de câme- ra (por exemplo, unidade de controle de câmera 1030) e controla a câme- - 10 ra(s) no compartimento ou alojamento removível 520, pondo em prática o comando de foco automático 1130 e o comando de obturador 1132 na câ- Ú mera(s). O controlador 1120 também lê a partir de um sensor de porta 1134 para determinar se as portas protegendo as câmeras no compartimento ou alojamento removível 520 estão abertas ou fechadas. A porta pode ser aber- ta ou fechada como apropriado em resposta ao controlador 1120 lendo o sensor da porta 1134. O dispositivo GPS 112 é conectado com o concentra- dor USB 112 através das portas USB 1116, 118. O dispositivo GPS 1122 lê a localização geográfica atual do dispositivo e transmite estes dados para o computador 1000. O controlador 1120 está capacitado para enviar um sinal causando que uma fotografia seja tirada a partir do alojamento removível
520.
As concretizações da presente descrição podem ser implemen- tadas com qualquer combinação e hardware e software. Se implementada como um aparelho implementado por computador, a presente descrição é implementada utilizando o dispositivo para executar todas as etapas e fun- ções descritas acima.
As concretizações da presente descrição podem estar incluídas em um artigo de fabricação (por exemplo, um ou mais produtos de programa de computador) possuindo, por exemplo, meio utilizável ou legível por com- — putador. O meio tem incorporado no mesmo, por exemplo, dispositivos de código de programa legível por computador, incluindo instruções executáveis por computador, para proporcionar e facilitar os mecanismos das concretiza-
. ções da presente descrição.
O artigo de fabricação pode estar incluído como parte de um sistema de computador ou vendido separadamente. - Enquanto concretizações específicas foram descritas em deta- - lhes na descrição detalhada precedente e ilustradas nos desenhos acompa- nhantes, será apreciado pelos versados na técnica que várias modificações e alternativas para estes detalhes poderiam ser desenvolvidas de acordo com as instruções gerais da descrição e com os amplos conceitos da inven- ção.
Portanto, é entendido que o escopo da presente descrição não está limitado aos exemplos e implementações particulares reveladas neste do- - 10 cumento, mas é pretendido que sejam cobertas modificações dentro do espí- rito e do escopo da mesma como definidos pelas reivindicações anexas e Ú por qualquer um e por todos os equivalentes das mesmas.

Claims (39)

: REIVINDICAÇÕES
1. Sistema de captura de imagem, compreendendo: um primeiro subsistema de captura de imagem compreendendo . um primeiro dispositivo de geração de imagem configurado para capturar, emum primeiro momento no tempo, pelo menos uma imagem de vista geral de uma área de vista geral; e um segundo subsistema de captura de imagem compreendendo um segundo dispositivo de geração de imagem para capturar, substancial- mente simultaneamente com o primeiro momento no tempo, pelo menos . 10 uma imagem de detalhe da pelo menos uma parte da área de vista geral, o primeiro e o segundo subsistemas de captura de imagem sendo configura- ' dos de modo que várias imagens de vista geral resultam em uma redundân- cia de vista geral de elementos de imagem dentre as várias imagens de vista geral e várias imagens de detalhe em uma redundância de detalhe de ele- mentos de imagem dentre as várias imagens de detalhe.
2. Sistema de captura de imagem, de acordo com a reivindica- ção 1, em que o primeiro subsistema de captura de imagem inclui vários dis- positivos de geração de imagem dispostos para capturar as várias imagens de vista geral.
3. Sistema de captura de imagem, de acordo com a reivindica- ção 2, em que os vários dispositivos de geração de imagem são dispostos para substancialmente simultaneamente capturarem as várias imagens de vista geral.
4. Sistema de captura de imagem, de acordo com a reivindicação 2,emque os vários dispositivos de geração de imagem são dispostos de uma maneira adjacente para capturarem as várias imagens de vista geral.
5. Sistema de captura de imagem, de acordo com a reivindica- ção 1, em que o primeiro e o segundo subsistemas de captura de imagem estão localizados de forma próxima um do outro.
6. Sistema de captura de imagem, de acordo com a reivindica- ção 1, em que as redundâncias representam o grau até o qual os elementos de imagem aparecem em várias imagens.
. 7. Sistema de captura de imagem, de acordo com a reivindica- ção 6, em que os elementos de imagem incluem um ou mais aspectos, * áreas ou marcações identificáveis correspondendo à área capturada na pelo - menos uma imagem de vista geral e na pelo menos uma imagem de detalhe.
8. Sistema de captura de imagem, de acordo com a reivindica- ção 1, em que a redundância da vista geral é maior do que 10.
9. Sistema de captura de imagem, de acordo com a reivindica- ção 1, em que a redundância do detalhe é menor ou igual a 10.
10. Sistema de captura de imagem, compreendendo: - 10 um primeiro subsistema de captura de imagem compreendendo um primeiro dispositivo de geração de imagem configurado para capturar, Ú em um primeiro momento no tempo, pelo menos uma imagem de vista geral de uma área de vista geral em uma primeira resolução no terreno; e um segundo subsistema de captura de imagem compreenden- do um segundo dispositivo de geração de imagem configurado para captu- rar, substancialmente simultaneamente com o primeiro momento no tempo, pelo menos uma imagem de detalhe de pelo menos uma parte da área de vista geral, a pelo menos uma imagem de detalhe sendo em uma segunda resolução no terreno que é mais elevada do que a primeira resolução no terreno.
11. Sistema de captura de imagem, de acordo com a reivindica- ção 10, em que os primeiro e segundo subsistemas de captura de imagem são configurados de modo que várias imagens de vista geral resultam em uma redundância de elementos de imagem entre as várias imagens de vista gerale várias imagens de detalhe resultam em uma redundância de elemen- tos de imagem entre as várias imagens de detalhe.
12. Sistema de captura de imagem, de acordo com a reivindica- ção 10, em que o primeiro subsistema de captura de imagem inclui vários dispositivos de geração de imagem dispostos para capturarem várias ima- gens de vista geral de uma ou mais áreas de vista geral.
13. Sistema de captura de imagem, de acordo com a reivindica- ção 12, em que os vários dispositivos de geração de imagem são dispostos
: para capturarem as várias imagens de vista geral substancialmente simulta- neamente. : 14. Sistema de captura de imagem, de acordo com a reivindica- - ção 12, em que os vários dispositivos de geração de imagem são dispostos deuma maneira adjacente para capturarem as várias imagens de vista ge- ral.
15. Sistema de captura de imagem, de acordo com a reivindica- ção 12, em que os primeiros vários dispositivos de geração de imagem são dispostos de uma maneira em cascata para capturarem as várias imagens - 10 devistageral.
16. Sistema de captura de imagem, de acordo com a reivindica- Ú ção 10, em que o segundo subsistema de captura de imagem inclui vários dispositivos de captura de imagem dispostos para capturarem várias ima- gens de detalhe de uma ou mais áreas de detalhe.
17. Sistema de captura de imagem, de acordo com a reivindica- ção 16, em que os vários dispositivos de geração de imagem são dispostos para capturarem as várias imagens de detalhe substancialmente simultane- amente.
18. Sistema de captura de imagem, de acordo com a reivindica- ção16,em que os segundos vários dispositivos de geração de imagem são dispostos de uma maneira adjacente para capturarem as várias imagens de detalhe.
19. Método, de acordo com a reivindicação 16, em que os vários dispositivos de geração de imagem são dispostos de uma maneira em cas- cataparacapturarem as várias imagens de detalhe.
20. Sistema de captura de imagem, de acordo com a reivindica- ção 10, em que o primeiro e o segundo subsistemas de captura de imagem estão localizados de forma próxima um do outro.
21. Sistema de captura de imagem, de acordo com a reivindica- ção10,em que o primeiro e o segundo subsistemas de captura de imagem são montados dentro ou em uma aeronave.
22. Sistema de captura de imagem, de acordo com a reivindica-
: ção 21, em que o primeiro e o segundo subsistemas de captura de imagem são dispostos dentro de um alojamento na aeronave. * 23. Sistema de captura de imagem, de acordo com a reivindica- - ção 22, em que o alojamento é conectado de forma que possa ser removido coma aeronave.
24. Sistema, de acordo com a reivindicação 10, em que o pelo menos um segundo dispositivo de geração de imagem é uma câmera digital.
25. Sistema, de acordo com a reivindicação 10, em que o pelo menos um segundo dispositivo de geração de imagem é um sensor CMOS.
. 10 26. Sistema, de acordo com a reivindicação 10, em que o pelo menos um segundo dispositivo de geração de imagem é um sensor push : broom.
27. Sistema, de acordo com a reivindicação 10, em que o pelo menos um segundo dispositivo de geração de imagem é um sensor whisk broom.
28. Sistema, de acordo com a reivindicação 10, em que as ima- gens de visa geral são armazenadas de forma local dentro do primeiro sub- sistema de captura de imagem.
29. Sistema, de acordo com a reivindicação 10, em que as ima- gens de detalhe são armazenadas de forma local dentro do segundo subsis- tema de captura de imagem.
30. Método para capturar imagens, o método compreendendo: (a) capturar, por um primeiro subsistema de captura de imagem, uma primeira imagem de vista geral de uma área de vista geral, a primeira imagem de vista geral estando em uma primeira resolução no terreno; e (b) capturar, por um segundo subsistema de captura de imagem, substancialmente simultaneamente com a captura da primeira imagem de vis- ta geral, uma primeira imagem de detalhe de pelo menos uma parte da área de vista geral, a primeira imagem de detalhe estando em uma segunda reso- lução no terreno que é mais elevada do que a primeira resolução no terreno.
31. Método, de acordo com a reivindicação 30, que adicional mente compreende:
. (c) transladar o primeiro e o segundo subsistemas de captura de imagem ao longo de um primeiro eixo geométrico; : (d) capturar, pelo primeiro subsistema de captura de imagem, ' uma segunda imagem de visa geral de uma segunda área de vista geral na primeira resolução no terreno, em que a primeira e a segunda imagens de vista geral possuem pelo menos uma parte de vista geral de sobreposição referindo-se uma à outra; e (e) capturar, pelo segundo subsistema de captura de imagem, uma segunda imagem de detalhe em uma segunda resolução no terreno, em - 10 queaprimeirae a segunda imagens de detalhe possuem pelo menos uma parte de detalhe de sobreposição referindo-se uma à outra que é substanci- : almente menor do que a parte de vista geral de sobreposição das primeira e segunda imagens de vista geral.
32. Método, de acordo com a reivindicação 31, em que pelo me- nos uma dentre a parte de vista geral de sobreposição e a parte de detalhe de sobreposição resulta em uma redundância de vista geral referindo-se à primeira e à segunda imagens de vista geral e em uma redundância de deta- lhe referindo-se às primeira e segunda imagens de detalhe.
33. Método, de acordo com a reivindicação 32, em que as re- — dundâncias representam o grau até o qual os elementos de imagem apare- cem nas múltiplas imagens.
34. Método, de acordo com a reivindicação 33, em que os ele- mentos de imagem incluem um ou mais aspectos, áreas ou marcações iden- tificáveis correspondendo a uma área capturada na imagem de vista geral e —napelomenos uma imagem de detalhe.
35. Método, de acordo com a reivindicação 32, em que a redun- dância da vista geral é maior do que 10.
36. Método, de acordo com a reivindicação 32, em que a redun- dância do detalhe é menor ou igual a 10.
37. Método, de acordo com a reivindicação 32, em que a redun- dância da vista geral é maior do que 10 e em que a redundância do detalhe é menor ou igual a 10.
: 38. Método, de acordo com a reivindicação 31, em que a área da pelo menos uma parte de vista geral de sobreposição ao longo do primeiro * eixo geométrico é maior ou igual a 50% da área de uma dentre as primeira e - segunda imagens de vista geral.
39. Método, de acordo com a reivindicação 31, em que a área da pelo menos uma parte de detalhe de sobreposição ao longo do primeiro eixo geométrico é menor ou igual a 20% da área de uma dentre as primeira e segunda imagens de detalhe.
BR112012006577-7A 2009-09-23 2010-09-22 sistemas e métodos para capturar imagens de área grande em detalhes incluindo câmeras em cascata e/ou aspectos de calibragem BR112012006577A2 (pt)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US12/565,232 2009-09-23
US12/565,232 US8497905B2 (en) 2008-04-11 2009-09-23 Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
PCT/IB2010/002380 WO2011036541A1 (en) 2009-09-23 2010-09-22 Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features

Publications (1)

Publication Number Publication Date
BR112012006577A2 true BR112012006577A2 (pt) 2020-10-13

Family

ID=42813015

Family Applications (1)

Application Number Title Priority Date Filing Date
BR112012006577-7A BR112012006577A2 (pt) 2009-09-23 2010-09-22 sistemas e métodos para capturar imagens de área grande em detalhes incluindo câmeras em cascata e/ou aspectos de calibragem

Country Status (12)

Country Link
US (2) US8497905B2 (pt)
EP (1) EP2480860A4 (pt)
JP (2) JP2013505457A (pt)
KR (1) KR101679456B1 (pt)
CN (1) CN102612636B (pt)
AU (1) AU2010219335B2 (pt)
BR (1) BR112012006577A2 (pt)
CA (1) CA2773303C (pt)
IN (1) IN2012DN02253A (pt)
RU (1) RU2562707C2 (pt)
WO (1) WO2011036541A1 (pt)
ZA (1) ZA201201800B (pt)

Families Citing this family (168)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8497905B2 (en) 2008-04-11 2013-07-30 nearmap australia pty ltd. Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
US8675068B2 (en) 2008-04-11 2014-03-18 Nearmap Australia Pty Ltd Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
EP4336447A1 (en) * 2008-05-20 2024-03-13 FotoNation Limited Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8866920B2 (en) 2008-05-20 2014-10-21 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US11792538B2 (en) 2008-05-20 2023-10-17 Adeia Imaging Llc Capturing and processing of images including occlusions focused on an image sensor by a lens stack array
US8253815B2 (en) * 2008-09-16 2012-08-28 Altia Systems Inc. Synchronized multiple imager system and method
WO2011063347A2 (en) 2009-11-20 2011-05-26 Pelican Imaging Corporation Capturing and processing of images using monolithic camera array with heterogeneous imagers
US8542286B2 (en) * 2009-11-24 2013-09-24 Microsoft Corporation Large format digital camera with multiple optical systems and detector arrays
US9230446B1 (en) 2009-12-01 2016-01-05 The Boeing Company Integrated live and simulation environment system for an aircraft
US8616884B1 (en) * 2009-12-01 2013-12-31 The Boeing Company Integrated live and simulation environment system for an aircraft
FR2953940B1 (fr) * 2009-12-16 2012-02-03 Thales Sa Procede de geo-referencement d'une zone imagee
JP2013518246A (ja) * 2010-01-25 2013-05-20 オズクル タリック 観測衛星がターゲットを選択するための自律型決定システム
US8971567B2 (en) * 2010-03-05 2015-03-03 Digimarc Corporation Reducing watermark perceptibility and extending detection distortion tolerances
US10664940B2 (en) * 2010-03-05 2020-05-26 Digimarc Corporation Signal encoding to reduce perceptibility of changes over time
JP5848754B2 (ja) 2010-05-12 2016-01-27 ペリカン イメージング コーポレイション 撮像装置アレイおよびアレイカメラのためのアーキテクチャ
EP2423871B1 (en) * 2010-08-25 2014-06-18 Lakeside Labs GmbH Apparatus and method for generating an overview image of a plurality of images using an accuracy information
US8986011B1 (en) 2010-09-13 2015-03-24 The Boeing Company Occlusion server for an integrated live and simulation environment for an aircraft
EP2558817B1 (en) 2010-09-30 2019-05-15 Empire Technology Development LLC Automatic flight control for uav based solid modeling
US8842168B2 (en) * 2010-10-29 2014-09-23 Sony Corporation Multi-view video and still 3D capture system
US8878950B2 (en) 2010-12-14 2014-11-04 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using super-resolution processes
US8616883B2 (en) 2010-12-15 2013-12-31 The Boeing Company Simulation control system for an integrated live and simulation environment for an aircraft
WO2014055428A2 (en) 2012-10-05 2014-04-10 Trimble Navigation Limited Enhanced position measurement systems and methods
JP5775354B2 (ja) 2011-04-28 2015-09-09 株式会社トプコン 離着陸ターゲット装置及び自動離着陸システム
EP2708019B1 (en) 2011-05-11 2019-10-16 FotoNation Limited Systems and methods for transmitting and receiving array camera image data
JP5882693B2 (ja) * 2011-11-24 2016-03-09 株式会社トプコン 航空写真撮像方法及び航空写真撮像装置
EP2527787B1 (en) * 2011-05-23 2019-09-11 Kabushiki Kaisha TOPCON Aerial photograph image pickup method and aerial photograph image pickup apparatus
US20130265459A1 (en) 2011-06-28 2013-10-10 Pelican Imaging Corporation Optical arrangements for use with an array camera
US9183638B2 (en) * 2011-08-09 2015-11-10 The Boeing Company Image based position determination
US9477141B2 (en) 2011-08-31 2016-10-25 Cablecam, Llc Aerial movement system having multiple payloads
US9337949B2 (en) 2011-08-31 2016-05-10 Cablecam, Llc Control system for an aerially moved payload
US20130070060A1 (en) 2011-09-19 2013-03-21 Pelican Imaging Corporation Systems and methods for determining depth from multiple views of a scene that include aliasing using hypothesized fusion
IN2014CN02708A (pt) 2011-09-28 2015-08-07 Pelican Imaging Corp
GB2495528B (en) * 2011-10-12 2014-04-02 Hidef Aerial Surveying Ltd Aerial imaging array
IL216515A (en) * 2011-11-22 2015-02-26 Israel Aerospace Ind Ltd A system and method for processing images from a camera set
FR2985307B1 (fr) * 2012-01-03 2015-04-03 Centre Nat Etd Spatiales Procede d'etalonnage des biais d'alignement d'un systeme d'observation de la terre exploitant des prises de vue symetriques
IL217432A (en) * 2012-01-09 2015-11-30 Rafael Advanced Defense Sys Shisha and aerial tracking system
US8953012B2 (en) * 2012-02-13 2015-02-10 Raytheon Company Multi-plenoptic system with image stacking and method for wide field-of-regard high-resolution imaging
EP2817955B1 (en) 2012-02-21 2018-04-11 FotoNation Cayman Limited Systems and methods for the manipulation of captured light field image data
EP2817777A4 (en) * 2012-02-22 2016-07-13 Elwha Llc SYSTEMS AND METHODS FOR ACCESSING CAMERA SYSTEMS
US9210392B2 (en) 2012-05-01 2015-12-08 Pelican Imaging Coporation Camera modules patterned with pi filter groups
US9609284B2 (en) 2012-05-22 2017-03-28 Otoy, Inc. Portable mobile light stage
JP2015534734A (ja) 2012-06-28 2015-12-03 ペリカン イメージング コーポレイション 欠陥のあるカメラアレイ、光学アレイ、およびセンサを検出するためのシステムおよび方法
US20140002674A1 (en) 2012-06-30 2014-01-02 Pelican Imaging Corporation Systems and Methods for Manufacturing Camera Modules Using Active Alignment of Lens Stack Arrays and Sensors
SG11201500910RA (en) 2012-08-21 2015-03-30 Pelican Imaging Corp Systems and methods for parallax detection and correction in images captured using array cameras
WO2014032020A2 (en) 2012-08-23 2014-02-27 Pelican Imaging Corporation Feature based high resolution motion estimation from low resolution images captured using an array source
JP6122591B2 (ja) 2012-08-24 2017-04-26 株式会社トプコン 写真測量用カメラ及び航空写真装置
WO2014043641A1 (en) 2012-09-14 2014-03-20 Pelican Imaging Corporation Systems and methods for correcting user identified artifacts in light field images
US20140092281A1 (en) 2012-09-28 2014-04-03 Pelican Imaging Corporation Generating Images from Light Fields Utilizing Virtual Viewpoints
JP6055274B2 (ja) 2012-10-31 2016-12-27 株式会社トプコン 航空写真測定方法及び航空写真測定システム
US9143711B2 (en) 2012-11-13 2015-09-22 Pelican Imaging Corporation Systems and methods for array camera focal plane control
US9235763B2 (en) 2012-11-26 2016-01-12 Trimble Navigation Limited Integrated aerial photogrammetry surveys
US20140160231A1 (en) * 2012-12-12 2014-06-12 Daniel C. Middleton Multi-focal image capture and display
US9462164B2 (en) 2013-02-21 2016-10-04 Pelican Imaging Corporation Systems and methods for generating compressed light field representation data using captured light fields, array geometry, and parallax information
US9253380B2 (en) 2013-02-24 2016-02-02 Pelican Imaging Corporation Thin form factor computational array cameras and modular array cameras
US9717171B2 (en) 2013-03-07 2017-08-01 Blue River Technology Inc. System and method for automated odometry calibration for precision agriculture systems
WO2014138695A1 (en) 2013-03-08 2014-09-12 Pelican Imaging Corporation Systems and methods for measuring scene information while capturing images using array cameras
US8866912B2 (en) 2013-03-10 2014-10-21 Pelican Imaging Corporation System and methods for calibration of an array camera using a single captured image
US9521416B1 (en) 2013-03-11 2016-12-13 Kip Peli P1 Lp Systems and methods for image data compression
US9888194B2 (en) 2013-03-13 2018-02-06 Fotonation Cayman Limited Array camera architecture implementing quantum film image sensors
US9106784B2 (en) 2013-03-13 2015-08-11 Pelican Imaging Corporation Systems and methods for controlling aliasing in images captured by an array camera for use in super-resolution processing
WO2014164550A2 (en) 2013-03-13 2014-10-09 Pelican Imaging Corporation System and methods for calibration of an array camera
US9519972B2 (en) 2013-03-13 2016-12-13 Kip Peli P1 Lp Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies
US9578259B2 (en) 2013-03-14 2017-02-21 Fotonation Cayman Limited Systems and methods for reducing motion blur in images or video in ultra low light with array cameras
US9100586B2 (en) 2013-03-14 2015-08-04 Pelican Imaging Corporation Systems and methods for photometric normalization in array cameras
US9497370B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Array camera architecture implementing quantum dot color filters
US10122993B2 (en) 2013-03-15 2018-11-06 Fotonation Limited Autofocus system for a conventional camera that uses depth information from an array camera
EP2973476A4 (en) 2013-03-15 2017-01-18 Pelican Imaging Corporation Systems and methods for stereo imaging with camera arrays
US9633442B2 (en) 2013-03-15 2017-04-25 Fotonation Cayman Limited Array cameras including an array camera module augmented with a separate camera
US9445003B1 (en) 2013-03-15 2016-09-13 Pelican Imaging Corporation Systems and methods for synthesizing high resolution images using image deconvolution based on motion and depth information
US9497429B2 (en) 2013-03-15 2016-11-15 Pelican Imaging Corporation Extended color processing on pelican array cameras
EP2787319A1 (de) * 2013-04-05 2014-10-08 Leica Geosystems AG Steuerung einer Bildauslösung zur Luftbilderfassung in Nadir-Ausrichtung für ein unbemanntes Fluggerät
US9499285B2 (en) * 2013-06-28 2016-11-22 Darren D. Garber Three dimensional imaging arrangement
US9903719B2 (en) * 2013-09-03 2018-02-27 Litel Instruments System and method for advanced navigation
CN103438867B (zh) * 2013-09-06 2016-03-02 中测新图(北京)遥感技术有限责任公司 轻小型无人机机载多视立体航空遥感***
US9269014B2 (en) 2013-09-24 2016-02-23 Corning Incorporated Hyperspectral detector systems and methods using context-image fusion
US9536148B2 (en) 2013-09-27 2017-01-03 Real Data Guru, Inc. Property assessment and prospecting tool
US9898856B2 (en) 2013-09-27 2018-02-20 Fotonation Cayman Limited Systems and methods for depth-assisted perspective distortion correction
US9185276B2 (en) 2013-11-07 2015-11-10 Pelican Imaging Corporation Methods of manufacturing array camera modules incorporating independently aligned lens stacks
WO2015074078A1 (en) 2013-11-18 2015-05-21 Pelican Imaging Corporation Estimating depth from projected texture using camera arrays
WO2015081279A1 (en) 2013-11-26 2015-06-04 Pelican Imaging Corporation Array camera configurations incorporating multiple constituent array cameras
KR101368325B1 (ko) * 2013-12-10 2014-02-28 한국지질자원연구원 항공 탐사용 적외선 카메라의 렌즈 손상 방지용 커버를 구비하는 항공 탐사용 항공기
CN103646384B (zh) * 2013-12-20 2016-06-22 江苏大学 一种遥感扫描成像平台飞行速度的优化方法
KR101429166B1 (ko) * 2013-12-27 2014-08-13 대한민국 비행체에 탑재되는 촬영시스템
DE102014201238A1 (de) * 2014-01-23 2015-07-23 Siemens Aktiengesellschaft Verfahren und System zur Erstellung einer Vektorkarte
US10089740B2 (en) 2014-03-07 2018-10-02 Fotonation Limited System and methods for depth regularization and semiautomatic interactive matting using RGB-D images
US9247117B2 (en) 2014-04-07 2016-01-26 Pelican Imaging Corporation Systems and methods for correcting for warpage of a sensor array in an array camera module by introducing warpage into a focal plane of a lens stack array
US9824276B2 (en) * 2014-04-15 2017-11-21 Open Range Consulting System and method for assessing rangeland
US9688403B2 (en) 2014-05-20 2017-06-27 Infatics, Inc. Method for adaptive mission execution on an unmanned aerial vehicle
KR102165450B1 (ko) * 2014-05-22 2020-10-14 엘지전자 주식회사 무인 항공기를 제어하는 포터블 디바이스 및 그 제어 방법
US9521319B2 (en) 2014-06-18 2016-12-13 Pelican Imaging Corporation Array cameras and array camera modules including spectral filters disposed outside of a constituent image sensor
US12007763B2 (en) 2014-06-19 2024-06-11 Skydio, Inc. Magic wand interface and other user interaction paradigms for a flying digital assistant
US9440750B2 (en) * 2014-06-20 2016-09-13 nearmap australia pty ltd. Wide-area aerial camera systems
US9046759B1 (en) * 2014-06-20 2015-06-02 nearmap australia pty ltd. Compact multi-resolution aerial camera system
US9641736B2 (en) 2014-06-20 2017-05-02 nearmap australia pty ltd. Wide-area aerial camera systems
US9052571B1 (en) * 2014-06-20 2015-06-09 nearmap australia pty ltd. Wide-area aerial camera systems
US9185290B1 (en) 2014-06-20 2015-11-10 Nearmap Australia Pty Ltd Wide-area aerial camera systems
FR3023435B1 (fr) * 2014-07-04 2016-07-01 Thales Sa Procede d'observation d'une region de la surface terrestre, notamment situee a des latitudes elevees; station sol et systeme satellitaire pour la mise en oeuvre de ce procede
IL233684B (en) 2014-07-17 2018-01-31 Shamir Hanan Stabilizing and displaying remote images
US20160080702A1 (en) * 2014-09-11 2016-03-17 Gabriel Shachor Systems and methods for controlling multiple aerial units
EP3467776A1 (en) 2014-09-29 2019-04-10 Fotonation Cayman Limited Systems and methods for dynamic calibration of array cameras
US9773155B2 (en) 2014-10-14 2017-09-26 Microsoft Technology Licensing, Llc Depth from time of flight camera
FR3030091B1 (fr) * 2014-12-12 2018-01-26 Airbus Operations Procede et systeme de detection automatique d'un desalignement en operation d'un capteur de surveillance d'un aeronef.
US10963749B2 (en) * 2014-12-12 2021-03-30 Cox Automotive, Inc. Systems and methods for automatic vehicle imaging
US10043104B2 (en) * 2015-01-05 2018-08-07 Avigilon Fortress Corporation Automatic moving object verification
US10964226B2 (en) 2015-01-19 2021-03-30 The Boeing Company Instructional assessment system for a vehicle
US9824290B2 (en) * 2015-02-10 2017-11-21 nearmap australia pty ltd. Corridor capture
US11768508B2 (en) * 2015-02-13 2023-09-26 Skydio, Inc. Unmanned aerial vehicle sensor activation and correlation system
GB201506329D0 (en) 2015-04-14 2015-05-27 Vito Nv System and method for processing images of a ground surface
US9942474B2 (en) 2015-04-17 2018-04-10 Fotonation Cayman Limited Systems and methods for performing high speed video capture and depth estimation using array cameras
RU2597024C1 (ru) * 2015-05-05 2016-09-10 Владимир Германович Андронов Способ оперативного определения угловых элементов внешнего ориентирования космического сканерного снимка
US9948914B1 (en) * 2015-05-06 2018-04-17 The United States Of America As Represented By The Secretary Of The Air Force Orthoscopic fusion platform
FR3038482B1 (fr) * 2015-06-30 2017-08-11 Parrot Bloc camera apte a etre embarque dans un drone pour cartographier un terrain et procede de gestion de capture d'images par un bloc camera
US9852645B2 (en) * 2015-08-17 2017-12-26 The Boeing Company Global positioning system (“GPS”) independent navigation system for a self-guided aerial vehicle utilizing multiple optical sensors
RU2616103C2 (ru) * 2015-09-11 2017-04-12 Валентина Николаевна Панфилова Способ автоматизированного составления схемы дорожно-транспортного происшествия с использованием системы глобального позиционирования и фотокамеры
CN106558181B (zh) * 2015-09-28 2019-07-30 东莞前沿技术研究院 火灾监测方法和装置
CN105180898B (zh) * 2015-09-29 2018-11-23 南京工程学院 一种全自动地形图测绘装置及其测绘方法
US9829886B2 (en) * 2016-01-05 2017-11-28 ZEROTECH (Shenzhen) Intelligence Robot Co., Ltd. Flight control system, a circuit board assembly and a configuration method thereof
CN107000840B (zh) * 2016-01-26 2019-07-26 深圳市大疆创新科技有限公司 无人飞行器及多目成像***
DE102016000810A1 (de) * 2016-01-26 2017-07-27 Diehl Defence Gmbh & Co. Kg Verfahren zum Bestimmen einer Position eines Objekts
US10361719B2 (en) * 2016-03-02 2019-07-23 Spookfish Innovations Pty Ltd. Method of managing data captured in an aerial camera system
WO2017212927A1 (ja) * 2016-06-08 2017-12-14 ソニー株式会社 撮像制御装置および方法、並びに車両
US10520943B2 (en) * 2016-08-12 2019-12-31 Skydio, Inc. Unmanned aerial image capture platform
PL3293115T3 (pl) * 2016-09-07 2020-04-30 Siemens Aktiengesellschaft Sposób sterowania bezzałogowymi obiektami latającymi
CN106341586A (zh) * 2016-10-14 2017-01-18 安徽协创物联网技术有限公司 一种具有三轴云台的全景相机
AU2017344757B2 (en) * 2016-10-20 2022-08-04 Spookfish Innovations Pty Ltd An aerial camera boresight calibration system
US11295458B2 (en) 2016-12-01 2022-04-05 Skydio, Inc. Object tracking by an unmanned aerial vehicle using visual sensors
CN106772314B (zh) * 2016-12-09 2019-04-26 哈尔滨工业大学 一种机载测绘激光雷达扫帚式扫描***及其扫描方法
RU2644630C1 (ru) * 2016-12-13 2018-02-13 Акционерное общество "Научно-исследовательский институт современных телекоммуникационных технологий" (АО "НИИ СТТ") Способ аэрофотосъемки наземных объектов в условиях недостаточной освещенности с помощью беспилотных воздушных судов
US10621780B2 (en) * 2017-02-02 2020-04-14 Infatics, Inc. System and methods for improved aerial mapping with aerial vehicles
US11069254B2 (en) 2017-04-05 2021-07-20 The Boeing Company Method for simulating live aircraft infrared seeker obscuration during live, virtual, constructive (LVC) exercises
CN107037576B (zh) * 2017-05-03 2023-08-15 中国科学院苏州生物医学工程技术研究所 光学显微成像设备及其成像方法
US10482618B2 (en) 2017-08-21 2019-11-19 Fotonation Limited Systems and methods for hybrid depth regularization
US10586349B2 (en) 2017-08-24 2020-03-10 Trimble Inc. Excavator bucket positioning via mobile device
CN107560603B (zh) * 2017-08-29 2020-06-09 南宁慧视科技有限责任公司 一种无人机倾斜摄影测量***及测量方法
CN107784633B (zh) * 2017-09-04 2021-04-13 黄仁杰 适用于平面测量的无人机航拍图像校准方法
CN108318007B (zh) * 2018-01-26 2020-11-10 广州市红鹏直升机遥感科技有限公司 一种拼接式航空倾斜摄影的拍摄方法
CN108489469A (zh) * 2018-03-20 2018-09-04 重庆交通大学 一种单目测距装置及方法
CN108469254A (zh) * 2018-03-21 2018-08-31 南昌航空大学 一种适用于仰视和俯视位姿的大视场多视觉视频测量***全局标定方法
KR101945019B1 (ko) * 2018-06-22 2019-02-01 전북대학교 산학협력단 농작물 재배분포 영상 획득을 위한 무인비행체 군집비행 시스템 및 그 방법
FR3087037B1 (fr) 2018-10-03 2021-06-04 Soletanche Freyssinet Procede d'acquisition d'images
CN109120869A (zh) * 2018-11-07 2019-01-01 深圳市道通智能航空技术有限公司 双光图像整合方法、整合设备及无人机
JP7089581B2 (ja) * 2018-11-21 2022-06-22 広州極飛科技股▲ふん▼有限公司 測量調査標本点の計画方法、測量調査標本点計画装置、制御端末及びコンピュータ記憶媒体
RU2706250C1 (ru) * 2018-12-11 2019-11-15 Федеральное государственное бюджетное общеобразовательное учреждение высшего образования "Ковровская государственная технологическая академия имени В.А. Дегтярева" Способ навигации наземного транспортного средства
US20200191568A1 (en) * 2018-12-17 2020-06-18 Paul Lapstun Multi-View Aerial Imaging
CN110375715B (zh) * 2019-07-15 2020-08-21 哈尔滨工业大学 一种应用于小卫星的广域重点目标确认方法、装置及计算机存储介质
JP7280006B2 (ja) * 2019-08-06 2023-05-23 アルパイン株式会社 画像処理装置、画像処理方法および画像処理プログラム
WO2021035608A1 (zh) * 2019-08-29 2021-03-04 深圳市大疆创新科技有限公司 航线生成方法、地面端设备、无人机、***和存储介质
MX2022003020A (es) 2019-09-17 2022-06-14 Boston Polarimetrics Inc Sistemas y metodos para modelado de superficie usando se?ales de polarizacion.
US11928831B2 (en) * 2019-09-20 2024-03-12 Canon Kabushiki Kaisha Information processing apparatus, shape data generation method, and storage medium
CA3157197A1 (en) 2019-10-07 2021-04-15 Boston Polarimetrics, Inc. Systems and methods for surface normals sensing with polarization
US10943360B1 (en) 2019-10-24 2021-03-09 Trimble Inc. Photogrammetric machine measure up
CN110855883B (zh) * 2019-11-05 2021-07-20 浙江大华技术股份有限公司 一种图像处理***、方法、装置设备及存储介质
KR102558903B1 (ko) 2019-11-30 2023-07-24 보스턴 폴라리메트릭스, 인크. 편광 신호를 이용한 투명 물체 분할을 위한 시스템 및 방법
EP4094189A4 (en) * 2020-01-23 2024-02-21 Impossible Objects, Inc. CAMERA-BASED MONITORING SYSTEM FOR THREE-DIMENSIONAL PRINTING
JP7462769B2 (ja) 2020-01-29 2024-04-05 イントリンジック イノベーション エルエルシー 物体の姿勢の検出および測定システムを特徴付けるためのシステムおよび方法
WO2021154459A1 (en) 2020-01-30 2021-08-05 Boston Polarimetrics, Inc. Systems and methods for synthesizing data for training statistical models on different imaging modalities including polarized images
WO2021168809A1 (zh) * 2020-02-28 2021-09-02 深圳市大疆创新科技有限公司 跟随方法、可移动平台、设备和存储介质
CN111366137B (zh) * 2020-04-26 2022-02-01 湖州市南浔创业测绘与土地规划院股份有限公司 一种无人机结合地形测绘方法
US11953700B2 (en) 2020-05-27 2024-04-09 Intrinsic Innovation Llc Multi-aperture polarization optical systems using beam splitters
US11651474B2 (en) 2020-11-04 2023-05-16 Bae Systems Information And Electronic Systems Integration Inc. Real-time super resolution at long standoff ranges
US12020455B2 (en) 2021-03-10 2024-06-25 Intrinsic Innovation Llc Systems and methods for high dynamic range image reconstruction
US11290658B1 (en) 2021-04-15 2022-03-29 Boston Polarimetrics, Inc. Systems and methods for camera exposure control
US11954886B2 (en) 2021-04-15 2024-04-09 Intrinsic Innovation Llc Systems and methods for six-degree of freedom pose estimation of deformable objects
US11689813B2 (en) 2021-07-01 2023-06-27 Intrinsic Innovation Llc Systems and methods for high dynamic range imaging using crossed polarizers
WO2023030632A1 (en) * 2021-09-02 2023-03-09 Esa - European Space Agency An imaging system with a scanning mirror
GB2614250A (en) * 2021-12-22 2023-07-05 Hidef Aerial Surveying Ltd Aerial imaging array
CN114693528A (zh) * 2022-04-19 2022-07-01 浙江大学 无人机低空遥感图像拼接质量评估与降冗方法及***
CN117470199B (zh) * 2023-12-27 2024-03-15 天津云圣智能科技有限责任公司 一种摆动摄影控制的方法、装置、存储介质及电子设备

Family Cites Families (115)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US1654070A (en) * 1920-05-14 1927-12-27 Edwin H Corlett Method of and means for rectifying the scale and perspective of a picture
US2989890A (en) * 1956-11-13 1961-06-27 Paramount Pictures Corp Image matching apparatus
US5345086A (en) * 1962-11-28 1994-09-06 Eaton Corporation Automatic map compilation system
DE2940871C2 (de) * 1979-10-09 1983-11-10 Messerschmitt-Bölkow-Blohm GmbH, 8012 Ottobrunn Photogrammetrisches Verfahren für Fluggeräte und Raumflugkörper zur digitalen Geländedarstellung
US4662588A (en) * 1982-04-15 1987-05-05 Charles Henderson Airplane configured with a moveable disk structure
US4671650A (en) * 1982-09-20 1987-06-09 Crane Co. (Hydro-Aire Division) Apparatus and method for determining aircraft position and velocity
US4802757A (en) 1986-03-17 1989-02-07 Geospectra Corporation System for determining the attitude of a moving imaging sensor platform or the like
US5104217A (en) * 1986-03-17 1992-04-14 Geospectra Corporation System for determining and controlling the attitude of a moving airborne or spaceborne platform or the like
DE3802219A1 (de) * 1988-01-26 1989-08-03 Deutsche Forsch Luft Raumfahrt Verfahren und einrichtung zur fernerkundung der erde
DE3802541A1 (de) 1988-01-28 1989-08-10 Von Braun H Dr Schmidt Grossmassstaebliches kartieren von parametern mehrdimensionaler strukturen in naturraeumen
US4876651A (en) * 1988-05-11 1989-10-24 Honeywell Inc. Digital map system
US5073819A (en) * 1990-04-05 1991-12-17 Computer Scaled Video Surveys, Inc. Computer assisted video surveying and method thereof
US5259037A (en) * 1991-02-07 1993-11-02 Hughes Training, Inc. Automated video imagery database generation using photogrammetry
US5555018A (en) * 1991-04-25 1996-09-10 Von Braun; Heiko S. Large-scale mapping of parameters of multi-dimensional structures in natural environments
DE69123578T2 (de) * 1991-09-05 1997-04-03 Nippon Electric Co Bildaufnahmesystem, das korrekte Bildsignale einer Objektzone erzeugen kann
US5247356A (en) * 1992-02-14 1993-09-21 Ciampa John A Method and apparatus for mapping and measuring land
US5251037A (en) * 1992-02-18 1993-10-05 Hughes Training, Inc. Method and apparatus for generating high resolution CCD camera images
DE4216828C2 (de) * 1992-05-21 1994-08-18 Dornier Gmbh Verfahren zur Erdbeobachtung
FR2696843B1 (fr) * 1992-10-14 1994-12-09 Matra Sep Imagerie Inf Appareil de prise de vues à distance, à haute résolution, pour porteur aérien.
US5757423A (en) * 1993-10-22 1998-05-26 Canon Kabushiki Kaisha Image taking apparatus
JP2807622B2 (ja) * 1993-12-13 1998-10-08 株式会社コア 航空機搭載総合撮影装置
CA2190596C (en) * 1994-05-19 2002-03-26 Theodore M. Lachinski Method for collecting and processing visual and spatial position information
US5596494A (en) * 1994-11-14 1997-01-21 Kuo; Shihjong Method and apparatus for acquiring digital maps
US5649032A (en) * 1994-11-14 1997-07-15 David Sarnoff Research Center, Inc. System for automatically aligning images to form a mosaic image
JPH08237407A (ja) * 1994-12-09 1996-09-13 Xerox Corp 画像タイルの相対的なアラインメントを見当合わせすると共に透視歪みを修正するための方法
JP3653769B2 (ja) 1995-02-07 2005-06-02 朝日航洋株式会社 流れ計測方法及び装置
US5604534A (en) * 1995-05-24 1997-02-18 Omni Solutions International, Ltd. Direct digital airborne panoramic camera system and method
US5963664A (en) * 1995-06-22 1999-10-05 Sarnoff Corporation Method and system for image combination using a parallax-based technique
US6122078A (en) * 1995-08-24 2000-09-19 Vexcel Imaging Gmbh Self calibrating scanner with single or multiple detector arrays and single or multiple optical systems
US6211906B1 (en) * 1995-09-07 2001-04-03 Flight Landata, Inc. Computerized component variable interference filter imaging spectrometer system method and apparatus
US5790188A (en) * 1995-09-07 1998-08-04 Flight Landata, Inc. Computer controlled, 3-CCD camera, airborne, variable interference filter imaging spectrometer system
US5798923A (en) * 1995-10-18 1998-08-25 Intergraph Corporation Optimal projection design and analysis
US5894323A (en) * 1996-03-22 1999-04-13 Tasc, Inc, Airborne imaging system using global positioning system (GPS) and inertial measurement unit (IMU) data
US5798786A (en) * 1996-05-07 1998-08-25 Recon/Optical, Inc. Electro-optical imaging detector array for a moving vehicle which includes two axis image motion compensation and transfers pixels in row directions and column directions
US5844602A (en) * 1996-05-07 1998-12-01 Recon/Optical, Inc. Electro-optical imaging array and camera system with pitch rate image motion compensation which can be used in an airplane in a dive bomb maneuver
US5953054A (en) * 1996-05-31 1999-09-14 Geo-3D Inc. Method and system for producing stereoscopic 3-dimensional images
GB9622253D0 (en) 1996-10-25 1997-10-01 Council Cent Lab Res Councils Camera system
WO1998020301A1 (en) * 1996-11-05 1998-05-14 Lockheed Martin Corporation Electro-optical reconnaissance system with forward motion compensation
DE19714396A1 (de) * 1997-04-08 1998-10-15 Zeiss Carl Fa Photogrammetrische Kamera
US6078701A (en) * 1997-08-01 2000-06-20 Sarnoff Corporation Method and apparatus for performing local to global multiframe alignment to construct mosaic images
US6552744B2 (en) * 1997-09-26 2003-04-22 Roxio, Inc. Virtual reality camera
AU1715199A (en) 1997-12-22 1999-07-12 Eimar M. Boesjes Acquisition and animation of surface detail images
US6304284B1 (en) 1998-03-31 2001-10-16 Intel Corporation Method of and apparatus for creating panoramic or surround images using a motion sensor equipped camera
EP1115250B1 (en) * 1998-07-31 2012-06-06 Panasonic Corporation Method and apparatus for displaying image
US6269175B1 (en) * 1998-08-28 2001-07-31 Sarnoff Corporation Method and apparatus for enhancing regions of aligned images using flow estimation
US6201897B1 (en) * 1998-11-09 2001-03-13 Earth Resource Mapping Transformation and selective inverse transformation of large digital images
US6134297A (en) * 1998-12-09 2000-10-17 Advanced Optical Technologies, Inc. Apparatus and method for removing scatter from an x-ray image using two-dimensional detectors and a single-energy spectrum x-ray source
CA2268681A1 (en) * 1999-04-12 2000-10-12 Verimap Plus Inc. Optical imaging mount apparatus
US20020063711A1 (en) * 1999-05-12 2002-05-30 Imove Inc. Camera system with high resolution image inside a wide angle view
US6587601B1 (en) * 1999-06-29 2003-07-01 Sarnoff Corporation Method and apparatus for performing geo-spatial registration using a Euclidean representation
US6255981B1 (en) * 1999-08-04 2001-07-03 Raytheon Company Method for range alignment and rotation correction of a high resolution image in an inverse synthetic aperture radar system
US6694064B1 (en) * 1999-11-19 2004-02-17 Positive Systems, Inc. Digital aerial image mosaic method and apparatus
WO2001048683A1 (en) * 1999-12-29 2001-07-05 Geospan Corporation Any aspect passive volumetric image processing method
US7019777B2 (en) 2000-04-21 2006-03-28 Flight Landata, Inc. Multispectral imaging system with spatial resolution enhancement
US6633688B1 (en) * 2000-04-28 2003-10-14 Earth Resource Mapping, Inc. Method system and apparatus for providing image data in client/server systems
DE10034601B4 (de) * 2000-07-14 2013-05-23 Leica Geosystems Ag Kamerasystem mit mindestens zwei ersten und zweiten Kameras
US6757445B1 (en) * 2000-10-04 2004-06-29 Pixxures, Inc. Method and apparatus for producing digital orthophotos using sparse stereo configurations and external models
US6834234B2 (en) * 2000-11-22 2004-12-21 Trimble Navigation, Limited AINS land surveyor system with reprocessing, AINS-LSSRP
JP3530978B2 (ja) 2000-12-28 2004-05-24 鹿島建設株式会社 画像計測方法及び画像計測プログラムを記録した記録媒体
US6933965B2 (en) 2001-03-13 2005-08-23 Tacshot, Inc. Panoramic aerial imaging device
EP3388784B1 (en) * 2001-05-04 2019-07-17 Vexcel Imaging GmbH Method and large format camera for acquiring a large format image of a large area object
US6996254B2 (en) 2001-06-18 2006-02-07 Microsoft Corporation Incremental motion estimation through local bundle adjustment
US7509241B2 (en) * 2001-07-06 2009-03-24 Sarnoff Corporation Method and apparatus for automatically generating a site model
US20040257441A1 (en) * 2001-08-29 2004-12-23 Geovantage, Inc. Digital imaging system for airborne applications
US20030048357A1 (en) * 2001-08-29 2003-03-13 Geovantage, Inc. Digital imaging system for airborne applications
US7149366B1 (en) 2001-09-12 2006-12-12 Flight Landata, Inc. High-definition hyperspectral imaging system
US7215364B2 (en) 2002-04-10 2007-05-08 Panx Imaging, Inc. Digital imaging system using overlapping images to formulate a seamless composite image and implemented using either a digital imaging sensor array
JP4181800B2 (ja) 2002-06-20 2008-11-19 Nec東芝スペースシステム株式会社 ステレオ画像を用いた地形計測システム及び記憶媒体並びにプログラム
US7259784B2 (en) * 2002-06-21 2007-08-21 Microsoft Corporation System and method for camera color calibration and image stitching
DE10239523A1 (de) * 2002-08-23 2004-03-04 Z/I Imaging Gmbh Kamera, Kameraanordnung sowie Verfahren zum Betrieb von Kamera und Kameraanordnung
US7725258B2 (en) * 2002-09-20 2010-05-25 M7 Visual Intelligence, L.P. Vehicle based data collection and processing system and imaging sensor system and methods thereof
US20040041999A1 (en) * 2002-08-28 2004-03-04 Hogan John M. Method and apparatus for determining the geographic location of a target
US7212938B2 (en) 2002-09-17 2007-05-01 M7 Visual Intelligence, Lp Method of using a self-locking travel pattern to achieve calibration of remote sensors using conventionally collected data
US6928194B2 (en) * 2002-09-19 2005-08-09 M7 Visual Intelligence, Lp System for mosaicing digital ortho-images
JP4191449B2 (ja) * 2002-09-19 2008-12-03 株式会社トプコン 画像キャリブレーション方法、画像キャリブレーション処理装置、画像キャリブレーション処理端末
WO2004028134A2 (en) 2002-09-20 2004-04-01 M7 Visual Intelligence, Lp Vehicule based data collection and porcessing system
US7424133B2 (en) * 2002-11-08 2008-09-09 Pictometry International Corporation Method and apparatus for capturing, geolocating and measuring oblique images
EP1696204B1 (en) 2002-11-08 2015-01-28 Pictometry International Corp. Method for capturing, geolocating and measuring oblique images
US6859547B2 (en) * 2003-01-25 2005-02-22 The Mostert Group Methods and computer-readable medium for tracking motion
IL155034A0 (en) * 2003-03-23 2004-06-20 M A M D Digital Data Proc Syst Automatic aerial digital photography and digital data processing systems
JP2004328117A (ja) * 2003-04-22 2004-11-18 Fuji Photo Film Co Ltd ディジタルカメラおよび撮像制御方法
JP2004337232A (ja) * 2003-05-13 2004-12-02 Canon Inc 画像管理方法及び装置並びにプログラム
US20040250288A1 (en) * 2003-06-05 2004-12-09 Palmerio Robert R. Method and apparatus for storing surveillance films
US8616983B2 (en) * 2006-05-05 2013-12-31 Aristocrat Technologies Austrailia Pty, Ltd Gaming machine adapted to receive bill and ticket data
WO2005088251A1 (en) * 2004-02-27 2005-09-22 Intergraph Software Technologies Company Forming a single image from overlapping images
CA2775734C (en) * 2004-03-10 2014-01-07 Qualcomm Incorporated High data rate interface apparatus and method
KR20070046081A (ko) * 2004-06-25 2007-05-02 디지털글로브 인코포레이티드 이미지와 연관된 위치를 판단하기 위한 방법 및 장치
US20060007308A1 (en) 2004-07-12 2006-01-12 Ide Curtis E Environmentally aware, intelligent surveillance device
BRPI0514078A (pt) * 2004-08-04 2008-05-27 Intergraph Software Tech Co método de preparação de uma imagem composta com resolução não uniforme
WO2006137829A2 (en) * 2004-08-10 2006-12-28 Sarnoff Corporation Method and system for performing adaptive image acquisition
US7668402B2 (en) * 2004-11-05 2010-02-23 Intergraph Technologies Company Method for generating a composite image
US20060119622A1 (en) * 2004-11-23 2006-06-08 General Electric Company Method and apparatus for volume rendering display protocol
US7287701B2 (en) 2005-02-17 2007-10-30 The Boeing Company Handheld coordinate reference system
EP1736928A1 (en) 2005-06-20 2006-12-27 Mitsubishi Electric Information Technology Centre Europe B.V. Robust image registration
US8818076B2 (en) * 2005-09-01 2014-08-26 Victor Shenkar System and method for cost-effective, high-fidelity 3D-modeling of large-scale urban environments
US7437062B2 (en) * 2005-11-10 2008-10-14 Eradas, Inc. Remote sensing system capable of coregistering data from sensors potentially having unique perspectives
US7688438B2 (en) 2005-12-20 2010-03-30 Raytheon Company Scanning solar diffuser relative reflectance monitor
US7639897B2 (en) * 2006-01-24 2009-12-29 Hewlett-Packard Development Company, L.P. Method and apparatus for composing a panoramic photograph
US20070188610A1 (en) 2006-02-13 2007-08-16 The Boeing Company Synoptic broad-area remote-sensing via multiple telescopes
US8160394B2 (en) * 2006-05-11 2012-04-17 Intergraph Software Technologies, Company Real-time capture and transformation of hemispherical video images to images in rectilinear coordinates
US7310606B2 (en) * 2006-05-12 2007-12-18 Harris Corporation Method and system for generating an image-textured digital surface model (DSM) for a geographical area of interest
US20070291184A1 (en) 2006-06-16 2007-12-20 Michael Harville System and method for displaying images
JP4470926B2 (ja) 2006-08-08 2010-06-02 国際航業株式会社 空中写真画像データセットとその作成方法および表示方法
US7873238B2 (en) * 2006-08-30 2011-01-18 Pictometry International Corporation Mosaic oblique images and methods of making and using same
US20080089577A1 (en) * 2006-10-11 2008-04-17 Younian Wang Feature extraction from stereo imagery
US10337862B2 (en) * 2006-11-30 2019-07-02 Rafael Advanced Defense Systems Ltd. Digital mapping system based on continuous scanning line of sight
US8593518B2 (en) * 2007-02-01 2013-11-26 Pictometry International Corp. Computer system for continuous oblique panning
US8520079B2 (en) 2007-02-15 2013-08-27 Pictometry International Corp. Event multiplexer for managing the capture of images
US8385672B2 (en) * 2007-05-01 2013-02-26 Pictometry International Corp. System for detecting image abnormalities
US20090041368A1 (en) * 2007-08-06 2009-02-12 Microsoft Corporation Enhancing digital images using secondary optical systems
US20090093959A1 (en) * 2007-10-04 2009-04-09 Trimble Navigation Limited Real-time high accuracy position and orientation system
US7991226B2 (en) * 2007-10-12 2011-08-02 Pictometry International Corporation System and process for color-balancing a series of oblique images
US8531472B2 (en) * 2007-12-03 2013-09-10 Pictometry International Corp. Systems and methods for rapid three-dimensional modeling with real façade texture
US8497905B2 (en) 2008-04-11 2013-07-30 nearmap australia pty ltd. Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features
US8675068B2 (en) * 2008-04-11 2014-03-18 Nearmap Australia Pty Ltd Systems and methods of capturing large area images in detail including cascaded cameras and/or calibration features

Also Published As

Publication number Publication date
US10358235B2 (en) 2019-07-23
US20130235199A1 (en) 2013-09-12
ZA201201800B (en) 2013-05-29
US20100013927A1 (en) 2010-01-21
KR101679456B1 (ko) 2016-12-06
RU2562707C2 (ru) 2015-09-10
EP2480860A1 (en) 2012-08-01
WO2011036541A1 (en) 2011-03-31
KR20120092109A (ko) 2012-08-20
CA2773303A1 (en) 2011-03-31
RU2012116074A (ru) 2013-10-27
EP2480860A4 (en) 2017-08-30
JP2016180761A (ja) 2016-10-13
JP2013505457A (ja) 2013-02-14
US8497905B2 (en) 2013-07-30
IN2012DN02253A (pt) 2015-08-21
AU2010219335A1 (en) 2010-09-30
CN102612636A (zh) 2012-07-25
JP6321077B2 (ja) 2018-05-09
CN102612636B (zh) 2015-05-06
CA2773303C (en) 2017-07-25
AU2010219335B2 (en) 2015-03-05

Similar Documents

Publication Publication Date Title
BR112012006577A2 (pt) sistemas e métodos para capturar imagens de área grande em detalhes incluindo câmeras em cascata e/ou aspectos de calibragem
US5596494A (en) Method and apparatus for acquiring digital maps
KR20090064679A (ko) 이종 센서 통합 모델링에 의한 수치 사진 측량 방법 및장치
JP2011523033A (ja) 縦に繋がれたカメラ及び/又は距離測定特徴を含んでいる大領域画像を詳細にとらえるシステム及び方法
JP2019078620A (ja) 情報処理装置、空撮経路生成方法、プログラム、及び記録媒体
CN110986888A (zh) 一种航空摄影一体化方法
CN112461204B (zh) 卫星对动态飞行目标多视角成像联合计算航行高度的方法
CN111699454A (zh) 一种飞行规划方法及相关设备
Eiken et al. Photogrammetric methods applied to Svalbard glaciers: accuracies and challenges
KR102578056B1 (ko) 비행체를 이용한 항공 사진 측량용 촬영 장치 및 방법
CN113129422A (zh) 一种三维模型构建方法、装置、存储介质和计算机设备
RU2723239C1 (ru) Система получения реалистичной модели местности для виртуального мира и способ ее работы
Jia et al. Modeling image motion in airborne three-line-array (TLA) push-broom cameras
Kwoczyńska et al. Integration of data obtained from laser scanning and UAV used to develop a 3D model of the building object
AU2015203017B2 (en) Systems and Methods of Capturing Large Area Images in Detail Including Cascaded Cameras and/or Calibration Features
Taddia et al. CHANNELS’SHAPE EVOLUTION DETECTED BY UAVs IN A RESTORED SALT MARSH
KR102212452B1 (ko) 항공영상 처리방법 및 처리시스템
JP2004127322A (ja) ステレオ画像形成方法及び装置
Mueller LiDAR and image point cloud comparison
Yang et al. Three-dimensional lunar surface reconstruction based on remote sensing imagery from Chang E-2
Dowman Images from space: the future for satellite photogrammetry
Gomarasca et al. Elements of Photogrammetry
Pieczonka State of art spatial data measurements methods for civil engineering structures
Cosido et al. Representation of the Santander cathedral by combination of different smart techniques
CN118071589A (zh) 三维模型的实时拼接方法及装置

Legal Events

Date Code Title Description
B06U Preliminary requirement: requests with searches performed by other patent offices: procedure suspended [chapter 6.21 patent gazette]
B25D Requested change of name of applicant approved

Owner name: NEARMAP AUSTRALIA PTY LTD (AU)

B11B Dismissal acc. art. 36, par 1 of ipl - no reply within 90 days to fullfil the necessary requirements
B350 Update of information on the portal [chapter 15.35 patent gazette]