ITTO20070620A1 - SYSTEM AND METHOD FOR PRESENTING VISUAL DATA DETACHED IN MULTI-SPECTRAL IMAGES, MERGER, AND THREE SPACE DIMENSIONS. - Google Patents

SYSTEM AND METHOD FOR PRESENTING VISUAL DATA DETACHED IN MULTI-SPECTRAL IMAGES, MERGER, AND THREE SPACE DIMENSIONS. Download PDF

Info

Publication number
ITTO20070620A1
ITTO20070620A1 IT000620A ITTO20070620A ITTO20070620A1 IT TO20070620 A1 ITTO20070620 A1 IT TO20070620A1 IT 000620 A IT000620 A IT 000620A IT TO20070620 A ITTO20070620 A IT TO20070620A IT TO20070620 A1 ITTO20070620 A1 IT TO20070620A1
Authority
IT
Italy
Prior art keywords
image
images
collection
information
data
Prior art date
Application number
IT000620A
Other languages
Italian (it)
Inventor
Giancarlo Capaccio
William M Karszes
Jerry C Nims
Original Assignee
Giancarlo Capaccio
William M Karszes
Jerry C Nims
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Giancarlo Capaccio, William M Karszes, Jerry C Nims filed Critical Giancarlo Capaccio
Priority to IT000620A priority Critical patent/ITTO20070620A1/en
Priority to EP08795553.0A priority patent/EP2193449B1/en
Priority to CN2008801134491A priority patent/CN101971167A/en
Priority to EP16191965.9A priority patent/EP3159848A1/en
Priority to US12/675,920 priority patent/US20110037997A1/en
Priority to CA2698090A priority patent/CA2698090A1/en
Priority to PCT/US2008/010036 priority patent/WO2009032088A1/en
Priority to ES08795553.0T priority patent/ES2610502T3/en
Priority to TW097133339A priority patent/TWI460399B/en
Publication of ITTO20070620A1 publication Critical patent/ITTO20070620A1/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1278Dedicated interfaces to print systems specifically adapted to adopt a particular infrastructure
    • G06F3/1285Remote printer device, e.g. being remote from client or server
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B44DECORATIVE ARTS
    • B44FSPECIAL DESIGNS OR PICTURES
    • B44F1/00Designs or pictures characterised by special or unusual light effects
    • B44F1/08Designs or pictures characterised by special or unusual light effects characterised by colour effects
    • B44F1/10Changing, amusing, or secret pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1202Dedicated interfaces to print systems specifically adapted to achieve a particular effect
    • G06F3/1203Improving or facilitating administration, e.g. print management
    • G06F3/1208Improving or facilitating administration, e.g. print management resulting in improved quality of the output result, e.g. print layout, colours, workflows, print preview
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1223Dedicated interfaces to print systems specifically adapted to use a particular technique
    • G06F3/1237Print job management
    • G06F3/125Page layout or assigning input pages onto output media, e.g. imposition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • B42D2035/20
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B42BOOKBINDING; ALBUMS; FILES; SPECIAL PRINTED MATTER
    • B42DBOOKS; BOOK COVERS; LOOSE LEAVES; PRINTED MATTER CHARACTERISED BY IDENTIFICATION OR SECURITY FEATURES; PRINTED MATTER OF SPECIAL FORMAT OR STYLE NOT OTHERWISE PROVIDED FOR; DEVICES FOR USE THEREWITH AND NOT OTHERWISE PROVIDED FOR; MOVABLE-STRIP WRITING OR READING APPARATUS
    • B42D25/00Information-bearing cards or sheet-like structures characterised by identification or security features; Manufacture thereof
    • B42D25/30Identification or security features, e.g. for preventing forgery
    • B42D25/324Reliefs
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/12Digital output to print unit, e.g. line printer, chain printer
    • G06F3/1201Dedicated interfaces to print systems
    • G06F3/1223Dedicated interfaces to print systems specifically adapted to use a particular technique
    • G06F3/1237Print job management
    • G06F3/1244Job translation or job parsing, e.g. page banding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10032Satellite or aerial image; Remote sensing
    • G06T2207/10036Multispectral image; Hyperspectral image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30181Earth observation

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Image Processing (AREA)
  • Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)

Description

DESCRIZIONE dell'invenzione industriale dal titolo: "Sistema e metodo per presentare dati visuali rilevati a distanza in immagini multi-spettrali, di fusione, ed a tre dimensioni spaziali" DESCRIPTION of the industrial invention entitled: "System and method for presenting remotely detected visual data in multi-spectral, fusion, and three-dimensional spatial images"

DESCRIZIONE DESCRIPTION

Immagini da satelliti e da altri sensori remoti ("sensori remoti") sono utilizzati nella presa di decisioni in una varietà di applicazioni e settori comprendenti: agricoltura, cartografia, conservazione, pianificazione in caso di disastri, educazione, elettricità/gas, ambientale, geologia, servizi sanitari ed umana, applicazione della legge, governo locale, minerario, militare, risorse naturali, oceani/mari, petrolio, condutture, pianificazione, sicurezza pubblica, telecomunicazioni, turismo, trasporti, acque/acque reflue, e meteorologia. Le applicazioni possono variare dalla mappatura di terreni in modelli dimensionali per seguire la crescita di raccolti agricoli. Man mano che tali applicazioni sì espandono, sempre più si sviluppano algoritmi e proliferano software per manipolare i dati. Inoltre, sempre più dati spettrali vengono usati in forma combinata secondo una matrice, fornendo così conoscenza, piuttosto che informazione, per risolvere questioni poste dai responsabili delle decisioni civili e militari. I responsabili delle decisioni devono avere l'informazione compilata e presentata in modo chiaro e conciso. Le informazioni di sensori remoti, comprendenti immagini satellitari, immagini aeree, immagini da palloni, o qualunque altra immagine spettrale o non spettrale rilevata a distanza (ad es. immagini infrarosse) sono oggi incomplete, laddove l'informazione di sensori remoti rappresenta uno spazio piatto ed un territorio piatto, o immagini stereografiche che richiedono per la visione occhiali stereoscopici. In entrambi ì casi, è necessario che un "esperto" dia la sua opinione circa il contenuto dell<1>informazione dei sensori remoti. A causa dei limiti delle informazioni dì sensori remoti, i responsabili delle decisioni non hanno l'informazione visuale completa per prendere personalmente una decisione informata. Il colpo d'occhio, per molti responsabili delle decisioni, è la differenza fra successo e fallimento . Images from satellites and other remote sensors ("remote sensors") are used in decision making in a variety of applications and industries including: agriculture, cartography, conservation, disaster planning, education, electricity / gas, environmental, geology , health and human services, law enforcement, local government, mining, military, natural resources, oceans / seas, petroleum, pipelines, planning, public safety, telecommunications, tourism, transportation, water / wastewater, and meteorology. Applications can range from mapping land into dimensional models to following the growth of agricultural crops. As such applications expand, more and more algorithms are developed and software to manipulate data proliferates. In addition, more and more spectral data is being used in a combined form according to a matrix, thus providing knowledge, rather than information, to resolve issues posed by civilian and military decision makers. Decision makers must have the information compiled and presented in a clear and concise manner. Remote sensor information, including satellite images, aerial images, balloon images, or any other spectral or non-spectral image detected at a distance (e.g. infrared images) is now incomplete, whereas remote sensor information represents a flat space and a flat territory, or stereographic images that require stereoscopic glasses for viewing. In both cases, it is necessary for an "expert" to give his opinion about the information content of the remote sensors. Due to the limitations of remote sensor information, decision makers do not have the complete visual information to make an informed decision for themselves. The glance, for many decision makers, is the difference between success and failure.

Per superare il problema dei responsabili delle decisioni che non hanno un'informazione visuale completa dall'informazione dei sensori remoti per prendere personalmente una decisione informata, i principi della presente invenzione prevedono un sistema e un metodo che produce immagini chiare e concise risultanti da informazioni di sensori remoti multipli che danno al responsabile delle decisioni un'informazione visuale integrale che può essere rapidamente e prontamente compresa. Le immagini prodotte dal sistema possono essere (i) immagini spazialmente fuse (ad es. immagini tridimensionali), (ii) immagini fuse temporalmente (ad es. sequenza temporale di immagini), e (iii) immagini spettralmente fuse (ad es. immagini ottenute a differenti bande dello spettro elettromagnetico). Le immagini sono considerate<11>immagini fuse". To overcome the problem of decision makers who do not have complete visual information from remote sensor information to make an informed decision for themselves, the principles of the present invention provide a system and method that produces clear and concise images resulting from information of multiple remote sensors that give the decision maker full visual information that can be quickly and readily understood. The images produced by the system can be (i) spatially fused images (e.g. three-dimensional images), (ii) temporally fused images (e.g. timeline of images), and (iii) spectrally fused images (e.g. images obtained at different bands of the electromagnetic spectrum). Images are considered to be <11> merged images ".

Per generare le immagini fuse, il sistema può combinare algoritmi di elaboratore con tecnologia ottica, di scienza dei materiali, di sensoristica remota (ad es. tecnologia satellitare), tecnologia di stampa, e conoscenza avanzata dell'interpretazione di differenti dati di spettro elettromagnetico. Un'immagine fusa ottenuta dal sistema può risolvere molte delle questioni principali di oggi poste ad esperti di satelliti, consentendo così ad esperti di sensoristica non remota di comprendere meglio l'immagine senza l'assistenza di un esperto di sensoristica remota. Le immagini fuse sono formattate in modo che un responsabile delle decisioni possa osservare 1'informazione di sensori remoti nell'immagine fusa e prendere una decisione intelligente senza affidarsi alle pagine e pagine di rapporti di esperti, come sì fa comunemente oggi. Essenzialmente, i rapporti degli esperti sono incorporati nell'immagine fusa come informazione visuale. Oggetti, elementi, ecc. catturati in immagini di sensori remoti, possono avere tre dimensioni spaziali per permettere ad esperti di sensoristica non remota di comprendere più prontamente l'informazione contenuta nelle immagini. To generate the fused images, the system can combine computer algorithms with optical technology, materials science, remote sensor technology (eg satellite technology), printing technology, and advanced knowledge of the interpretation of different electromagnetic spectrum data. A fused image obtained from the system can solve many of today's major questions posed to satellite experts, thus enabling non-remote sensor experts to better understand the image without the assistance of a remote sensor expert. The merged images are formatted so that a decision maker can observe the remote sensor information in the merged image and make an intelligent decision without relying on the pages and pages of expert reports, as is commonly done today. Essentially, expert reports are incorporated into the fused image as visual information. Objects, elements, etc. captured in images of remote sensors, they can have three spatial dimensions to allow experts in non-remote sensors to more readily understand the information contained in the images.

Una forma di realizzazione di un sistema per produrre immagini rilevate a distanza può comprendere una piattaforma di unità di ingresso/uscita configurata per ricevere set multipli di informazioni rilevate a distanza. Una piattaforma di elaborazione digitale può essere configurata per eseguire uno o più algoritmi per elaborare i set di informazione rilevata a distanza per generare una singola immagine comprendente almeno due set delle informazioni rilevate a distanza elaborate. Una stampante può essere in comunicazione con la piattaforma di elaborazione digitale ed essere configurata per ricevere e stampare l'immagine singola, in cui l'immagine singola stampata è configurata per permettere a un osservatore di osservare individualmente ciascun set di informazioni rilevate a distanza elaborate. Ciascun set di informazioni rilevate a distanza elaborate può essere di una banda di lunghezze d'onda differente. Le informazioni rilevate a distanza possono essere tridimensionali. In aggiunta od in alternativa le informazioni rilevate a distanza possono essere temporalmente in sequenza. In una forma di realizzazione, l'informazione rilevata a distanza è stampata o fatta aderire a una matrice di microlenti che permette ad un osservatore di vedere ciascuna delle immagini rilevate a distanza modificando un angolo con il quale l'osservatore guarda la singola immagine attraverso la matrice di microlenti. One embodiment of a system for producing remotely sensed images may comprise an input / output unit platform configured to receive multiple sets of remotely sensed information. A digital processing platform can be configured to execute one or more algorithms for processing the remotely sensed information sets to generate a single image comprising at least two sets of the processed remotely sensed information. A printer may be in communication with the digital processing platform and be configured to receive and print the single image, where the single printed image is configured to allow an observer to individually observe each set of remotely sensed information processed. Each set of remotely sensed information processed can be of a different wavelength band. The information detected at a distance can be three-dimensional. In addition or alternatively, the information detected at a distance can be temporally sequential. In one embodiment, the remotely sensed information is printed or adhered to a micro-lens matrix that allows an observer to see each of the remotely sensed images by changing an angle at which the observer looks at the single image through the matrix of microlenses.

Un modo di attuazione di un metodo per generare informazione visuale da informazione rilevata a distanza può comprendere la raccolta di una prima immagine rilevata a distanza. Può essere raccolta una seconda immagine rilevata a distanza. La prima e la seconda immagine possono essere elaborate per orientare le immagini sostanzialmente con la stessa orientazione. La prima e seconda immagine possono essere stampate su un singolo materiale, e il singolo materiale può essere configurato per permettere a un osservatore dì osservare ciascuna immagine rilevata a distanza a un angolo differente quando osserva il materiale. In una forma di realizzazione, l'informazione rilevata a distanza è stampata o fatta aderire su una matrice di microlenti che permette a un osservatore di vedere ciascuna delle immagini rilevate a distanza modificando un angolo attraverso il quale l'osservatore guarda la singola immagine attraverso la matrice di microlenti. One way of implementing a method for generating visual information from remotely sensed information may comprise collecting a first remotely sensed image. A second image detected remotely can be collected. The first and second images can be processed to orient the images with substantially the same orientation. The first and second images can be printed on a single material, and the single material can be configured to allow an observer to observe each remotely sensed image at a different angle when looking at the material. In one embodiment, the remotely sensed information is printed or adhered to a matrix of microlenses that allows an observer to see each of the sensed images from a distance by changing an angle through which the observer looks at the single image through the matrix of microlenses.

L'invenzione divulgata verrà descritta con riferimento ai disegni allegati, che mostrano forme di realizzazione esemplificative dell'invenzione e che sono incorporati nella sua descrizione per riferimento, in cui: The disclosed invention will be described with reference to the accompanying drawings, which show exemplary embodiments of the invention and which are incorporated into its description by reference, in which:

la figura 1 è una rappresentazione di un si stema satellitare esemplificativo configurato per raccogliere immagini da satellite di oggetti usando dati di immagine singola o multipla; Figure 1 is a representation of an exemplary satellite system configured to collect satellite images of objects using single or multiple image data;

la figura 2 è una rappresentazione di un sistema esemplificativo (Livello 1) per generare e presentare una o più immagini fuse derivate dai dati di immagine di sensore remoto per la visione da parte del responsabile delle decisioni; Figure 2 is a representation of an exemplary system (Level 1) for generating and presenting one or more fused images derived from the remote sensor image data for viewing by the decision maker;

la figura 3 è una rappresentazione di un sistema esemplificativo (livello 2) che usa i dati di immagine di sensore remoto per generare le immagini fuse per i responsabili delle decisioni; Figure 3 is a representation of an exemplary system (level 2) that uses remote sensor image data to generate fused images for decision makers;

la figura 4 è una rappresentazione di un hardware esemplificativo usato per generare copie hard di immagini fuse derivate da dati di immagine di sensore remoto secondo i principi della presente invenzione; Figure 4 is a representation of exemplary hardware used to generate hard copies of fused images derived from remote sensor image data according to the principles of the present invention;

la figura 5 è un diagramma di flusso di un processo esemplificativo che descrive il funzionamento del sistema secondo i principi della presente invenzione; e Figure 5 is a flowchart of an exemplary process describing the operation of the system according to the principles of the present invention; And

la figura 6 è un diagramma di flusso di un altro processo esemplificativo che descrìve il funzionamento del sistema secondo i principi della presente invenzione. Figure 6 is a flowchart of another exemplary process describing the operation of the system according to the principles of the present invention.

L'elaborazione cognitiva umana di tre dimensioni spaziali aumenta il ragionamento visuale. La fusione di dati o la fusione di immagini è la combinazione di informazione rilevata. Un'immagine fusa può comprendere (i) immagini spazialmente fuse (ad es. immagini tridimensionali), (ii) immagini temporalmente in sequenza o temporalmente fuse, o (iii) fusione spettrale o combinazione di immagini da differenti regioni dello spettro elettromagnetico ("EMS"), come descritto nel brevetto US 6 781 707, che è qui incorporato per riferimento nella sua interezza. La fusione di immagini può rendere disponibile dati visuali raccolti su un periodo dì tempo, come ad esempio su molti anni, ad un osservatore. La fusione di immagini è definita come due o più immagini interfasate fra loro in modo tale che ciascuna immagine possa essere vista distintamente a differenti angoli di osservazione. Le immagini possono essere la stessa vista in istanti differenti, "fusione temporale", o la stessa immagine vista con differenti lunghezze d'onda di spettro elettromagnetico, "fusione EMS". Tre dimensioni spaziali è una frase usata per descrìvere tre dimensioni vere di osservazione. Nelle immagini da satellite il termine "3D" è una vista in prospetti va di un'immagine sullo schermo di un computer, che si differenzia da quello che l'occhio effettivamente vedrebbe nel catturare una scena. Lo stesso si applica ad altre forme di informazione rilevata a distanza. Un'immagine a tre dimensioni spaziali cattura la vista reale. Usando la fusione di immagini, l'osservatore può vedere ì dati visuali in un modo che è comodo a un essere umano per interpretare visualmente i dati visuali. Fornendo a un osservatore dati visuali quantitativi e qualitativi, all'osservazione viene data una maggior chiarezza per assistere l'osservatore nella presa di decisioni. Human cognitive processing of three spatial dimensions increases visual reasoning. Data fusion or image fusion is the combination of detected information. A fused image may include (i) spatially fused images (e.g., three-dimensional images), (ii) temporally sequenced or temporally fused images, or (iii) spectral fusion or combination of images from different regions of the electromagnetic spectrum ("EMS "), as described in US 6 781 707, which is incorporated herein by reference in its entirety. Image fusion can make visual data collected over a period of time, such as over many years, available to an observer. Image fusion is defined as two or more images interleaved with each other so that each image can be seen distinctly at different viewing angles. The images can be the same image seen at different times, "time fusion", or the same image seen with different wavelengths of the electromagnetic spectrum, "EMS fusion". Three Spatial Dimensions is a phrase used to describe three true dimensions of observation. In satellite imagery, the term "3D" is a perspective view of an image on a computer screen that differs from what the eye would actually see when capturing a scene. The same applies to other forms of information detected remotely. A three dimensional spatial image captures the real view. Using image fusion, the observer can see the visual data in a way that is convenient for a human to visually interpret the visual data. By providing an observer with quantitative and qualitative visual data, the observation is given greater clarity to assist the observer in making decisions.

La tecnologia satellitare è ben consolidata in termini di sensori, hardware e raccolta dati. La figura 1 è una rappresentazione del sistema satellitare esemplificativo 100 configurato per raccogliere immagini da satellite di oggetti utilizzando dati di immagine singola o multipla. Un satellite 102 può essere equipaggiato con sensori a punto singolo o a multipunti (non illustrato) per raccogliere dati di immagini da satellite in un'area 104 mentre vi passa sopra nella forma di dati di pixel. Tali dati di pixel o dati di immagine da satellite sono raccolti come informazione multi-bit od un set di dati. I sensori possono essere in grado di raccogliere i dati di immagine da satellite da tutte le regioni dello spettro elettromagnetico, quali visibile, infrarosso, radar, ultrasuoni, gamma, ecc., o sull'insieme dello EMS. Inoltre, i dati di immagine da satellite possono essere spazialmente fusi (ad es. tridimensionali) e/o temporalmente in sequenza . Satellite technology is well established in terms of sensors, hardware and data collection. Figure 1 is a representation of the exemplary satellite system 100 configured to collect satellite images of objects using single or multiple image data. A satellite 102 may be equipped with single-point or multi-point sensors (not shown) to collect satellite image data in an area 104 as it passes over it in the form of pixel data. Such pixel data or satellite image data is collected as multi-bit information or a data set. The sensors may be able to collect satellite image data from all regions of the electromagnetic spectrum, such as visible, infrared, radar, ultrasound, gamma, etc., or on the whole of the EMS. Furthermore, the satellite image data can be spatially fused (e.g. three-dimensional) and / or temporally sequentially.

I dati di immagine satellitare possono essere trasmessi tramite segnali satellitari 106 a stazioni di terra localizzate nel mondo. I segnali satellitari 106 possono comprendere dati di spettro elettromagnetico ad immagine singola o multipla raccolti utilizzando sensori remoti. I segnali satellitari 106 possono essere analogici o digitali ed essere comunicati utilizzando un qualunque protocollo di comunicazione compresa nel settore. Una stazione di terra 108 può ricevere i segnali satellitari 106 e raccogliere e immagazzinare i dati di immagine satellitare a essa comunicati. I dati di immagine satellitare possono essere quindi ritrasmessi a un sistema di elaborazione di informazione di sensori remoti 110 tramite una rete 112. In una forma di realizzazione, i dati di immagine satellitare sono comunicati tramite la rete 112 nella forma di pacchetti di dati 114, ove la rete 112 può essere una rete locale (LAN) o una rete geografica (WAN) (ad es. Internet), o altre. Satellite image data can be transmitted via satellite signals 106 to earth stations located around the world. The satellite signals 106 may comprise single or multiple image electromagnetic spectrum data collected using remote sensors. The satellite signals 106 can be analog or digital and be communicated using any communication protocol included in the sector. A ground station 108 can receive satellite signals 106 and collect and store the satellite image data communicated to it. The satellite image data can then be retransmitted to a remote sensor information processing system 110 via a network 112. In one embodiment, the satellite image data is communicated via the network 112 in the form of data packets 114, where the 112 network can be a local network (LAN) or a geographic network (WAN) (eg Internet), or others.

Benché la fig. 1 descriva il funzionamento di un sistema di rilevamento a distanza quale satellite, i principi della presente invenzione possono utilizzare in aggiunta o in alternativa altri sensori remoti per raccogliere informazione di sensori a distanza. Ad esempio, aerei e palloni ad aria calda che sono attrezzati con un'apparecchiatura di sensori remoti o rilevano informazioni di spettro elettromagnetico (ad es. immagini visuali di una regione terrestre o immagini termiche dell'atmosfera al di sopra del suolo) possono essere utilizzati per raccogliere set di dati di immagine. L'informazione di sensori remoti, raccolta dalla stessa o da una differente piattaforma di sensori remoti, può essere fusa in un'immagine fusa. Nel caso si usino altri sensori remoti, piuttosto che radiotrasmettere l'informazione rilevata a distanza, l'informazione può essere raccolta su un mezzo, quale un nastro digitale o mezzo magnetico, e direttamente o indirettamente inserita nel sistema di elaborazione di informazione di sensori remoti 110. Si intende che le informazioni od immagini rilevate a distanza possono includere set di dati di informazioni al suolo o al di sopra del suolo (ad es. atmosfera). La figura 2 è una rappresentazione di un sistema esemplificativo ("Livello Uno") 200 per generare e presentare una o più immagini fuse derivate da informazione di sensori remoti per la visione da parte dei responsabili delle decisioni. Mentre i satelliti orbitano o altri sensori remoti viaggiano sulla Terra, varie immagini di aree sono raccolte in funzione del tempo. I dati di immagine satellitare sono ricevuti dal sistema di elaborazione di informazione di sensori remoti 110 per l'elaborazione. Il sistema di elaborazione di informazione di sensori remoti 110 può comprendere un'unità di elaborazione 202 che esegue un software 204 che attua vari algoritmi. L'unità di elaborazione 202, che può comprendere uno o più processori, può essere in comunicazione con una memoria 206, un'unità di ingresso/uscita (I/O) 208, e un'unità di immagazzinamento 210, ove la memoria 206 immagazzina informazioni durante l'esecuzione del software 204, l'unità I/O 208 opera per comunicare con la stazione di terra 108 e ì dispositivi di uscita 212, e l'unità di immagazzinamento 210 immagazzina l'informazione di sensori remoti generata dagli algoritmi. Although fig. 1 describes the operation of a remote sensing system such as satellite, the principles of the present invention may additionally or alternatively utilize other remote sensors to collect remote sensor information. For example, airplanes and hot air balloons that are equipped with remote sensor equipment or detect electromagnetic spectrum information (e.g. visual images of a region of the earth or thermal images of the atmosphere above the ground) can be used. to collect image datasets. Remote sensor information, collected from the same or a different remote sensor platform, can be merged into a fused image. If other remote sensors are used, rather than broadcasting the information detected at a distance, the information can be collected on a medium, such as a digital tape or magnetic medium, and directly or indirectly inserted into the information processing system of remote sensors. 110. It is understood that information or images detected at a distance may include data sets of information on the ground or above the ground (eg atmosphere). Figure 2 is a representation of an exemplary system ("Level One") 200 for generating and presenting one or more fused images derived from remote sensor information for viewing by decision makers. As satellites orbit or other remote sensors travel the Earth, various images of areas are collected as a function of time. The satellite image data is received by the remote sensor information processing system 110 for processing. The remote sensor information processing system 110 may comprise a processing unit 202 running software 204 that implements various algorithms. The processing unit 202, which may comprise one or more processors, may be in communication with a memory 206, an input / output (I / O) unit 208, and a storage unit 210, where the memory 206 stores information during the execution of the software 204, the I / O unit 208 operates to communicate with the ground station 108 and the output devices 212, and the storage unit 210 stores the remote sensor information generated by the algorithms .

L'informazione di sensori remoti può comprendere dati di immagine a punto singolo o a multipunti e può essere una raccolta di dati spettrali da un singolo punto nel tempo o una raccolta di dati spettrali nel tempo. L'informazione di sensori remoti può essere ciascuno o tutti i dati fusi spazialmente, temporalmente o spettralmente, ove ciascun set di dati può essere considerato un'immagine. L’informazione di sensori remoti può essere trasformata o manipolata in una forma utilizzabile tramite algoritmi interni. Ad esempio, un set di dati può essere di una regione spettrale non visuale dello spettro elettromagnetico, o gli algoritmi interni possono generare una rappresentazione visuale del set di dati non spettrali. Si noti che una forma utilizzabile è relativa a formati compatibili con il linguaggio di algoritmi di sistema secondo i principi della presente invenzione. Una regolazione matematica delle immagini può anche essere completata per garantire sovrapposizione e correttezza di perpendicolarità. Tali algoritmi di regolazione matematica sono noti nel settore e di pubblico dominio. Gli algoritmi utilizzati possono variare a seconda (i) del satellite dal quale si prendono i dati, (ii) delle lunghezze d'onda uti lizzate, (iii) della manipolazione di dati effettuata per la presentazione di dati visuali risultante. I dati "compatibilizzati" possono essere convertiti in una matrice di pixel prescritta dagli algoritmi interni. Inerenti al sistema sono gli algoritmi descritti nei brevetti US 6781 707, 6 894 809 e 7 019 865, che sono qui incorporati per riferimento nella loro interezza. The remote sensor information may comprise single-point or multi-point image data and may be a collection of spectral data from a single point in time or a collection of spectral data in time. The remote sensor information can be any or all of the data merged spatially, temporally or spectrally, where each data set can be considered an image. The information from remote sensors can be transformed or manipulated into a usable form using internal algorithms. For example, a dataset may be of a non-visual spectral region of the electromagnetic spectrum, or internal algorithms may generate a visual representation of the non-spectral dataset. It should be noted that a usable form relates to formats compatible with the system algorithm language according to the principles of the present invention. A mathematical adjustment of the images can also be completed to ensure overlap and correctness of perpendicularity. Such mathematical regulation algorithms are known in the industry and in the public domain. The algorithms used may vary depending on (i) the satellite from which the data is taken, (ii) the wavelengths used, (iii) the data manipulation performed for the resulting visual data presentation. The "compatibilized" data can be converted into a pixel matrix prescribed by the internal algorithms. Inherent to the system are the algorithms described in US patents 6781 707, 6 894 809 and 7 019 865, which are incorporated herein by reference in their entirety.

I dati manipolati, che possono essere interfasati, possono essere quindi stampati su carta e sovrapposti con una matrice di lenti micro-ottiche specificamente progettate o stampati su una matrice micro-ottica mediante l'uso di una stampante specificamente progettata, come descritto nel brevetto US 6709 080, qui incorporato per riferimento nella sua interezza. Il termine "interfasato" indica una manipolazione di immagini, generalmente tramite un computer, in cui le immagini sono segmentate in linee e quindi interfasate in una singola immagine. Una singola immagine può essere composta di singole linee in una matrice prestabilita tale che, quando la matrice di lenti micro-ottiche viene sovrapposta, è possibile osservare l'immagine multidimensionale prestabilita. Il sistema 200 è indicato come Livello Uno, che è un nome descrittivo del livello di sofisticazione tecnica utilizzato nel produrre 1'immagine descritta. Inerenti a tale sistema sono gli algoritmi appropriati, come sopra descritto, per formattare i dati e manipolare i dati per i risultati desiderati. The manipulated data, which can be interleaved, can then be printed on paper and overlaid with a specifically designed micro-optical lens array or printed on a micro-optical array by the use of a specifically designed printer, as described in U.S. Pat. 6709 080, incorporated herein by reference in its entirety. The term "interphase" refers to an image manipulation, generally by a computer, in which images are segmented into lines and then interleaved into a single image. A single image can be composed of single lines in a predetermined matrix such that, when the micro-optical lens matrix is superimposed, the predetermined multidimensional image can be observed. System 200 is referred to as Level One, which is a descriptive name for the level of technical sophistication used in producing the described image. Inherent in such a system are the appropriate algorithms, as described above, to format the data and manipulate the data for the desired results.

I dati di uscita 214 possono essere presentati come immagini multidimensìonali e/o dati fusi. Nella formazione di immagini di rilevamento a distanza, la capacità di visualizzare la profondità di campo nel formato di copia hard non è altrimenti commercialmente disponibile. La capacità di arrivare oltre le immagini visuali nello spettro non visibile all'occhio umano (ad es. gamma, infrarosso, sonar/radar, e raggi x) permette inoltre di raccogliere uno streaming di dati da sensori remoti e di incorporarlo in una singola immagine su un singolo foglio, in cui l'immagine include una pluralità di pagine di informazione. L'immagine singola può essere eloquente in modo unico per il/i responsabile/i delle decisioni che può/possono essere o no esperto/i nell'interpretazione di immagini da sensori remoti. Il sistema 200 migliora l'analisi da parte degli esperti incorporando la loro conoscenza negli algoritmi sopra presentati in una piattaforma software associata. In aggiunta, il sistema 200 fornisce una conoscenza riguardo ai dati raccolti da differenti lunghezze d'onda di EMS. La conoscenza analitica è incorporata poiché possono essere viste immagini EMS e in sequenza temporale e, sulla base delle immagini, possono essere prese delle decisioni. La conoscenza di quali immagini utilizzare viene dall'esperto, il significato di ciascuna singola immagine viene dall'esperto, ma la conclusione collettiva viene dal responsabile delle decisioni. Così, la conoscenza dell'esperto incorporata nel sistema 200 permette ai responsabili dì interpretare l'informazione senza l'assistenza di un esperto, migliorando così la comprensione e l'efficienza da parte del responsabile delle decisioni. The output data 214 can be presented as multidimensional images and / or blended data. In remote sensing imaging, the ability to display depth of field in hard copy format is otherwise not commercially available. The ability to go beyond visual images in the spectrum not visible to the human eye (e.g. gamma, infrared, sonar / radar, and x-rays) also allows you to collect a stream of data from remote sensors and incorporate it into a single image on a single sheet, where the image includes a plurality of information pages. The single image can be uniquely eloquent to the decision maker (s) who may or may not be experienced in interpreting images from remote sensors. System 200 enhances analysis by experts by incorporating their knowledge into the algorithms presented above in an associated software platform. In addition, the system 200 provides knowledge about the data collected from different EMS wavelengths. Analytical knowledge is incorporated as EMS and timeline images can be viewed and, based on the images, decisions can be made. The knowledge of which images to use comes from the expert, the meaning of each individual image comes from the expert, but the collective conclusion comes from the decision maker. Thus, the expert knowledge built into the system 200 allows managers to interpret the information without the assistance of an expert, thereby improving the decision maker's understanding and efficiency.

Il sistema 200 provvede inoltre a immediatezza e facilità d'uso, poiché il sistema 200 prevede un feedback in tempo reale nella forma di una copia hard e nessun, o minimo, addestramento per operare, rispetto alla tecnologia e disponibilità attuali. Il colpo d'occhio di un’immagine fusa non può essere sottostimato, quando l'osservatore è il responsabile finale delle decisioni. Nel seguito vi sono esempi in cui il responsabile delle decisioni può prontamente comprendere e interpretare immagini da satellite secondo i principi della presente invenzione . The 200 system also provides immediacy and ease of use, as the 200 system provides real-time feedback in the form of a hard copy and no, or minimal, training to operate, relative to current technology and availability. The glance of a fused image cannot be underestimated, when the observer is the ultimate decision maker. Below are examples in which the decision maker can readily understand and interpret satellite images according to the principles of the present invention.

(1) I movimenti del suolo nell'area di Napoli sono stati seguiti su un periodo prolungato di tempo. Tali movimenti del suolo sono stati fusi temporalmente fra loro per fornire un'immagine complessiva di Napoli. Quando l'immagine veniva mossa (ad es . si modificava l'angolo di osservazione), le aree in cui si avevano movimenti del suolo (cioè la nuova immagine) proiettavano il movimento. Così, l'immagine può distinguere aree instabili e riportare l'instabilità a seconda del grado di movimento. I dirigenti delle assicurazioni (cioè i responsabili delle decisioni) possono osservare tale immagine fusa per determinare il grado di rischio. I pianificatori urbani (cioè i responsabili delle decisioni) possono osservare circa il pericolo o il tipo di costruzione richiesto in una data area. Tutta tale informazione di sensori remoti può essere contenuta in un'immagine ed essere facilmente osservata e interpretata da un responsabile delle decisioni . (1) The ground movements in the Naples area were followed over a prolonged period of time. These ground movements have been temporally merged with each other to provide an overall picture of Naples. When the image was moved (e.g. the viewing angle changed), the areas where there was ground movement (i.e. the new image) projected the movement. Thus, the image can distinguish unstable areas and report instability depending on the degree of movement. Insurance executives (i.e. decision makers) can observe this merged image to determine the degree of risk. Urban planners (i.e. decision makers) can observe about the hazard or type of construction required in a given area. All this remote sensor information can be contained in an image and easily viewed and interpreted by a decision maker.

(2) Una sequenza temporale di nubi di inquinamento può essere creata da dati di sequenza temporale per plottare il percorso e documentare per un futuro riferimento l'effetto dell'inquinamento su aree colpite. L'uso di informazione o dati di sensori remoti da parte delle compagnie di assicurazione nei confronti di richieste d'indennizzo dovute a sinistri che si scostano a causa del vento può essere fatto per vedere se un'area presunta era nella zona del sinistro. Il tracciamento di inquinanti relativo alla contaminazione può essere letto da una copia hard a terra da parte di un’unità secondaria . (2) A timeline of pollution clouds can be created from timeline data to plot the path and document the effect of pollution on affected areas for future reference. The use of information or remote sensor data by insurance companies in respect of claims for claims that deviate due to wind can be done to see if an alleged area was in the area of the claim. The pollutant tracking related to contamination can be read from a hard copy on the ground by a secondary unit.

Come precedentemente descritto, la fusione di dati o di immagini può comportare informazioni spaziali (ad es. 3D), una combinazione di informazioni visuali temporalmente in sequenza, od informazioni spettralmente differenti, quali una combinazione di immagini dalla stessa regione o da regioni differenti dello spettro elettromagnetico raccolte da sensori remoti. Così, la fusione di dati può rispondere a questioni quale "dov'è la miglior struttura topografica per ricercare petrolio, gas e acqua?<1>'. Di nuovo, gli esperti di sensoristica remota possono interpretare immagini di sensori remoti e riferire per fornire una riposta, ma i non esperti generalmente non hanno la capacità di interpretare completamente le immagini di sensori remoti e, quindi, non possono assumere decisioni ben fondate senza l'assistenza di uno o più esperti di sensori remoti . As previously described, data or image fusion can involve spatial information (e.g. 3D), a combination of visual information temporally sequentially, or spectrally different information, such as a combination of images from the same region or from different regions of the spectrum. electromagnetic collected by remote sensors. Thus, data fusion can answer questions such as 'where is the best topographical facility to search for oil, gas and water? <1>'. Again, remote sensor experts can interpret images of remote sensors and report to provide an answer, but non-experts generally lack the ability to fully interpret remote sensor images and, therefore, cannot make well-founded decisions without the assistance of one or more remote sensor experts.

Il sistema 200 e il software 204 possono compilare l'informazione di sensori remoti, quali immagini, immagini da satellite su una sequenza temporale o in una o più bande di frequenza e fornire un formato di uscita, quale una singola immagine fusa, che permette a un responsabile delle decisioni, che può essere o no un esperto, di interpretare le immagini da satellite. Una singola immagine fusa può rafforzare i rapporti e migliorare le conclusioni da parte del responsabile delle decisioni. L'immagine fusa in sé può anche rispondere a questioni specifiche che sono altrimenti di difficile risposta usando immagini da satellite multiple. I-noltre, mappe di copia hard spazialmente in tempo reale possono essere generate con siti evidenziati per condurre esplorazione per squadra che vanno in un'area remota. Inoltre un computer può simulare immagini multidimensionali su un monitor, una squadra che lavora in aree senza energia o che desiderano garantirsi rispetto a un guasto del computer sul campo, possono trovare una mappa di copia hard molto più affidabile. Modelli multidimensionali possono essere generati da dati sonici o MRI in sito per determinare inoltre le posizioni esatte dove, ad esempio, si può trovare petrolio o gas. L'uso di mappe di immagini multidimensionali può ridurre il numero di pozzi esplorativi e mappare il campo per la miglior posizione per stabilire un pozzo, risparmiando così tempo e denaro da parte dell 'utilizzatore. The system 200 and the software 204 can compile the information of remote sensors, such as images, satellite images on a timeline or in one or more frequency bands and provide an output format, such as a single fused image, which allows a decision maker, who may or may not be an expert, to interpret the satellite images. A single merged image can strengthen relationships and improve conclusions on the part of the decision maker. The merged image itself can also answer specific questions that are otherwise difficult to answer using multiple satellite images. Additionally, spatially real-time hard copy maps can be generated with highlighted sites to conduct exploration by team going to a remote area. Additionally a computer can simulate multidimensional images on a monitor, a team working in areas with no power or wishing to secure themselves against a computer failure in the field, can find a much more reliable hard copy map. Multidimensional models can be generated from sonic or MRI data on site to also determine the exact locations where, for example, oil or gas can be found. The use of multidimensional image maps can reduce the number of exploratory wells and map the field to the best location to establish a well, thus saving the user time and money.

Una copia hard multidimensionale è migliore rispetto alle mappe e ai rapporti convenzionali a causa dei dettagli di colore spettrali e riflessivi inerenti alle immagini. A proposito del sistema qui descrìtto, non sono da includere nell'immagine da satellite solamente due canali, ma anche da aggiungere una pluralità di canali. Il numero di canali utilizzati può essere determinato dalla complessità del problema da risolvere e dalle caratteristiche del materiale micro-ottico utilizzato. Tipicamente, più un problema è complesso, più l'informazione è generalmente utilizzata per affrontare la riposta. Maggiore è la quantità di informazioni, maggiore è la quantità di canali di informazione utilizzati nel programma di interiasamento, in cui ciascun immagine può essere spezzata in linee discrete e quindi le lìnee vengono interfasate per allinearsi dietro il materiale micro-ottico. Per ottenere la miglior fedeltà dell’immagine, l'informazione può essere presentata dalla matrice agli occhi dell'osservatore in una sequenza appropriata e nei quadri corretti. Tecniche di ray tracing ottico e la conoscenza della risoluzione delle stampanti sono utilizzate per progettare la configurazione di matrice di lenti ottimale per presentare l'informazione all'osservatore in modo appropriato. A multidimensional hard copy is better than conventional maps and reports due to the spectral and reflective color details inherent in the images. With regard to the system described here, not only two channels are to be included in the satellite image, but a plurality of channels are also to be added. The number of channels used can be determined by the complexity of the problem to be solved and by the characteristics of the micro-optical material used. Typically, the more complex a problem, the more information is generally used to address the answer. The greater the amount of information, the greater the amount of information channels used in the interiasing program, where each image can be broken up into discrete lines and then the lines are interphased to line up behind the micro-optical material. To obtain the best image fidelity, the information can be presented by the matrix to the observer's eyes in an appropriate sequence and in the correct frames. Optical ray tracing techniques and knowledge of printer resolution are used to design the optimal lens array configuration to present the information to the observer in an appropriate manner.

Il sistema 200 realizza la capacità di fondere temporalmente i dati. La capacità di fondere temporalmente i dati permette che sequenze di eventi vengano mostrate come un movimento, il che consente ai responsabili delle decisioni di ottenere una migliore comprensione della direzione di eventi o di anticipare l'evoluzione di una sequenza. Inoltre, utilizzando la fusione nel tempo, sequenze precedenti e successive possono essere osservate a scopo di informazione, come per danni assicurativi, progresso di progetti, e impatto sull'ambiente di strutture realizzate dall'uomo. Nell'ambito degli algoritmi sopra descritti vi è la capacità di legare multi-viste in immagini multi-dimensionali con parallasse controllata. Gli algoritmi controllano la parallasse relativamente al sistema di lenti utilizzato, pixel per pollice emessi in uscita da una stampante speciale, e regole sviluppate dai lavori precedenti sulla profondità di campo, come ulteriormente descritto nei brevetti US 4086 585 e 4 124 291 che sono qui incorporati nella loro interezza per riferimento. La capacità di controllare la parallasse e la profondità di campo significa che le immagini risultanti sono accurate e suscettibili dì essere utilizzate per ottenere calcoli di misure. La sovrapposizione di immagini consente inoltre che vengano create accurate mappe di profondità, il che può portare ad un ulteriore affinamento e viste creando immagini tridimensionali virtuali sullo schermo. Il software può essere utilizzato per creare una copia "hard" delle immagini. Il sistema 200 provvede la capacità di utilizzare tecniche di "ray tracing" (tracciatura di raggi) per creare immagini multi-dimensionali da differenti viste della stessa scena. The system 200 realizes the ability to temporally merge data. The ability to temporally blend data allows sequences of events to be shown as a movement, which allows decision makers to gain a better understanding of the direction of events or to anticipate the evolution of a sequence. Additionally, by using time blending, preceding and subsequent sequences can be observed for information purposes, such as for insurance damage, project progress, and environmental impact of man-made structures. Within the algorithms described above there is the ability to link multi-views in multi-dimensional images with controlled parallax. The algorithms control parallax with respect to the lens system used, pixels per inch emitted by a special printer, and rules developed from previous works on depth of field, as further described in US patents 4086 585 and 4 124 291 which are incorporated herein. in their entirety for reference. The ability to control parallax and depth of field means that the resulting images are accurate and likely to be used to obtain measurement calculations. Overlaying images also allows accurate depth maps to be created, which can lead to further refinement and views by creating virtual three-dimensional images on the screen. The software can be used to create a "hard" copy of the images. The system 200 provides the ability to use "ray tracing" techniques to create multi-dimensional images from different views of the same scene.

La figura 3 è un'illustrazione di un sistema esemplificativo 300 (Livello Due) che utilizza le informazioni di sensore remoto (ad esempio, dati di immagine) per generare le immagini fuse per i responsabili delle decisioni. Il sistema 300 può essere utilizzato per creare "dati quantitativi fusi che rispondono visivamente alla domanda". Consistentamente con la figura 2, larghezze di banda differenti dello spettro elettromagnetico possono essere utilizzate per fornire informazioni differenti circa un'immagine rilevata a distanza. Il sistema 300 è orientato verso l'utilizzo di una matrice generata in modo esperto per "definire 1’impronta digitale" di un’immagine rilevata a distanza. Ad esempio, una matrice può elencare lunghezze d'onda di uno spettro elettromagnetico, definito come lo spettro visibile, lo spettro infrarosso, radar, sonar, ecc., ed informazioni ottenute da tale o tali larghezze di banda. In appresso vi è un esempio di una matrice di banda, in cui sono forniti esempi di informazioni che possono essere generate in differenti larghezze di banda. Figure 3 is an illustration of an exemplary system 300 (Level Two) that uses remote sensor information (e.g., image data) to generate fused images for decision makers. System 300 can be used to create "blended quantitative data that visually answers the question". Consistent with Figure 2, different bandwidths of the electromagnetic spectrum can be used to provide different information about a remotely detected image. The 300 system is oriented towards the use of an expertly generated matrix to "define a fingerprint" of a remotely detected image. For example, a matrix may list wavelengths of an electromagnetic spectrum, defined as the visible spectrum, infrared spectrum, radar, sonar, etc., and information obtained from such or such bandwidths. Below is an example of a bandwidth matrix, in which examples of information that can be generated in different bandwidths are given.

Così, se viene ricercata una specifica soluzione per un problema posto, allora la matrice può essere utilizzata per determinare quale o quali larghezze di banda possono essere utilizzate per formulare una soluzione. Ad esempio, per una data regione, l'acqua è razionata e le autorità idriche vogliono sapere quali sotto-regioni necessitano di ricevere acqua per irrigazione (problema posto). Dalla matrice delle bande esemplificativa di cui sopra, le prime tre bande possono essere combinate in un'immagine visuale (immagine uno). Poi, l'immagine prodotta dalla Banda 4 può essere utilizzata per vedere quale tipo di piante vi siano nelle sotto-regioni ed ottenere informazioni sull'umidità del suolo (immagine due). L'immagine tre può essere presa dalla Banda 7 per determinare l'umidità della vegetazione ed essere combinata con un'immagine (immagine quattro) dalla Banda 5 oppure 6 per vedere lo stress della vegetazione. Queste quattro immagini possono poi essere fuse in una immagine rrtultispettrale dal sistema qui descritto. Il responsabile delle decisioni può allora essere in grado di vedere le informazioni sull'immagine multispettrale ruotando l'immagine multi-dimensionale in modo da modificare l’angolo dì vista. Mano a mano che domande vengono alla mente del responsabile delle decisioni, l'ulteriore rotazione avanti e indietro fornisce una rapida risposta. Questa immagine può essere combinata con una fusione temporale della regione da qualsiasi delle bande, quale la Banda 7, determinando il tasso di perdita di umidità nella vegetazione. Questo esempio rappresenta un esempio dell<1>utilizzo del sistema secondo i principi della presente invenzione. Differenti matrici possono essere formulate, a seconda del problema posto. Ciascun problema posto può avere un differente set di immagini multi-dimensionali per risolvere il problema posto. Thus, if a specific solution is sought for a given problem, then the matrix can be used to determine which or which bandwidths can be used to formulate a solution. For example, for a given region, water is rationed and the water authorities want to know which sub-regions need to receive water for irrigation (problem posed). From the exemplary band matrix above, the first three bands can be combined into a visual image (image one). Then, the image produced by Band 4 can be used to see what kind of plants there are in the sub-regions and obtain information on soil moisture (image two). Image three can be taken from Band 7 to determine vegetation moisture and be combined with an image (image four) from Band 5 or 6 to see vegetation stress. These four images can then be merged into a rrtultispectral image by the system described here. The decision maker may then be able to see the information on the multispectral image by rotating the multi-dimensional image in order to change the angle of view. As questions come to the decision maker's mind, the further back and forth rotation provides a quick answer. This image can be combined with a temporal melting of the region from any of the bands, such as Band 7, determining the rate of moisture loss in the vegetation. This example represents an example of the use of the system according to the principles of the present invention. Different matrices can be formulated, depending on the problem posed. Each problem posed can have a different set of multi-dimensional images to solve the problem posed.

In un modo di realizzazione, il sistema di elaborazione 110 (figura 1) può essere configurato per consentire ad un utilizzatore di scegliere fra le differenti lunghezze d'onda per cui sono disponibili informazioni rilevate a distanza, sulla base di un problema che è in corso di soluzione, il sistema di elaborazione 110, che può avere accesso ad una matrice di bande o altre informazioni formattate sulle bande, può accedere alle informazioni rilevate a distanza da elaborare. L'elaborazione può orientare e altrimenti allineare le informazioni rilevate a distanza per formare una singola immagine che include ciascuno dei set di informazioni rilevate a distanza su ciascuna delle bande di lunghezza d'onda. L<1>immagine singola può essere stampata su un materiale che, quando visionato attraverso una schiera di micro-lenti, consente all'osservatore di vedere ciascuna delle immagini prodotte da rispettive informazioni rilevate a distanza su rispettivi campi di lunghezza d'onda, come ulteriormente qui descritto. In one embodiment, the processing system 110 (Figure 1) can be configured to allow a user to choose between the different wavelengths for which remotely sensed information is available, on the basis of an ongoing problem. As a solution, the processing system 110, which can have access to a matrix of bands or other information formatted on the bands, can access the information detected at a distance to be processed. Processing can orient and otherwise align remotely sensed information to form a single image that includes each of the remotely sensed information sets on each of the wavelength bands. The <1> single image can be printed on a material which, when viewed through an array of micro-lenses, allows the observer to see each of the images produced by respective remotely sensed information on respective wavelength fields, such as further described here.

Una volta che le larghezze di banda appropriate sono state selezionate, i dati dai sensori remoti possono essere scaricati nel sistema 300, e informazioni visuali fuse possono essere generate in modo tale che una persona possa raccogliere informazioni per procedere a determinare una soluzione ad un problema corrente. Il sistema può inoltre generare una copia hard multi-dìmensionale dell'area in questione per ulteriore revisione e studio. La copia hard multi-dimensionale dell'area in questione può essere utilizzata per risolvere il problema posto da parte del responsabile delle decisioni, con un modesto o nessun supporto tecnico. La visualizzazione iper-spettrale (cioè multi-spettrale) può agire come uscita scritta di un dispositivo analitico. Il sistema, in conformità con i principi della presente invenzione, prevede passi intermedi che possono essere effettuati, come la formazione della matrice delle bande disponibili e poi la selezione delle bande, per rispondere ad uno specifico problema. Once the appropriate bandwidths have been selected, data from the remote sensors can be downloaded to the system 300, and merged visual information can be generated so that a person can gather information to proceed to determine a solution to a current problem. . The system can also generate a multi-dimensional hard copy of the area in question for further review and study. The multi-dimensional hard copy of the area in question can be used to solve the problem posed by the decision maker, with little or no technical support. Hyper-spectral (i.e. multi-spectral) visualization can act as a written output of an analytical device. The system, in accordance with the principles of the present invention, provides intermediate steps which can be carried out, such as the formation of the matrix of the available bands and then the selection of the bands, to respond to a specific problem.

L'utilizzo di un approccio sistematico dalla posizione di una domanda alla postulazione dell'informazione rilevata a distanza per rispondere alla domanda posta, alla manipolazione dei dati per creare una visualizzazione iper-spettrale e infine per emettere la visualizzazione, può essere utilizzato in conformità con i principi della presente invenzione. L’approccio sistematico può essere effettuato combinando la piattaforma o programma software per il sensore remoto che fornisce luce ad una stampante speciale che utilizza un materiale speciale MicrOptical™ (come descritto qui e nei brevetti qui incorporati per riferimento) con collegamenti speciali per creare la presentazione visiva finita dei dati. L'inchiostro speciale può essere formulato in modo tale da aderire alla schiera di lenti formata dal materiale MicrOptical™, ad esempio. In alternativa, l'inchiostro può essere stampato su un altro materiale e fatto aderire alla schiera di lenti. Così, il sistema come qui descritto semplifica l'uso dei dati da satellite. Ciascuna piattaforma nel sistema può essere tagliata a misura per rispondere ad un problema sulla base dell'input dell'esperto, ove l'input dell'esperto è incorporato nel software in modo tale per cui il responsabile delle decisioni può ricevere dati di input da una varietà di sorgenti differenti e ben specificate, quale un satellite esistente o un nuovo satellite. The use of a systematic approach from the position of a question to the postulation of the remotely detected information to answer the question posed, to the manipulation of the data to create a hyper-spectral visualization and finally to emit the visualization, can be used in accordance with the principles of the present invention. The systematic approach can be done by combining the platform or software program for the remote sensor that provides light to a special printer using a special MicrOptical ™ material (as described here and in the patents incorporated herein for reference) with special links to create the presentation finished visual data. The special ink can be formulated in such a way that it adheres to the array of lenses formed by the MicrOptical ™ material, for example. Alternatively, the ink can be printed on another material and adhered to the array of lenses. Thus, the system as described here simplifies the use of satellite data. Each platform in the system can be tailored to answer a problem based on expert input, where expert input is embedded in the software in such a way that the decision maker can receive input data from a variety of different and well specified sources, such as an existing satellite or a new satellite.

Il sistema 300 o piattaforma, che include algoritmi interni, può compilare e fondere informazioni rilevate a distanza, quali dati di immagine, ed inviare le informazioni rilevate a distanza, compilate e fuse, ad un dispositivo di uscita appositamente progettato che stampa su materiale appositamente progettato per creare una presentazione visiva che contiene "dati quantitativi fusi che rispondono visualmente alla domanda". Sulla base dell'input dell'esperto, che è incorporata nel programma software creato per rispondere alla domanda posta e sul sistema di Livello Due della figura 3, possono essere creati moduli pre-programmati, come previsto nella figura 5, che spiega sotto forma di diagramma di flusso come opera il sistema. La figura 5 può essere utilizzata per rispondere a questioni ampie, quali: System 300 or platform, which includes internal algorithms, can compile and merge remotely sensed information, such as image data, and send remotely sensed, compiled and merged information to a specially designed output device that prints on specially designed material to create a visual presentation that contains "blended quantitative data that visually answers the question". Based on expert input, which is incorporated into the software program created to answer the question posed and on the Level Two system of Figure 3, pre-programmed forms can be created, as provided in Figure 5, which explains in the form of flowchart how the system works. Figure 5 can be used to answer broad questions such as:

Programma Inquinamento: un modulo Inquinamento può essere configurato per seguire gli effetti dell'inquinamento in un periodo di tempo. Il modulo Inquinamento può avere la capacità di fondere differenti dati spettrali in funzione del tempo. Pollution Schedule: A Pollution module can be configured to track the effects of pollution over a period of time. The Pollution module may have the ability to blend different spectral data as a function of time.

Programma Terra: un modulo Terra può seguire i cambiamenti della Terra in funzione del tempo. Variazioni dell’altezza del terreno in funzione del tempo in aree geologicamente instabili sono un esempio di monitoraggio di cambiamenti della Terra. Altri esempi includono il monitoraggio dell'erosione, la separazione di faglie, flussi di lava, ecc. Earth Program: An Earth module can track Earth's changes as a function of time. Variations in the height of the ground as a function of time in geologically unstable areas are an example of monitoring changes in the Earth. Other examples include erosion monitoring, separation of faults, lava flows, etc.

Programma Pianificazione Urbana: un modulo di monitoraggio della Pianificazione Urbana può monitorare sviluppi in funzione del tempo. Costruzioni, sbancamenti , deforestazione ed altri monitoraggi strutturali possono essere seguiti nel tempo. Urban Planning Program: An Urban Planning monitoring module can monitor developments as a function of time. Construction, excavation, deforestation and other structural monitoring can be followed over time.

La figura 4 è un'illustrazione di un hardware esemplificativo 400 che può essere utilizzato per generare copie hard di immagini fuse derivate da informazioni rilevate a distanza, quali dati di immagine da satellite, in conformità con i principi della presente invenzione. L'hardware può definire i tipi di uscita disponibili per gli utilizzatori generati dalle immagini fuse. Tre componenti del-1'hardware possono essere utilizzati in conformità con i principi della presente invenzione, inclusi: 1. un mezzo ottico multi-varìante 402 che rappresenta una base ottica che permette al sistema di essere disaccoppiato dall'occhio di un osservatore. Due tipi di materiale possono essere utilizzati in generale. Un materiale è un materiale ad alta fedeltà, a basso angolo di attenuazione, utilizzato per presentazioni multi-dimensionali. Il secondo materiale è un materiale ad alta fedeltà, ad angolo elevato, utilizzato per sistemi fusi. I materiali possono essere adesivizzati sul retro per laminazione, o rivestiti per presentare recettività all’inchiostro. In un modo di realizzazione si può utilizzare un design di lente ad ampio angolo con 60 lenti per pollice, per la fusione temporale e la fusione EMS. Una lente ad angolo ampio da 100 lenti per pollice, con un angolo di attenuazione approssimativamente da 34 a 36 gradi può essere utilizzata per la presentazione dei dati "True View" (vista vera) . Entrambe tali lenti possono essere cilindriche. Tuttavìa altri design di lenti possono essere utilizzati, che realizzino la stessa od una equivalente funzionalità. Le variabili del sistema possono comprendere i dots per pollice (DPI) della stampante, il numero di frame visionati, lo spessore del materiale, l'indice di rifrazione della lente, l'angolo di attenuazione della lente, e la forma della lente. Questi parametri sono matematicamente correlati e noti agli esperti del settore. Una realizzazione che il materiale può includere può essere realizzata uno dei processi descritti nei brevetti US 5 362 351 o 6 060 003, i contenuti dei quali sono qui incorporati per riferimento nella loro interezza. Il termine alta fedeltà fa riferimento a materiali che presentano un angolo di attenuazione fra approssimativamente 32° ed approssimativamente 38°. Questo campo angolare è ben adatto per la presentazione di dati "True View" e fornisce immagini a fuoco nitide. Angoli di attenuazione più elevati tendono a distoreere i contorni degli oggetti e non sono altrettanto a fuoco. Un materiale ad angolo più ampio opera bene per immagini fuse in quanto l'incrocio (cross over) fra immagini tende ad essere più controllabile. Figure 4 is an illustration of exemplary hardware 400 that can be used to generate hard copies of fused images derived from remotely sensed information, such as satellite image data, in accordance with the principles of the present invention. The hardware can define the types of output available to users generated by the merged images. Three components of the hardware can be used in accordance with the principles of the present invention, including: 1. a multi-variant optical medium 402 which represents an optical base which allows the system to be decoupled from an observer's eye. Two types of material can be used in general. A material is a high-fidelity, low-angle attenuation material used for multi-dimensional presentations. The second material is a high-fidelity, high-angle material used for cast systems. The materials can be glued on the back for lamination, or coated to present receptivity to the ink. In one embodiment, a wide angle lens design with 60 lenses per inch can be used for temporal fusion and EMS fusion. A 100 lens-per-inch wide angle lens with an attenuation angle of approximately 34 to 36 degrees can be used for the presentation of "True View" data. Both of these lenses can be cylindrical. However, other lens designs may be used which provide the same or equivalent functionality. System variables can include printer dots per inch (DPI), number of frames viewed, material thickness, lens refractive index, lens attenuation angle, and lens shape. These parameters are mathematically related and known to those skilled in the art. An embodiment that the material may include may be embodied in one of the processes disclosed in US patents 5 362 351 or 6 060 003, the contents of which are incorporated herein by reference in their entirety. The term high fidelity refers to materials that exhibit an attenuation angle between approximately 32 ° and approximately 38 °. This angular field is well suited for presentation of "True View" data and provides sharp focused images. Higher attenuation angles tend to distort the edges of objects and are not as sharp. A wider angled material works well for fused images as the cross over between images tends to be more controllable.

2. Una stampante speciale può essere utilizzata per allineare otticamente il mezzo alla testa di stampa. La stampante può essere predisposta per utilizzare luce o ultrasuoni per rilevare il pattern della lente. Rilevando i picchi delle lenti e fornendo una retroazione alla testina di stampa, la stampante allinea e registra il materiale microottico. Questa registrazione consente di controllare il posizionamento dei dots così da massimizzare la fedeltà (cioè la nitidezza). Utilizzando luce e sensori, si rileva la spaziatura o passo delle lenti del mezzo e la sì fornisce in retroazione alla testa di stampa cosicché un'immagine rasterizzata viene allineata al mezzo. Speciali pattern di dots vengono utilizzati per conferire la più alta fedeltà all'immagine. La stampante può includere schiere progettate per immagini piane (X-Y). Altre schiere possono essere utilizzate in conformità con i principi della presente invenzione. 2. A special printer can be used to optically align the media to the print head. The printer can be set up to use light or ultrasound to detect the lens pattern. By detecting lens peaks and providing feedback to the printhead, the printer aligns and registers the micro-optical material. This registration allows you to control the positioning of the dots so as to maximize fidelity (i.e. sharpness). Using light and sensors, the lens spacing or pitch of the medium is detected and fed back to the print head so that a rasterized image is aligned to the medium. Special dot patterns are used to give the highest fidelity to the image. The printer may include arrays designed for flat (X-Y) images. Other arrays can be used in accordance with the principles of the present invention.

3. Con il sistema possono essere utilizzati inchiostri speciali. Tali inchiostri conferiscono alta fedeltà, bassa diffusione ed alta saturazione alla stampa. Gli inchiostri sono formulati in modo da operare bene con un rivestimento sul retro di un mezzo di stampa. Gli inchiostri sono inoltre durevoli e resistenti all'acqua. Svariati fattori possono essere implicati in un sistema di inchiostro per operare in conformità con i principi della presente invenzione. Come primo fattore, un rivestimento può essere applicato alla plastica anziché alla carta. Come secondo fattore, la stampa può essere effettuata sul retro della plastica, in modo tale che la luce viaggi attraverso la plastica e quindi torni indietro verso l'osservatore per vedere l'immagine. La stampa normale è sulla superficie e gli occhi ricevono direttamente la luce riflessa. In un modo di realizzazione un sistema totale di rivestimento viene stampato od altrimenti depositato sul retro del materiale miero-ottico cosicché l'inchiostro aderisca al rivestimento. Una plastica che presenta una bassa energia superficiale fa sì che ben poco inchiostro aderisca senza un trattamento o un rivestimento preliminare della superficie della plastica, e l'inchiostro dovrebbe presentare una pigmentazione più forte per superare due volte la trasmittanza attraverso il foglio della lente di plastica. La pigmentazione più forte può essere mantenuta con la minima dimensione possibile dei dots, che è equivalente alle dimensioni standard dei dots. 3. Special inks can be used with the system. These inks give high fidelity, low diffusion and high saturation to the print. The inks are formulated to work well with a coating on the back of a print medium. The inks are also durable and water resistant. Various factors may be involved in an ink system to operate in accordance with the principles of the present invention. As a first factor, a coating can be applied to plastic instead of paper. As a second factor, printing can be done on the back of the plastic, so that the light travels through the plastic and then returns back to the viewer to see the image. Normal print is on the surface and the eyes directly receive the reflected light. In one embodiment a total coating system is printed or otherwise deposited on the back of the myero-optical material so that the ink adheres to the coating. A plastic that has a low surface energy causes very little ink to adhere without pre-treatment or coating of the surface of the plastic, and the ink would have to have stronger pigmentation to overcome twice the transmittance through the plastic lens sheet. . The strongest pigmentation can be maintained with the smallest possible dot size, which is equivalent to the standard dot size.

La figura 5 è un diagramma di flusso di un processo esemplificativo 500 che descrive il funzionamento del sistema in conformità coi principi della presente invenzione. Il processo 500 rappresenta uno sviluppo di un modulo per un problema posto da un cliente. Come è mostrato, un cliente o responsabile di decisione pone un problema al passo 502. Dati rilevati a distanza 504 possono essere raccolti, ed esperti interni possono rivedere i dati al passo 506 per determinare come i dati possano essere meglio combinati per generare una matrice di bande disponibili per affrontare il problema posto, al passo 508. Uno schema di uscita può essere determinato per creare una presentazione di dati al passo 510. Al passo 512 può essere sviluppata una piattaforma digitale per dati (DDP) o una piattaforma di elaborazione digitale per la presentazione dei dati. Il cliente può vedere i dati da satellite combinati in una singola immagine dei dati rilevati a distanza o immagini multiple che mostrano differenti combinazioni dei dati rilevati a distanza per generare una documentazione di modulo di prova al passo 514 per assumere una decisione su come risolvere il problema posto, al passo 516. Figure 5 is a flowchart of an exemplary process 500 describing the operation of the system in accordance with the principles of the present invention. Process 500 represents a development of a module for a problem posed by a customer. As shown, a customer or decision maker poses a problem at step 502. Remote sensed data 504 can be collected, and internal experts can review the data at step 506 to determine how the data can best be combined to generate a matrix of available bands to address the problem posed at step 508. An output scheme can be determined to create a data presentation at step 510. At step 512 a digital data platform (DDP) or a digital processing platform can be developed for the presentation of the data. The customer can see the combined satellite data into a single image of the remotely sensed data or multiple images showing different combinations of the remotely sensed data to generate a test form documentation in step 514 to make a decision on how to solve the problem place, in step 516.

La figura 6 è un digramma di flusso di un altro processo esemplificativo 600 che descrive il funzionamento del sistema in conformità con i principi della presente invenzione. Al passo 602 possono essere raccolti dati rilevati a distanza. I dati rilevati a distanza possono includere dati visuali o non visuali nello spettro elettromagnetico. Al passo 604, un algoritmo può essere utilizzato per convertire i dati di immagine. Un tale algoritmo può essere reperito presso i siti web NASA o Goddard Space. Al passo 606 possono essere utilizzati algoritmi che decifrano 1<1>immagine che risulta dal passo 604. Tali algoritmi possono essere trovati sul sito web della Idaho Water Resources. Un algoritmo per rettificare l'immagine può essere attuato al passo 608. L'algoritmo può assicurare che ciascun set di dati rilevati a distanza sia allineato e presenti sostanzialmente la stessa rappresentazione ortogonale. L’algoritmo per rettificare l'immagine può essere trovato a www .microimages.com/getstart/pdf/rectify.pdf. Figure 6 is a flow chart of another exemplary process 600 describing the operation of the system in accordance with the principles of the present invention. At step 602, data detected remotely can be collected. Remote data can include visual or non-visual data in the electromagnetic spectrum. In step 604, an algorithm can be used to convert the image data. Such an algorithm can be found on the NASA or Goddard Space websites. In step 606 algorithms can be used that decrypt the 1 <1> image resulting from step 604. Such algorithms can be found on the Idaho Water Resources website. An algorithm for rectifying the image can be implemented in step 608. The algorithm can ensure that each set of remotely sensed data is aligned and has substantially the same orthogonal representation. The algorithm for rectifying the image can be found at www .microimages.com / getstart / pdf / rectify.pdf.

Al passo 610 può essere provvisto un sistema esperto che contiene algoritmi per la conversione di dati visuali. Come precedentemente descritto, il sistema esperto può essere creato sulla base di un problema posto da un cliente. Uno o più esperti sensori remoti possono fornire al sistema informazioni per convertire dati visuali. Al passo 612 un algoritmo di interfasamento può essere utilizzato per generare un'immagine fusa dei dati rilevati a distanza. L'algoritmo di interfasamento può essere ritrovato nei brevetti US 6781 707, 6894 904 e 7 019 865 che vengono qui incorporati per riferimento nella loro interezza. Al passo 614, algoritmi di stampante possono essere utilizzati per stampare l'immagine fusa. Gli algoritmi di stampante possono essere trovati nel brevetto US 6709 080 che è qui incorporato per riferimento nella sua interezza. A ciascuno dei passi mostrati, può essere attuato un algoritmo, il che si traduce nel fatto che i dati rilevati a distanza 602 vengono elaborati e stampati per consentire a un responsabile di decisione di essere in grado di visionare immagini multiple da combinare e stampare su un singolo foglio. Si deve intendere che il processo mostrato non è limitato, ma semplicemente espone un modo di realizzazione secondo i principi della presente invenzione. At step 610 an expert system may be provided which contains algorithms for converting visual data. As previously described, the expert system can be created based on a problem posed by a customer. One or more expert remote sensors can provide the system with information to convert visual data. At step 612 an interphase algorithm can be used to generate a fused image of the remotely detected data. The interfacing algorithm can be found in US patents 6781 707, 6894 904 and 7 019 865 which are incorporated herein by reference in their entirety. In step 614, printer algorithms can be used to print the fused image. The printer algorithms can be found in US 6709 080 which is incorporated herein by reference in its entirety. At each of the steps shown, an algorithm can be implemented, which results in the data detected remotely 602 being processed and printed to allow a decision maker to be able to view multiple images to combine and print on a single sheet. It is to be understood that the process shown is not limited, but merely sets out an embodiment according to the principles of the present invention.

La descrizione che precede è stata presentata a scopi di illustrazione e descrizione, e non intende essere esaustiva o limitata ai modi di realizzazione illustrativi nella forma presentata. Molte modifiche e variazioni risulteranno evidenti alle persone di ordinaria esperienza nel settore. The foregoing description has been presented for purposes of illustration and description, and is not intended to be exhaustive or limited to the illustrative embodiments in the presented form. Many changes and variations will be apparent to people of ordinary industry experience.

Claims (21)

RIVENDICAZIONI 1. Sistema per produrre immagini rilevate a distanza, detto sistema comprendendo: una piattaforma di unità di ingresso/uscita configurata per ricevere set multipli di informazioni rilevate a distanza; una piattaforma di elaborazione digitale configurata per eseguire uno o più algoritmi per elaborare i set di informazioni rilevate a distanza per generare una singola immagine includente almeno due set di informazioni rilevate a distanza elaborate; una stampante in comunicazione con detta piattaforma di elaborazione digitale e configurata per ricevere e stampare la singola immagine, in cui la sìngola immagine stampata è configurata per consentire a un osservatore di visionare individualmente ciascun set dell'informazione rilevata a distanza elaborata . CLAIMS 1. A system for producing remotely detected images, called a system comprising: an input / output unit platform configured to receive multiple sets of remotely sensed information; a digital processing platform configured to execute one or more algorithms for processing the remotely sensed information sets to generate a single image including at least two processed remotely sensed information sets; a printer in communication with said digital processing platform and configured to receive and print the single image, in which the single printed image is configured to allow an observer to individually view each set of the information detected at a processed distance. 2. Sistema secondo la rivendicazione 1, in cui detti almeno due set di informazioni rilevate a distanza elaborate sono di bande di lunghezze d'onda differenti . A system according to claim 1, wherein said at least two sets of processed remotely sensed information are of different wavelength bands. 3. Sistema secondo la rivendicazione 1, in cui i set di dati sono catturati nel tempo. System according to claim 1, wherein the data sets are captured over time. 4. Sistema secondo la rivendicazione 1, in cui i dati rilevati a distanza includono insiemi di dati visuali da differenti bande iperspettrali di uno spettro elettromagnetico. A system according to claim 1, wherein the remotely sensed data includes sets of visual data from different hyperspectral bands of an electromagnetic spectrum. 5. Sistema secondo la rivendicazione 1 , in cui l'immagine è un'immagine multidimensionale. System according to claim 1, wherein the image is a multidimensional image. 6. Sistema secondo la rivendicazione 1, in cui la stampante è configurata per stampare la singola immagine su un materiale che è rivestito per ricettività all<1>inchiostro. A system according to claim 1, wherein the printer is configured to print the single image on a material that is coated for ink receptivity. 7. Sistema secondo la rivendicazione 1, comprendente inoltre una schiera di microlenti disposta di fronte all'immagine singola stampata in modo tale che un osservatore osserva attraverso la schiera di microlenti per vedere ciascun set delle informazioni rilevate a distanza elaborate nella singola immagine . A system according to claim 1, further comprising an array of micro-lenses arranged in front of the printed single image such that an observer looks through the array of micro-lenses to see each set of the remotely sensed information processed in the single image. 8. Sistema secondo la rivendicazione 7, in cui la schiera di lenti comprende fra 60 e 100 lenti per pollice . The system according to claim 7, wherein the array of lenses comprises between 60 and 100 lenses per inch. 9. Sistema secondo la rivendicazione 7, in cui la schiera di lenti ha un angolo di attenuazione da approssimativamente 34° ad approssimativamente 36°. The system of claim 7 wherein the array of lenses has an attenuation angle of approximately 34 ° to approximately 36 °. 10. Sistema secondo la rivendicazione 1, in cui detta piattaforma di elaborazione digitale consente a un utilizzatore di selezionare da una pluralità di banda di lunghezze d'onda selezionabili, opzioni per stampare selettivamente informazioni rilevate a distanza su rispettive bande di lunghezze d'onda selezionate . System according to claim 1, wherein said digital processing platform allows a user to select from a plurality of selectable wavelength bands, options for selectively printing remotely sensed information on respective selected wavelength bands . 11. Metodo per generare informazioni visuali da informazioni rilevate a distanza, il metodo comprendendo le operazioni di: raccogliere una prima immagine rilevata a distanza; raccogliere una seconda immagine rilevata a distanza; elaborare la prima e la seconda immagine per orientare le immagini sostanzialmente nello stesso orientamento ; stampare la prima e la seconda immagine rilevata a distanza su un singolo materiale; e configurare il singolo materiale in modo tale da consentire a un osservatore di vedere ciascuna immagine rilevata a distanza a un angolo differente quando si osserva il materiale. 11. Method for generating visual information from remotely detected information, the method comprising the operations of: collect a first image detected at a distance; collect a second image detected at a distance; processing the first and second images to orient the images in substantially the same orientation; print the first and second remotely detected images on a single material; And configure the individual material to allow an observer to see each image detected from a distance at a different angle when looking at the material. 12. Procedimento secondo la rivendicazione 11, in cui la raccolta della prima immagine include la raccolta di un'immagine su uno spettro visuale, e la raccolta della seconda immagine include la raccolta di un'immagine su uno spettro non visuale. The method of claim 11, wherein the collection of the first image includes the collection of an image on a visual spectrum, and the collection of the second image includes the collection of an image on a non-visual spectrum. 13. Metodo secondo la rivendicazione 11, in cui la raccolta della prima immagine include la raccolta di un'immagine su una prima banda di lunghezze d'onda e la raccolta della seconda immagine include la raccolta di un'immagine su una seconda banda dì lunghezze d'onda di uno spettro elettromagnetico. The method according to claim 11, wherein the collection of the first image includes the collection of an image on a first wavelength band and the collection of the second image includes the collection of an image on a second wavelength band waveform of an electromagnetic spectrum. 14. Metodo secondo la rivendicazione 13, in cui la configurazione del singolo materiale include l'applicazione della schiera di lenti micro-ottiche al singolo materiale. The method according to claim 13, wherein the configuration of the single material includes applying the array of micro-optical lenses to the single material. 15. Metodo secondo la rivendicazione 11, in cui il singolo materiale è una schiera di lenti microottiche . A method according to claim 11, wherein the single material is a microoptical lens array. 16. Procedimento secondo la rivendicazione, il, comprendente inoltre le operazioni di: raccogliere almeno una terza immagine; elaborare la terza immagine in modo da orientare la terza immagine sostanzialmente nello stesso orientamento della prima e della seconda immagine; e in cui la stampa include la stampa della terza immagine sullo stesso materiale della prima e della seconda immagine. 16. Process according to claim 11, further comprising the operations of: collect at least a third image; processing the third image so as to orient the third image substantially in the same orientation as the first and second images; And where the printing includes printing the third image on the same material as the first and second images. 17. Metodo secondo la rivendicazione 16, comprendente inoltre le operazioni di: creare una matrice di banda di campi di lunghezze d'onda su cui vengono raccolte le immagini rilevate a distanza; e selezionare almeno due delle bande entro la matrice di banda associata alle immagini rilevate a distanza da elaborare e stampare. Method according to claim 16, further comprising the operations of: create a band matrix of wavelength fields on which the images detected at a distance are collected; And select at least two of the bands within the band matrix associated with the remotely detected images to be processed and printed. 18. Metodo secondo la rivendicazione il, in cui la configurazione del materiale singolo include l'applicazione del materiale singolo su un primo lato di una schiera di lenti micro-ottiche in modo tale che un osservatore della prima e della seconda immagine osserva attraverso la schiera di lenti micro-ottiche tramite un secondo lato includente lenti micro-ottiche. The method according to claim 11, wherein the configuration of the single material includes applying the single material to a first side of an array of micro-optical lenses such that an observer of the first and second images observes through the array of micro-optical lenses via a second side including micro-optical lenses. 19. Metodo secondo la rivendicazione 11, in cui la raccolta della prima e della seconda immagine rilevate a distanza include la raccolta di immagini tridimensionali . A method according to claim 11, wherein the collection of the first and second remotely sensed images includes the collection of three-dimensional images. 20. Metodo secondo la rivendicazione 11, in cui la raccolta della prima e della seconda immagine rilevate a distanza include la raccolta di immagini che sono della stessa locazione e fuse a tempi differenti. A method according to claim 11, wherein the collection of the first and second remotely sensed images includes the collection of images that are of the same location and merged at different times. 21. Metodo secondo la rivendicazione 11, in cui la raccolta delle immagini rilevate a distanza include la raccolta di almeno un'immagine includente un'immagine focalizzata su una porzione di suolo.A method according to claim 11, wherein the collection of the remotely detected images includes the collection of at least one image including an image focused on a portion of the ground.
IT000620A 2007-08-31 2007-08-31 SYSTEM AND METHOD FOR PRESENTING VISUAL DATA DETACHED IN MULTI-SPECTRAL IMAGES, MERGER, AND THREE SPACE DIMENSIONS. ITTO20070620A1 (en)

Priority Applications (9)

Application Number Priority Date Filing Date Title
IT000620A ITTO20070620A1 (en) 2007-08-31 2007-08-31 SYSTEM AND METHOD FOR PRESENTING VISUAL DATA DETACHED IN MULTI-SPECTRAL IMAGES, MERGER, AND THREE SPACE DIMENSIONS.
EP08795553.0A EP2193449B1 (en) 2007-08-31 2008-08-25 System and method for presenting remotely sensed visual data in multi-spectral, fusion, and three-spatial dimenson images
CN2008801134491A CN101971167A (en) 2007-08-31 2008-08-25 System and method for presenting remotely sensed visual data in multi-spectral, fusion, and three-spatial dimenson images
EP16191965.9A EP3159848A1 (en) 2007-08-31 2008-08-25 System and method for presenting remotely sensed visual data in multi-spectral, fusion, and three-spatial dimension images
US12/675,920 US20110037997A1 (en) 2007-08-31 2008-08-25 System and method of presenting remotely sensed visual data in multi-spectral, fusion, and three-spatial dimension images
CA2698090A CA2698090A1 (en) 2007-08-31 2008-08-25 System and method for presenting remotely sensed visual data in multi-spectral, fusion, and three-spatial dimenson images
PCT/US2008/010036 WO2009032088A1 (en) 2007-08-31 2008-08-25 System and method for presenting remotely sensed visual data in multi-spectral, fusion, and three-spatial dimenson images
ES08795553.0T ES2610502T3 (en) 2007-08-31 2008-08-25 System and method for presenting remote sensing visual data in multispectral, fused and spatial three-dimensional images
TW097133339A TWI460399B (en) 2007-08-31 2008-08-29 System for producing remote sensed images and method for generating visual information from remotely sensed information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT000620A ITTO20070620A1 (en) 2007-08-31 2007-08-31 SYSTEM AND METHOD FOR PRESENTING VISUAL DATA DETACHED IN MULTI-SPECTRAL IMAGES, MERGER, AND THREE SPACE DIMENSIONS.

Publications (1)

Publication Number Publication Date
ITTO20070620A1 true ITTO20070620A1 (en) 2009-03-01

Family

ID=40299947

Family Applications (1)

Application Number Title Priority Date Filing Date
IT000620A ITTO20070620A1 (en) 2007-08-31 2007-08-31 SYSTEM AND METHOD FOR PRESENTING VISUAL DATA DETACHED IN MULTI-SPECTRAL IMAGES, MERGER, AND THREE SPACE DIMENSIONS.

Country Status (8)

Country Link
US (1) US20110037997A1 (en)
EP (2) EP3159848A1 (en)
CN (1) CN101971167A (en)
CA (1) CA2698090A1 (en)
ES (1) ES2610502T3 (en)
IT (1) ITTO20070620A1 (en)
TW (1) TWI460399B (en)
WO (1) WO2009032088A1 (en)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8456742B2 (en) * 2008-09-30 2013-06-04 Konica Minolta Opto, Inc. Optical component manufacturing method, and lens, lens unit and camera module
CN102779353B (en) * 2012-05-31 2014-08-20 哈尔滨工程大学 High-spectrum color visualization method with distance maintaining property
CN102903114A (en) * 2012-10-09 2013-01-30 河海大学 Hyperspectral remotely-sensed data dimensionality reduction method based on improved hierarchical clustering
US10033990B2 (en) 2015-01-30 2018-07-24 Jerry Nims Digital multi-dimensional image photon platform system and methods of use
US9992473B2 (en) 2015-01-30 2018-06-05 Jerry Nims Digital multi-dimensional image photon platform system and methods of use
EP3489889B1 (en) * 2016-07-25 2023-09-20 Nec Corporation Information processing device, information processing method, and recording medium
US10621406B2 (en) 2017-09-15 2020-04-14 Key Technology, Inc. Method of sorting
US10951875B2 (en) * 2018-07-03 2021-03-16 Raxium, Inc. Display processing circuitry
US10685230B2 (en) * 2018-09-06 2020-06-16 National Central University Method of top-of-atmosphere reflectance-based spatiotemporal image fusion using aerosol optical depth
CN109542062A (en) * 2018-11-20 2019-03-29 四川省宇行规划设计有限公司 Resource environment dynamic digital monitor control system and method, information data processing terminal
US11917119B2 (en) 2020-01-09 2024-02-27 Jerry Nims 2D image capture system and display of 3D digital image
RU2764838C1 (en) * 2021-03-24 2022-01-21 Федеральное государственное бюджетное образовательное учреждение высшего образования "Рязанский государственный радиотехнический университет имени В.Ф. Уткина" Method for combining images from matrix photodetectors of various spectral ranges
CN113376612B (en) * 2021-08-12 2021-11-23 成都众享天地网络科技有限公司 Radar clutter generation method based on terrain matrixing and detection

Family Cites Families (62)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4101210A (en) * 1976-06-21 1978-07-18 Dimensional Development Corporation Projection apparatus for stereoscopic pictures
US4124291A (en) 1976-12-03 1978-11-07 Dimensional Development Corp. Control of depth of field in three dimensional photography
US4086585A (en) 1976-12-27 1978-04-25 Dimensional Development Corporation System and camera for controlling depth of field in three-dimensional photography
JPH0786914B2 (en) * 1986-11-07 1995-09-20 株式会社日立製作所 Change detection method using images
US5512922A (en) * 1989-10-10 1996-04-30 Xaar Limited Method of multi-tone printing
US5323317A (en) * 1991-03-05 1994-06-21 Hampton Terry L Method and apparatus for determining runoff using remote geographic sensing
WO1993013929A1 (en) 1992-01-15 1993-07-22 Karszes William M Method of making lenticular plastics and products therefrom
US5329595A (en) * 1992-06-05 1994-07-12 Trw Inc. System and method for analyzing optical spectral data of a terrain image
US5498444A (en) * 1994-02-28 1996-03-12 Microfab Technologies, Inc. Method for producing micro-optical components
WO1996009154A1 (en) 1994-09-23 1996-03-28 Karszes William M Method of making lenticular plastics
US5600402A (en) * 1995-05-04 1997-02-04 Kainen; Daniel B. Method and apparatus for producing three-dimensional graphic images using a lenticular sheet
US7215451B1 (en) * 1996-04-15 2007-05-08 Dai Nippon Printing Co., Ltd. Reflection type diffuse hologram, hologram for reflection hologram color filters, etc., and reflection type display device using such holograms
US6046848A (en) * 1996-12-20 2000-04-04 Eastman Kodak Company Integral image display
US5828495A (en) * 1997-07-31 1998-10-27 Eastman Kodak Company Lenticular image displays with extended depth
US5867322A (en) * 1997-08-12 1999-02-02 Eastman Kodak Company Remote approval of lenticular images
US6016225A (en) * 1997-11-07 2000-01-18 Vision International Production, Inc. Data card with lenticular optical display
US6211896B1 (en) * 1998-12-16 2001-04-03 Eastman Kodak Company Method for producing lenticular images
US6366681B1 (en) * 1999-04-07 2002-04-02 Space Imaging, Lp Analysis of multi-spectral data for extraction of chlorophyll content
WO2000077558A1 (en) * 1999-06-15 2000-12-21 Dimensional Media Associates, Inc. Lenticular imaging system, method, and apparatus
US7223364B1 (en) * 1999-07-07 2007-05-29 3M Innovative Properties Company Detection article having fluid control film
US7058197B1 (en) * 1999-11-04 2006-06-06 Board Of Trustees Of The University Of Illinois Multi-variable model for identifying crop response zones in a field
WO2001082593A1 (en) * 2000-04-24 2001-11-01 The Government Of The United States Of America, As Represented By The Secretary Of The Navy Apparatus and method for color image fusion
US6760021B1 (en) * 2000-07-13 2004-07-06 Orasee Corp. Multi-dimensional image system for digital image input and output
US6709080B2 (en) * 2000-12-08 2004-03-23 Orasee Corp. Method and apparatus for direct printing on a lenticular foil
US20020121336A1 (en) * 2000-12-22 2002-09-05 Karszes William M. System and method for multidimensional imagery
US20020085207A1 (en) * 2000-12-27 2002-07-04 Hait John N. Hyper-resolution, topographic, holographic imaging apparatus and method
AU2002248400A1 (en) * 2001-02-06 2002-08-19 Orasee Corp. Method for scaling and interlacing multidimensional and motion images
US6816627B2 (en) * 2001-04-12 2004-11-09 Lockheed Martin Corporation System for morphological image fusion and change detection
WO2003001437A1 (en) * 2001-06-21 2003-01-03 Orasee Corp. System of processing and printing multidimensional and motion images from medical data sets
US7088396B2 (en) * 2001-12-21 2006-08-08 Eastman Kodak Company System and camera for creating lenticular output from digital images
US6894809B2 (en) * 2002-03-01 2005-05-17 Orasee Corp. Multiple angle display produced from remote optical sensing devices
US6781707B2 (en) 2002-03-22 2004-08-24 Orasee Corp. Multi-spectral display
KR100488685B1 (en) * 2002-08-22 2005-05-11 한국과학기술원 Image Processing Method for Automatic Image Registration and Correction
US6898331B2 (en) * 2002-08-28 2005-05-24 Bae Systems Aircraft Controls, Inc. Image fusion system and method
WO2004021151A2 (en) * 2002-08-30 2004-03-11 Orasee Corp. Multi-dimensional image system for digital image input and output
TW559959B (en) 2002-09-03 2003-11-01 Via Tech Inc TAB package and method for fabricating the same
WO2004027492A1 (en) * 2002-09-19 2004-04-01 Mitsubishi Denki Kabushiki Kaisha Display unit and electronic apparatus equipped with display unit
US7283664B2 (en) * 2002-09-25 2007-10-16 Southwest Research Institute Interactive computer aided analysis of images from sensor combinations
GB0227887D0 (en) * 2002-11-29 2003-01-08 Mirada Solutions Ltd Improvements in or relating to image registration
US7340099B2 (en) * 2003-01-17 2008-03-04 University Of New Brunswick System and method for image fusion
US6909815B2 (en) * 2003-01-31 2005-06-21 Spectral Sciences, Inc. Method for performing automated in-scene based atmospheric compensation for multi-and hyperspectral imaging sensors in the solar reflective spectral region
US20050111756A1 (en) * 2003-11-25 2005-05-26 Turner Robert W. System and method for generating coherent data sets of images from various sources
US7620265B1 (en) * 2004-04-12 2009-11-17 Equinox Corporation Color invariant image fusion of visible and thermal infrared video
US7564019B2 (en) * 2005-08-25 2009-07-21 Richard Ian Olsen Large dynamic range cameras
TWI250445B (en) * 2004-10-15 2006-03-01 Kwang-Chu Yang Continuous laser printer with adjustable printing speed
US7450761B2 (en) * 2004-11-02 2008-11-11 The Boeing Company Spectral geographic information system
WO2006113583A2 (en) * 2005-04-15 2006-10-26 Mississippi State University Remote sensing imagery accuracy analysis method and apparatus
US7491944B1 (en) * 2005-07-14 2009-02-17 Sandia Corporation Method to analyze remotely sensed spectral data
US8189877B2 (en) * 2005-10-21 2012-05-29 Carnegie Institution Of Washington Remote sensing analysis of forest disturbances
US20070111171A1 (en) * 2005-10-27 2007-05-17 Mary Kane Lenticular teaching and greeting card apparatus
JP4723387B2 (en) * 2006-01-18 2011-07-13 富士フイルム株式会社 Inkjet drawing method and apparatus
US8224018B2 (en) * 2006-01-23 2012-07-17 Digimarc Corporation Sensing data from physical objects
US7613360B2 (en) * 2006-02-01 2009-11-03 Honeywell International Inc Multi-spectral fusion for video surveillance
US7805020B2 (en) * 2006-07-25 2010-09-28 Itt Manufacturing Enterprises, Inc. Motion compensated image registration for overlaid/fused video
US8538195B2 (en) * 2007-09-17 2013-09-17 Raytheon Company Hyperspectral image dimension reduction system and method
KR100944462B1 (en) * 2008-03-07 2010-03-03 한국항공우주연구원 Satellite image fusion method and system
US9117133B2 (en) * 2008-06-18 2015-08-25 Spectral Image, Inc. Systems and methods for hyperspectral imaging
CN101394487B (en) * 2008-10-27 2011-09-14 华为技术有限公司 Image synthesizing method and system
US8136938B2 (en) * 2009-05-19 2012-03-20 William Karszes System and method for printing on lenticular sheets
GB0914982D0 (en) * 2009-08-27 2009-09-30 Univ East Anglia Methods and apparatus for generating accented image data
US8503761B2 (en) * 2009-11-12 2013-08-06 Harris Corporation Geospatial modeling system for classifying building and vegetation in a DSM and related methods
US8559719B2 (en) * 2010-03-12 2013-10-15 The United States Of America, As Represented By The Secretary Of The Navy Spectral anomaly detection in deep shadows

Also Published As

Publication number Publication date
CN101971167A (en) 2011-02-09
CA2698090A1 (en) 2009-03-12
EP2193449B1 (en) 2016-10-12
EP2193449A1 (en) 2010-06-09
WO2009032088A1 (en) 2009-03-12
TWI460399B (en) 2014-11-11
TW200921045A (en) 2009-05-16
US20110037997A1 (en) 2011-02-17
EP2193449A4 (en) 2012-08-29
EP3159848A1 (en) 2017-04-26
ES2610502T3 (en) 2017-04-27

Similar Documents

Publication Publication Date Title
ITTO20070620A1 (en) SYSTEM AND METHOD FOR PRESENTING VISUAL DATA DETACHED IN MULTI-SPECTRAL IMAGES, MERGER, AND THREE SPACE DIMENSIONS.
Woodget et al. Drones and digital photogrammetry: from classifications to continuums for monitoring river habitat and hydromorphology
DeBell et al. Water resource management at catchment scales using lightweight UAVs: Current capabilities and future perspectives
Purkis et al. Remote sensing and global environmental change
US6894809B2 (en) Multiple angle display produced from remote optical sensing devices
CN109255843A (en) Three-dimensional rebuilding method, device and augmented reality AR equipment
JP2011100426A (en) Image processing device and method
US6781707B2 (en) Multi-spectral display
Zietara Creating Digital Elevation Model (DEM) based on ground points extracted from classified aerial images obtained from Unmanned Aerial Vehicle (UAV)
CN102609983A (en) Reconstruction method of lightning three-dimensional images based on images and stereoscopic vision
Dalla Mura et al. Challenges and opportunities of multimodality and data fusion in remote sensing
Harding et al. TouchTerrain—3D printable terrain models
Zhang Ten years of technology advancement in remote sensing and the research in the CRC-AGIP lab in GCE
Aber et al. The challenges of processing kite aerial photography imagery with modern photogrammetry techniques
Das Land use/Land cover change detection: An object oriented approach, Münster, Germany
Congalton et al. Unmanned Aerial Systems (UAS) and Thematic Map Accuracy Assessment
Buchroithner et al. Generating a true-3D image map of high relief terrain using lenticular foil
Forster Satellite remote sensing for land information in developing countries
Tabrizian Integrating Geospatial Computation, Virtual Reality and Tangible Interaction to Improve Landscape Design and Research
Renaud et al. Evaluation of Unmanned Aircraft Systems for flood risk management: results of terrain and structure assessments
Hossain et al. Introduction to remote sensing
Pertusa et al. Pattern Recognition and Image Analysis: 11th Iberian Conference, IbPRIA 2023, Alicante, Spain, June 27–30, 2023, Proceedings
Atilola Mapping with SPOT satellite imagery: the Nigerian experience
Ye Comparison between high-resolution aerial imagery and lidar data classification of canopy and grass in the NESCO neighborhood, Indianapolis, Indiana
Zhang The Frequent Image Frames Enhanced Digital Ortho-Rectified Mapping (FIFEDOM) camera: calibration and application to retrieve vegetation structure parameters.