ITTO20070620A1 - SYSTEM AND METHOD FOR PRESENTING VISUAL DATA DETACHED IN MULTI-SPECTRAL IMAGES, MERGER, AND THREE SPACE DIMENSIONS. - Google Patents
SYSTEM AND METHOD FOR PRESENTING VISUAL DATA DETACHED IN MULTI-SPECTRAL IMAGES, MERGER, AND THREE SPACE DIMENSIONS. Download PDFInfo
- Publication number
- ITTO20070620A1 ITTO20070620A1 IT000620A ITTO20070620A ITTO20070620A1 IT TO20070620 A1 ITTO20070620 A1 IT TO20070620A1 IT 000620 A IT000620 A IT 000620A IT TO20070620 A ITTO20070620 A IT TO20070620A IT TO20070620 A1 ITTO20070620 A1 IT TO20070620A1
- Authority
- IT
- Italy
- Prior art keywords
- image
- images
- collection
- information
- data
- Prior art date
Links
- 230000000007 visual effect Effects 0.000 title claims description 30
- 238000000034 method Methods 0.000 title claims description 25
- 239000000463 material Substances 0.000 claims description 33
- 239000011159 matrix material Substances 0.000 claims description 19
- 238000012545 processing Methods 0.000 claims description 17
- 238000001228 spectrum Methods 0.000 claims description 17
- 238000007639 printing Methods 0.000 claims description 5
- 238000004891 communication Methods 0.000 claims description 4
- 230000004927 fusion Effects 0.000 description 13
- 239000000976 ink Substances 0.000 description 11
- 230000003595 spectral effect Effects 0.000 description 10
- XLYOFNOQVPJJNP-UHFFFAOYSA-N water Substances O XLYOFNOQVPJJNP-UHFFFAOYSA-N 0.000 description 7
- 238000005516 engineering process Methods 0.000 description 6
- 230000033001 locomotion Effects 0.000 description 6
- 239000011248 coating agent Substances 0.000 description 5
- 238000000576 coating method Methods 0.000 description 5
- 230000006870 function Effects 0.000 description 5
- 230000010365 information processing Effects 0.000 description 4
- 238000012544 monitoring process Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 238000013461 design Methods 0.000 description 3
- 238000012800 visualization Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000003491 array Methods 0.000 description 2
- 238000010276 construction Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 2
- 230000018109 developmental process Effects 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000016507 interphase Effects 0.000 description 2
- 230000019612 pigmentation Effects 0.000 description 2
- 238000012552 review Methods 0.000 description 2
- 230000009897 systematic effect Effects 0.000 description 2
- 230000002123 temporal effect Effects 0.000 description 2
- 238000002604 ultrasonography Methods 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 1
- 238000009412 basement excavation Methods 0.000 description 1
- 230000033228 biological regulation Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 238000004364 calculation method Methods 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 238000011109 contamination Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 238000009792 diffusion process Methods 0.000 description 1
- 230000005611 electricity Effects 0.000 description 1
- 239000003344 environmental pollutant Substances 0.000 description 1
- 230000003628 erosive effect Effects 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 230000012010 growth Effects 0.000 description 1
- 238000003384 imaging method Methods 0.000 description 1
- 238000002329 infrared spectrum Methods 0.000 description 1
- 230000002262 irrigation Effects 0.000 description 1
- 238000003973 irrigation Methods 0.000 description 1
- 238000003475 lamination Methods 0.000 description 1
- 238000013507 mapping Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 238000002844 melting Methods 0.000 description 1
- 230000008018 melting Effects 0.000 description 1
- 238000005065 mining Methods 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 239000003208 petroleum Substances 0.000 description 1
- 231100000719 pollutant Toxicity 0.000 description 1
- 238000002203 pretreatment Methods 0.000 description 1
- 230000002035 prolonged effect Effects 0.000 description 1
- 238000000926 separation method Methods 0.000 description 1
- 239000002689 soil Substances 0.000 description 1
- 238000012360 testing method Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
- 238000002834 transmittance Methods 0.000 description 1
- 238000001429 visible spectrum Methods 0.000 description 1
- 239000002351 wastewater Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/12—Digital output to print unit, e.g. line printer, chain printer
- G06F3/1201—Dedicated interfaces to print systems
- G06F3/1278—Dedicated interfaces to print systems specifically adapted to adopt a particular infrastructure
- G06F3/1285—Remote printer device, e.g. being remote from client or server
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B44—DECORATIVE ARTS
- B44F—SPECIAL DESIGNS OR PICTURES
- B44F1/00—Designs or pictures characterised by special or unusual light effects
- B44F1/08—Designs or pictures characterised by special or unusual light effects characterised by colour effects
- B44F1/10—Changing, amusing, or secret pictures
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/12—Digital output to print unit, e.g. line printer, chain printer
- G06F3/1201—Dedicated interfaces to print systems
- G06F3/1202—Dedicated interfaces to print systems specifically adapted to achieve a particular effect
- G06F3/1203—Improving or facilitating administration, e.g. print management
- G06F3/1208—Improving or facilitating administration, e.g. print management resulting in improved quality of the output result, e.g. print layout, colours, workflows, print preview
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/12—Digital output to print unit, e.g. line printer, chain printer
- G06F3/1201—Dedicated interfaces to print systems
- G06F3/1223—Dedicated interfaces to print systems specifically adapted to use a particular technique
- G06F3/1237—Print job management
- G06F3/125—Page layout or assigning input pages onto output media, e.g. imposition
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/30—Determination of transform parameters for the alignment of images, i.e. image registration
-
- B42D2035/20—
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B42—BOOKBINDING; ALBUMS; FILES; SPECIAL PRINTED MATTER
- B42D—BOOKS; BOOK COVERS; LOOSE LEAVES; PRINTED MATTER CHARACTERISED BY IDENTIFICATION OR SECURITY FEATURES; PRINTED MATTER OF SPECIAL FORMAT OR STYLE NOT OTHERWISE PROVIDED FOR; DEVICES FOR USE THEREWITH AND NOT OTHERWISE PROVIDED FOR; MOVABLE-STRIP WRITING OR READING APPARATUS
- B42D25/00—Information-bearing cards or sheet-like structures characterised by identification or security features; Manufacture thereof
- B42D25/30—Identification or security features, e.g. for preventing forgery
- B42D25/324—Reliefs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/12—Digital output to print unit, e.g. line printer, chain printer
- G06F3/1201—Dedicated interfaces to print systems
- G06F3/1223—Dedicated interfaces to print systems specifically adapted to use a particular technique
- G06F3/1237—Print job management
- G06F3/1244—Job translation or job parsing, e.g. page banding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/24—Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10032—Satellite or aerial image; Remote sensing
- G06T2207/10036—Multispectral image; Hyperspectral image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20092—Interactive image processing based on input by user
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20212—Image combination
- G06T2207/20221—Image fusion; Image merging
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30181—Earth observation
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Quality & Reliability (AREA)
- Image Processing (AREA)
- Investigating Materials By The Use Of Optical Means Adapted For Particular Applications (AREA)
Description
DESCRIZIONE dell'invenzione industriale dal titolo: "Sistema e metodo per presentare dati visuali rilevati a distanza in immagini multi-spettrali, di fusione, ed a tre dimensioni spaziali" DESCRIPTION of the industrial invention entitled: "System and method for presenting remotely detected visual data in multi-spectral, fusion, and three-dimensional spatial images"
DESCRIZIONE DESCRIPTION
Immagini da satelliti e da altri sensori remoti ("sensori remoti") sono utilizzati nella presa di decisioni in una varietà di applicazioni e settori comprendenti: agricoltura, cartografia, conservazione, pianificazione in caso di disastri, educazione, elettricità/gas, ambientale, geologia, servizi sanitari ed umana, applicazione della legge, governo locale, minerario, militare, risorse naturali, oceani/mari, petrolio, condutture, pianificazione, sicurezza pubblica, telecomunicazioni, turismo, trasporti, acque/acque reflue, e meteorologia. Le applicazioni possono variare dalla mappatura di terreni in modelli dimensionali per seguire la crescita di raccolti agricoli. Man mano che tali applicazioni sì espandono, sempre più si sviluppano algoritmi e proliferano software per manipolare i dati. Inoltre, sempre più dati spettrali vengono usati in forma combinata secondo una matrice, fornendo così conoscenza, piuttosto che informazione, per risolvere questioni poste dai responsabili delle decisioni civili e militari. I responsabili delle decisioni devono avere l'informazione compilata e presentata in modo chiaro e conciso. Le informazioni di sensori remoti, comprendenti immagini satellitari, immagini aeree, immagini da palloni, o qualunque altra immagine spettrale o non spettrale rilevata a distanza (ad es. immagini infrarosse) sono oggi incomplete, laddove l'informazione di sensori remoti rappresenta uno spazio piatto ed un territorio piatto, o immagini stereografiche che richiedono per la visione occhiali stereoscopici. In entrambi ì casi, è necessario che un "esperto" dia la sua opinione circa il contenuto dell<1>informazione dei sensori remoti. A causa dei limiti delle informazioni dì sensori remoti, i responsabili delle decisioni non hanno l'informazione visuale completa per prendere personalmente una decisione informata. Il colpo d'occhio, per molti responsabili delle decisioni, è la differenza fra successo e fallimento . Images from satellites and other remote sensors ("remote sensors") are used in decision making in a variety of applications and industries including: agriculture, cartography, conservation, disaster planning, education, electricity / gas, environmental, geology , health and human services, law enforcement, local government, mining, military, natural resources, oceans / seas, petroleum, pipelines, planning, public safety, telecommunications, tourism, transportation, water / wastewater, and meteorology. Applications can range from mapping land into dimensional models to following the growth of agricultural crops. As such applications expand, more and more algorithms are developed and software to manipulate data proliferates. In addition, more and more spectral data is being used in a combined form according to a matrix, thus providing knowledge, rather than information, to resolve issues posed by civilian and military decision makers. Decision makers must have the information compiled and presented in a clear and concise manner. Remote sensor information, including satellite images, aerial images, balloon images, or any other spectral or non-spectral image detected at a distance (e.g. infrared images) is now incomplete, whereas remote sensor information represents a flat space and a flat territory, or stereographic images that require stereoscopic glasses for viewing. In both cases, it is necessary for an "expert" to give his opinion about the information content of the remote sensors. Due to the limitations of remote sensor information, decision makers do not have the complete visual information to make an informed decision for themselves. The glance, for many decision makers, is the difference between success and failure.
Per superare il problema dei responsabili delle decisioni che non hanno un'informazione visuale completa dall'informazione dei sensori remoti per prendere personalmente una decisione informata, i principi della presente invenzione prevedono un sistema e un metodo che produce immagini chiare e concise risultanti da informazioni di sensori remoti multipli che danno al responsabile delle decisioni un'informazione visuale integrale che può essere rapidamente e prontamente compresa. Le immagini prodotte dal sistema possono essere (i) immagini spazialmente fuse (ad es. immagini tridimensionali), (ii) immagini fuse temporalmente (ad es. sequenza temporale di immagini), e (iii) immagini spettralmente fuse (ad es. immagini ottenute a differenti bande dello spettro elettromagnetico). Le immagini sono considerate<11>immagini fuse". To overcome the problem of decision makers who do not have complete visual information from remote sensor information to make an informed decision for themselves, the principles of the present invention provide a system and method that produces clear and concise images resulting from information of multiple remote sensors that give the decision maker full visual information that can be quickly and readily understood. The images produced by the system can be (i) spatially fused images (e.g. three-dimensional images), (ii) temporally fused images (e.g. timeline of images), and (iii) spectrally fused images (e.g. images obtained at different bands of the electromagnetic spectrum). Images are considered to be <11> merged images ".
Per generare le immagini fuse, il sistema può combinare algoritmi di elaboratore con tecnologia ottica, di scienza dei materiali, di sensoristica remota (ad es. tecnologia satellitare), tecnologia di stampa, e conoscenza avanzata dell'interpretazione di differenti dati di spettro elettromagnetico. Un'immagine fusa ottenuta dal sistema può risolvere molte delle questioni principali di oggi poste ad esperti di satelliti, consentendo così ad esperti di sensoristica non remota di comprendere meglio l'immagine senza l'assistenza di un esperto di sensoristica remota. Le immagini fuse sono formattate in modo che un responsabile delle decisioni possa osservare 1'informazione di sensori remoti nell'immagine fusa e prendere una decisione intelligente senza affidarsi alle pagine e pagine di rapporti di esperti, come sì fa comunemente oggi. Essenzialmente, i rapporti degli esperti sono incorporati nell'immagine fusa come informazione visuale. Oggetti, elementi, ecc. catturati in immagini di sensori remoti, possono avere tre dimensioni spaziali per permettere ad esperti di sensoristica non remota di comprendere più prontamente l'informazione contenuta nelle immagini. To generate the fused images, the system can combine computer algorithms with optical technology, materials science, remote sensor technology (eg satellite technology), printing technology, and advanced knowledge of the interpretation of different electromagnetic spectrum data. A fused image obtained from the system can solve many of today's major questions posed to satellite experts, thus enabling non-remote sensor experts to better understand the image without the assistance of a remote sensor expert. The merged images are formatted so that a decision maker can observe the remote sensor information in the merged image and make an intelligent decision without relying on the pages and pages of expert reports, as is commonly done today. Essentially, expert reports are incorporated into the fused image as visual information. Objects, elements, etc. captured in images of remote sensors, they can have three spatial dimensions to allow experts in non-remote sensors to more readily understand the information contained in the images.
Una forma di realizzazione di un sistema per produrre immagini rilevate a distanza può comprendere una piattaforma di unità di ingresso/uscita configurata per ricevere set multipli di informazioni rilevate a distanza. Una piattaforma di elaborazione digitale può essere configurata per eseguire uno o più algoritmi per elaborare i set di informazione rilevata a distanza per generare una singola immagine comprendente almeno due set delle informazioni rilevate a distanza elaborate. Una stampante può essere in comunicazione con la piattaforma di elaborazione digitale ed essere configurata per ricevere e stampare l'immagine singola, in cui l'immagine singola stampata è configurata per permettere a un osservatore di osservare individualmente ciascun set di informazioni rilevate a distanza elaborate. Ciascun set di informazioni rilevate a distanza elaborate può essere di una banda di lunghezze d'onda differente. Le informazioni rilevate a distanza possono essere tridimensionali. In aggiunta od in alternativa le informazioni rilevate a distanza possono essere temporalmente in sequenza. In una forma di realizzazione, l'informazione rilevata a distanza è stampata o fatta aderire a una matrice di microlenti che permette ad un osservatore di vedere ciascuna delle immagini rilevate a distanza modificando un angolo con il quale l'osservatore guarda la singola immagine attraverso la matrice di microlenti. One embodiment of a system for producing remotely sensed images may comprise an input / output unit platform configured to receive multiple sets of remotely sensed information. A digital processing platform can be configured to execute one or more algorithms for processing the remotely sensed information sets to generate a single image comprising at least two sets of the processed remotely sensed information. A printer may be in communication with the digital processing platform and be configured to receive and print the single image, where the single printed image is configured to allow an observer to individually observe each set of remotely sensed information processed. Each set of remotely sensed information processed can be of a different wavelength band. The information detected at a distance can be three-dimensional. In addition or alternatively, the information detected at a distance can be temporally sequential. In one embodiment, the remotely sensed information is printed or adhered to a micro-lens matrix that allows an observer to see each of the remotely sensed images by changing an angle at which the observer looks at the single image through the matrix of microlenses.
Un modo di attuazione di un metodo per generare informazione visuale da informazione rilevata a distanza può comprendere la raccolta di una prima immagine rilevata a distanza. Può essere raccolta una seconda immagine rilevata a distanza. La prima e la seconda immagine possono essere elaborate per orientare le immagini sostanzialmente con la stessa orientazione. La prima e seconda immagine possono essere stampate su un singolo materiale, e il singolo materiale può essere configurato per permettere a un osservatore dì osservare ciascuna immagine rilevata a distanza a un angolo differente quando osserva il materiale. In una forma di realizzazione, l'informazione rilevata a distanza è stampata o fatta aderire su una matrice di microlenti che permette a un osservatore di vedere ciascuna delle immagini rilevate a distanza modificando un angolo attraverso il quale l'osservatore guarda la singola immagine attraverso la matrice di microlenti. One way of implementing a method for generating visual information from remotely sensed information may comprise collecting a first remotely sensed image. A second image detected remotely can be collected. The first and second images can be processed to orient the images with substantially the same orientation. The first and second images can be printed on a single material, and the single material can be configured to allow an observer to observe each remotely sensed image at a different angle when looking at the material. In one embodiment, the remotely sensed information is printed or adhered to a matrix of microlenses that allows an observer to see each of the sensed images from a distance by changing an angle through which the observer looks at the single image through the matrix of microlenses.
L'invenzione divulgata verrà descritta con riferimento ai disegni allegati, che mostrano forme di realizzazione esemplificative dell'invenzione e che sono incorporati nella sua descrizione per riferimento, in cui: The disclosed invention will be described with reference to the accompanying drawings, which show exemplary embodiments of the invention and which are incorporated into its description by reference, in which:
la figura 1 è una rappresentazione di un si stema satellitare esemplificativo configurato per raccogliere immagini da satellite di oggetti usando dati di immagine singola o multipla; Figure 1 is a representation of an exemplary satellite system configured to collect satellite images of objects using single or multiple image data;
la figura 2 è una rappresentazione di un sistema esemplificativo (Livello 1) per generare e presentare una o più immagini fuse derivate dai dati di immagine di sensore remoto per la visione da parte del responsabile delle decisioni; Figure 2 is a representation of an exemplary system (Level 1) for generating and presenting one or more fused images derived from the remote sensor image data for viewing by the decision maker;
la figura 3 è una rappresentazione di un sistema esemplificativo (livello 2) che usa i dati di immagine di sensore remoto per generare le immagini fuse per i responsabili delle decisioni; Figure 3 is a representation of an exemplary system (level 2) that uses remote sensor image data to generate fused images for decision makers;
la figura 4 è una rappresentazione di un hardware esemplificativo usato per generare copie hard di immagini fuse derivate da dati di immagine di sensore remoto secondo i principi della presente invenzione; Figure 4 is a representation of exemplary hardware used to generate hard copies of fused images derived from remote sensor image data according to the principles of the present invention;
la figura 5 è un diagramma di flusso di un processo esemplificativo che descrive il funzionamento del sistema secondo i principi della presente invenzione; e Figure 5 is a flowchart of an exemplary process describing the operation of the system according to the principles of the present invention; And
la figura 6 è un diagramma di flusso di un altro processo esemplificativo che descrìve il funzionamento del sistema secondo i principi della presente invenzione. Figure 6 is a flowchart of another exemplary process describing the operation of the system according to the principles of the present invention.
L'elaborazione cognitiva umana di tre dimensioni spaziali aumenta il ragionamento visuale. La fusione di dati o la fusione di immagini è la combinazione di informazione rilevata. Un'immagine fusa può comprendere (i) immagini spazialmente fuse (ad es. immagini tridimensionali), (ii) immagini temporalmente in sequenza o temporalmente fuse, o (iii) fusione spettrale o combinazione di immagini da differenti regioni dello spettro elettromagnetico ("EMS"), come descritto nel brevetto US 6 781 707, che è qui incorporato per riferimento nella sua interezza. La fusione di immagini può rendere disponibile dati visuali raccolti su un periodo dì tempo, come ad esempio su molti anni, ad un osservatore. La fusione di immagini è definita come due o più immagini interfasate fra loro in modo tale che ciascuna immagine possa essere vista distintamente a differenti angoli di osservazione. Le immagini possono essere la stessa vista in istanti differenti, "fusione temporale", o la stessa immagine vista con differenti lunghezze d'onda di spettro elettromagnetico, "fusione EMS". Tre dimensioni spaziali è una frase usata per descrìvere tre dimensioni vere di osservazione. Nelle immagini da satellite il termine "3D" è una vista in prospetti va di un'immagine sullo schermo di un computer, che si differenzia da quello che l'occhio effettivamente vedrebbe nel catturare una scena. Lo stesso si applica ad altre forme di informazione rilevata a distanza. Un'immagine a tre dimensioni spaziali cattura la vista reale. Usando la fusione di immagini, l'osservatore può vedere ì dati visuali in un modo che è comodo a un essere umano per interpretare visualmente i dati visuali. Fornendo a un osservatore dati visuali quantitativi e qualitativi, all'osservazione viene data una maggior chiarezza per assistere l'osservatore nella presa di decisioni. Human cognitive processing of three spatial dimensions increases visual reasoning. Data fusion or image fusion is the combination of detected information. A fused image may include (i) spatially fused images (e.g., three-dimensional images), (ii) temporally sequenced or temporally fused images, or (iii) spectral fusion or combination of images from different regions of the electromagnetic spectrum ("EMS "), as described in US 6 781 707, which is incorporated herein by reference in its entirety. Image fusion can make visual data collected over a period of time, such as over many years, available to an observer. Image fusion is defined as two or more images interleaved with each other so that each image can be seen distinctly at different viewing angles. The images can be the same image seen at different times, "time fusion", or the same image seen with different wavelengths of the electromagnetic spectrum, "EMS fusion". Three Spatial Dimensions is a phrase used to describe three true dimensions of observation. In satellite imagery, the term "3D" is a perspective view of an image on a computer screen that differs from what the eye would actually see when capturing a scene. The same applies to other forms of information detected remotely. A three dimensional spatial image captures the real view. Using image fusion, the observer can see the visual data in a way that is convenient for a human to visually interpret the visual data. By providing an observer with quantitative and qualitative visual data, the observation is given greater clarity to assist the observer in making decisions.
La tecnologia satellitare è ben consolidata in termini di sensori, hardware e raccolta dati. La figura 1 è una rappresentazione del sistema satellitare esemplificativo 100 configurato per raccogliere immagini da satellite di oggetti utilizzando dati di immagine singola o multipla. Un satellite 102 può essere equipaggiato con sensori a punto singolo o a multipunti (non illustrato) per raccogliere dati di immagini da satellite in un'area 104 mentre vi passa sopra nella forma di dati di pixel. Tali dati di pixel o dati di immagine da satellite sono raccolti come informazione multi-bit od un set di dati. I sensori possono essere in grado di raccogliere i dati di immagine da satellite da tutte le regioni dello spettro elettromagnetico, quali visibile, infrarosso, radar, ultrasuoni, gamma, ecc., o sull'insieme dello EMS. Inoltre, i dati di immagine da satellite possono essere spazialmente fusi (ad es. tridimensionali) e/o temporalmente in sequenza . Satellite technology is well established in terms of sensors, hardware and data collection. Figure 1 is a representation of the exemplary satellite system 100 configured to collect satellite images of objects using single or multiple image data. A satellite 102 may be equipped with single-point or multi-point sensors (not shown) to collect satellite image data in an area 104 as it passes over it in the form of pixel data. Such pixel data or satellite image data is collected as multi-bit information or a data set. The sensors may be able to collect satellite image data from all regions of the electromagnetic spectrum, such as visible, infrared, radar, ultrasound, gamma, etc., or on the whole of the EMS. Furthermore, the satellite image data can be spatially fused (e.g. three-dimensional) and / or temporally sequentially.
I dati di immagine satellitare possono essere trasmessi tramite segnali satellitari 106 a stazioni di terra localizzate nel mondo. I segnali satellitari 106 possono comprendere dati di spettro elettromagnetico ad immagine singola o multipla raccolti utilizzando sensori remoti. I segnali satellitari 106 possono essere analogici o digitali ed essere comunicati utilizzando un qualunque protocollo di comunicazione compresa nel settore. Una stazione di terra 108 può ricevere i segnali satellitari 106 e raccogliere e immagazzinare i dati di immagine satellitare a essa comunicati. I dati di immagine satellitare possono essere quindi ritrasmessi a un sistema di elaborazione di informazione di sensori remoti 110 tramite una rete 112. In una forma di realizzazione, i dati di immagine satellitare sono comunicati tramite la rete 112 nella forma di pacchetti di dati 114, ove la rete 112 può essere una rete locale (LAN) o una rete geografica (WAN) (ad es. Internet), o altre. Satellite image data can be transmitted via satellite signals 106 to earth stations located around the world. The satellite signals 106 may comprise single or multiple image electromagnetic spectrum data collected using remote sensors. The satellite signals 106 can be analog or digital and be communicated using any communication protocol included in the sector. A ground station 108 can receive satellite signals 106 and collect and store the satellite image data communicated to it. The satellite image data can then be retransmitted to a remote sensor information processing system 110 via a network 112. In one embodiment, the satellite image data is communicated via the network 112 in the form of data packets 114, where the 112 network can be a local network (LAN) or a geographic network (WAN) (eg Internet), or others.
Benché la fig. 1 descriva il funzionamento di un sistema di rilevamento a distanza quale satellite, i principi della presente invenzione possono utilizzare in aggiunta o in alternativa altri sensori remoti per raccogliere informazione di sensori a distanza. Ad esempio, aerei e palloni ad aria calda che sono attrezzati con un'apparecchiatura di sensori remoti o rilevano informazioni di spettro elettromagnetico (ad es. immagini visuali di una regione terrestre o immagini termiche dell'atmosfera al di sopra del suolo) possono essere utilizzati per raccogliere set di dati di immagine. L'informazione di sensori remoti, raccolta dalla stessa o da una differente piattaforma di sensori remoti, può essere fusa in un'immagine fusa. Nel caso si usino altri sensori remoti, piuttosto che radiotrasmettere l'informazione rilevata a distanza, l'informazione può essere raccolta su un mezzo, quale un nastro digitale o mezzo magnetico, e direttamente o indirettamente inserita nel sistema di elaborazione di informazione di sensori remoti 110. Si intende che le informazioni od immagini rilevate a distanza possono includere set di dati di informazioni al suolo o al di sopra del suolo (ad es. atmosfera). La figura 2 è una rappresentazione di un sistema esemplificativo ("Livello Uno") 200 per generare e presentare una o più immagini fuse derivate da informazione di sensori remoti per la visione da parte dei responsabili delle decisioni. Mentre i satelliti orbitano o altri sensori remoti viaggiano sulla Terra, varie immagini di aree sono raccolte in funzione del tempo. I dati di immagine satellitare sono ricevuti dal sistema di elaborazione di informazione di sensori remoti 110 per l'elaborazione. Il sistema di elaborazione di informazione di sensori remoti 110 può comprendere un'unità di elaborazione 202 che esegue un software 204 che attua vari algoritmi. L'unità di elaborazione 202, che può comprendere uno o più processori, può essere in comunicazione con una memoria 206, un'unità di ingresso/uscita (I/O) 208, e un'unità di immagazzinamento 210, ove la memoria 206 immagazzina informazioni durante l'esecuzione del software 204, l'unità I/O 208 opera per comunicare con la stazione di terra 108 e ì dispositivi di uscita 212, e l'unità di immagazzinamento 210 immagazzina l'informazione di sensori remoti generata dagli algoritmi. Although fig. 1 describes the operation of a remote sensing system such as satellite, the principles of the present invention may additionally or alternatively utilize other remote sensors to collect remote sensor information. For example, airplanes and hot air balloons that are equipped with remote sensor equipment or detect electromagnetic spectrum information (e.g. visual images of a region of the earth or thermal images of the atmosphere above the ground) can be used. to collect image datasets. Remote sensor information, collected from the same or a different remote sensor platform, can be merged into a fused image. If other remote sensors are used, rather than broadcasting the information detected at a distance, the information can be collected on a medium, such as a digital tape or magnetic medium, and directly or indirectly inserted into the information processing system of remote sensors. 110. It is understood that information or images detected at a distance may include data sets of information on the ground or above the ground (eg atmosphere). Figure 2 is a representation of an exemplary system ("Level One") 200 for generating and presenting one or more fused images derived from remote sensor information for viewing by decision makers. As satellites orbit or other remote sensors travel the Earth, various images of areas are collected as a function of time. The satellite image data is received by the remote sensor information processing system 110 for processing. The remote sensor information processing system 110 may comprise a processing unit 202 running software 204 that implements various algorithms. The processing unit 202, which may comprise one or more processors, may be in communication with a memory 206, an input / output (I / O) unit 208, and a storage unit 210, where the memory 206 stores information during the execution of the software 204, the I / O unit 208 operates to communicate with the ground station 108 and the output devices 212, and the storage unit 210 stores the remote sensor information generated by the algorithms .
L'informazione di sensori remoti può comprendere dati di immagine a punto singolo o a multipunti e può essere una raccolta di dati spettrali da un singolo punto nel tempo o una raccolta di dati spettrali nel tempo. L'informazione di sensori remoti può essere ciascuno o tutti i dati fusi spazialmente, temporalmente o spettralmente, ove ciascun set di dati può essere considerato un'immagine. L’informazione di sensori remoti può essere trasformata o manipolata in una forma utilizzabile tramite algoritmi interni. Ad esempio, un set di dati può essere di una regione spettrale non visuale dello spettro elettromagnetico, o gli algoritmi interni possono generare una rappresentazione visuale del set di dati non spettrali. Si noti che una forma utilizzabile è relativa a formati compatibili con il linguaggio di algoritmi di sistema secondo i principi della presente invenzione. Una regolazione matematica delle immagini può anche essere completata per garantire sovrapposizione e correttezza di perpendicolarità. Tali algoritmi di regolazione matematica sono noti nel settore e di pubblico dominio. Gli algoritmi utilizzati possono variare a seconda (i) del satellite dal quale si prendono i dati, (ii) delle lunghezze d'onda uti lizzate, (iii) della manipolazione di dati effettuata per la presentazione di dati visuali risultante. I dati "compatibilizzati" possono essere convertiti in una matrice di pixel prescritta dagli algoritmi interni. Inerenti al sistema sono gli algoritmi descritti nei brevetti US 6781 707, 6 894 809 e 7 019 865, che sono qui incorporati per riferimento nella loro interezza. The remote sensor information may comprise single-point or multi-point image data and may be a collection of spectral data from a single point in time or a collection of spectral data in time. The remote sensor information can be any or all of the data merged spatially, temporally or spectrally, where each data set can be considered an image. The information from remote sensors can be transformed or manipulated into a usable form using internal algorithms. For example, a dataset may be of a non-visual spectral region of the electromagnetic spectrum, or internal algorithms may generate a visual representation of the non-spectral dataset. It should be noted that a usable form relates to formats compatible with the system algorithm language according to the principles of the present invention. A mathematical adjustment of the images can also be completed to ensure overlap and correctness of perpendicularity. Such mathematical regulation algorithms are known in the industry and in the public domain. The algorithms used may vary depending on (i) the satellite from which the data is taken, (ii) the wavelengths used, (iii) the data manipulation performed for the resulting visual data presentation. The "compatibilized" data can be converted into a pixel matrix prescribed by the internal algorithms. Inherent to the system are the algorithms described in US patents 6781 707, 6 894 809 and 7 019 865, which are incorporated herein by reference in their entirety.
I dati manipolati, che possono essere interfasati, possono essere quindi stampati su carta e sovrapposti con una matrice di lenti micro-ottiche specificamente progettate o stampati su una matrice micro-ottica mediante l'uso di una stampante specificamente progettata, come descritto nel brevetto US 6709 080, qui incorporato per riferimento nella sua interezza. Il termine "interfasato" indica una manipolazione di immagini, generalmente tramite un computer, in cui le immagini sono segmentate in linee e quindi interfasate in una singola immagine. Una singola immagine può essere composta di singole linee in una matrice prestabilita tale che, quando la matrice di lenti micro-ottiche viene sovrapposta, è possibile osservare l'immagine multidimensionale prestabilita. Il sistema 200 è indicato come Livello Uno, che è un nome descrittivo del livello di sofisticazione tecnica utilizzato nel produrre 1'immagine descritta. Inerenti a tale sistema sono gli algoritmi appropriati, come sopra descritto, per formattare i dati e manipolare i dati per i risultati desiderati. The manipulated data, which can be interleaved, can then be printed on paper and overlaid with a specifically designed micro-optical lens array or printed on a micro-optical array by the use of a specifically designed printer, as described in U.S. Pat. 6709 080, incorporated herein by reference in its entirety. The term "interphase" refers to an image manipulation, generally by a computer, in which images are segmented into lines and then interleaved into a single image. A single image can be composed of single lines in a predetermined matrix such that, when the micro-optical lens matrix is superimposed, the predetermined multidimensional image can be observed. System 200 is referred to as Level One, which is a descriptive name for the level of technical sophistication used in producing the described image. Inherent in such a system are the appropriate algorithms, as described above, to format the data and manipulate the data for the desired results.
I dati di uscita 214 possono essere presentati come immagini multidimensìonali e/o dati fusi. Nella formazione di immagini di rilevamento a distanza, la capacità di visualizzare la profondità di campo nel formato di copia hard non è altrimenti commercialmente disponibile. La capacità di arrivare oltre le immagini visuali nello spettro non visibile all'occhio umano (ad es. gamma, infrarosso, sonar/radar, e raggi x) permette inoltre di raccogliere uno streaming di dati da sensori remoti e di incorporarlo in una singola immagine su un singolo foglio, in cui l'immagine include una pluralità di pagine di informazione. L'immagine singola può essere eloquente in modo unico per il/i responsabile/i delle decisioni che può/possono essere o no esperto/i nell'interpretazione di immagini da sensori remoti. Il sistema 200 migliora l'analisi da parte degli esperti incorporando la loro conoscenza negli algoritmi sopra presentati in una piattaforma software associata. In aggiunta, il sistema 200 fornisce una conoscenza riguardo ai dati raccolti da differenti lunghezze d'onda di EMS. La conoscenza analitica è incorporata poiché possono essere viste immagini EMS e in sequenza temporale e, sulla base delle immagini, possono essere prese delle decisioni. La conoscenza di quali immagini utilizzare viene dall'esperto, il significato di ciascuna singola immagine viene dall'esperto, ma la conclusione collettiva viene dal responsabile delle decisioni. Così, la conoscenza dell'esperto incorporata nel sistema 200 permette ai responsabili dì interpretare l'informazione senza l'assistenza di un esperto, migliorando così la comprensione e l'efficienza da parte del responsabile delle decisioni. The output data 214 can be presented as multidimensional images and / or blended data. In remote sensing imaging, the ability to display depth of field in hard copy format is otherwise not commercially available. The ability to go beyond visual images in the spectrum not visible to the human eye (e.g. gamma, infrared, sonar / radar, and x-rays) also allows you to collect a stream of data from remote sensors and incorporate it into a single image on a single sheet, where the image includes a plurality of information pages. The single image can be uniquely eloquent to the decision maker (s) who may or may not be experienced in interpreting images from remote sensors. System 200 enhances analysis by experts by incorporating their knowledge into the algorithms presented above in an associated software platform. In addition, the system 200 provides knowledge about the data collected from different EMS wavelengths. Analytical knowledge is incorporated as EMS and timeline images can be viewed and, based on the images, decisions can be made. The knowledge of which images to use comes from the expert, the meaning of each individual image comes from the expert, but the collective conclusion comes from the decision maker. Thus, the expert knowledge built into the system 200 allows managers to interpret the information without the assistance of an expert, thereby improving the decision maker's understanding and efficiency.
Il sistema 200 provvede inoltre a immediatezza e facilità d'uso, poiché il sistema 200 prevede un feedback in tempo reale nella forma di una copia hard e nessun, o minimo, addestramento per operare, rispetto alla tecnologia e disponibilità attuali. Il colpo d'occhio di un’immagine fusa non può essere sottostimato, quando l'osservatore è il responsabile finale delle decisioni. Nel seguito vi sono esempi in cui il responsabile delle decisioni può prontamente comprendere e interpretare immagini da satellite secondo i principi della presente invenzione . The 200 system also provides immediacy and ease of use, as the 200 system provides real-time feedback in the form of a hard copy and no, or minimal, training to operate, relative to current technology and availability. The glance of a fused image cannot be underestimated, when the observer is the ultimate decision maker. Below are examples in which the decision maker can readily understand and interpret satellite images according to the principles of the present invention.
(1) I movimenti del suolo nell'area di Napoli sono stati seguiti su un periodo prolungato di tempo. Tali movimenti del suolo sono stati fusi temporalmente fra loro per fornire un'immagine complessiva di Napoli. Quando l'immagine veniva mossa (ad es . si modificava l'angolo di osservazione), le aree in cui si avevano movimenti del suolo (cioè la nuova immagine) proiettavano il movimento. Così, l'immagine può distinguere aree instabili e riportare l'instabilità a seconda del grado di movimento. I dirigenti delle assicurazioni (cioè i responsabili delle decisioni) possono osservare tale immagine fusa per determinare il grado di rischio. I pianificatori urbani (cioè i responsabili delle decisioni) possono osservare circa il pericolo o il tipo di costruzione richiesto in una data area. Tutta tale informazione di sensori remoti può essere contenuta in un'immagine ed essere facilmente osservata e interpretata da un responsabile delle decisioni . (1) The ground movements in the Naples area were followed over a prolonged period of time. These ground movements have been temporally merged with each other to provide an overall picture of Naples. When the image was moved (e.g. the viewing angle changed), the areas where there was ground movement (i.e. the new image) projected the movement. Thus, the image can distinguish unstable areas and report instability depending on the degree of movement. Insurance executives (i.e. decision makers) can observe this merged image to determine the degree of risk. Urban planners (i.e. decision makers) can observe about the hazard or type of construction required in a given area. All this remote sensor information can be contained in an image and easily viewed and interpreted by a decision maker.
(2) Una sequenza temporale di nubi di inquinamento può essere creata da dati di sequenza temporale per plottare il percorso e documentare per un futuro riferimento l'effetto dell'inquinamento su aree colpite. L'uso di informazione o dati di sensori remoti da parte delle compagnie di assicurazione nei confronti di richieste d'indennizzo dovute a sinistri che si scostano a causa del vento può essere fatto per vedere se un'area presunta era nella zona del sinistro. Il tracciamento di inquinanti relativo alla contaminazione può essere letto da una copia hard a terra da parte di un’unità secondaria . (2) A timeline of pollution clouds can be created from timeline data to plot the path and document the effect of pollution on affected areas for future reference. The use of information or remote sensor data by insurance companies in respect of claims for claims that deviate due to wind can be done to see if an alleged area was in the area of the claim. The pollutant tracking related to contamination can be read from a hard copy on the ground by a secondary unit.
Come precedentemente descritto, la fusione di dati o di immagini può comportare informazioni spaziali (ad es. 3D), una combinazione di informazioni visuali temporalmente in sequenza, od informazioni spettralmente differenti, quali una combinazione di immagini dalla stessa regione o da regioni differenti dello spettro elettromagnetico raccolte da sensori remoti. Così, la fusione di dati può rispondere a questioni quale "dov'è la miglior struttura topografica per ricercare petrolio, gas e acqua?<1>'. Di nuovo, gli esperti di sensoristica remota possono interpretare immagini di sensori remoti e riferire per fornire una riposta, ma i non esperti generalmente non hanno la capacità di interpretare completamente le immagini di sensori remoti e, quindi, non possono assumere decisioni ben fondate senza l'assistenza di uno o più esperti di sensori remoti . As previously described, data or image fusion can involve spatial information (e.g. 3D), a combination of visual information temporally sequentially, or spectrally different information, such as a combination of images from the same region or from different regions of the spectrum. electromagnetic collected by remote sensors. Thus, data fusion can answer questions such as 'where is the best topographical facility to search for oil, gas and water? <1>'. Again, remote sensor experts can interpret images of remote sensors and report to provide an answer, but non-experts generally lack the ability to fully interpret remote sensor images and, therefore, cannot make well-founded decisions without the assistance of one or more remote sensor experts.
Il sistema 200 e il software 204 possono compilare l'informazione di sensori remoti, quali immagini, immagini da satellite su una sequenza temporale o in una o più bande di frequenza e fornire un formato di uscita, quale una singola immagine fusa, che permette a un responsabile delle decisioni, che può essere o no un esperto, di interpretare le immagini da satellite. Una singola immagine fusa può rafforzare i rapporti e migliorare le conclusioni da parte del responsabile delle decisioni. L'immagine fusa in sé può anche rispondere a questioni specifiche che sono altrimenti di difficile risposta usando immagini da satellite multiple. I-noltre, mappe di copia hard spazialmente in tempo reale possono essere generate con siti evidenziati per condurre esplorazione per squadra che vanno in un'area remota. Inoltre un computer può simulare immagini multidimensionali su un monitor, una squadra che lavora in aree senza energia o che desiderano garantirsi rispetto a un guasto del computer sul campo, possono trovare una mappa di copia hard molto più affidabile. Modelli multidimensionali possono essere generati da dati sonici o MRI in sito per determinare inoltre le posizioni esatte dove, ad esempio, si può trovare petrolio o gas. L'uso di mappe di immagini multidimensionali può ridurre il numero di pozzi esplorativi e mappare il campo per la miglior posizione per stabilire un pozzo, risparmiando così tempo e denaro da parte dell 'utilizzatore. The system 200 and the software 204 can compile the information of remote sensors, such as images, satellite images on a timeline or in one or more frequency bands and provide an output format, such as a single fused image, which allows a decision maker, who may or may not be an expert, to interpret the satellite images. A single merged image can strengthen relationships and improve conclusions on the part of the decision maker. The merged image itself can also answer specific questions that are otherwise difficult to answer using multiple satellite images. Additionally, spatially real-time hard copy maps can be generated with highlighted sites to conduct exploration by team going to a remote area. Additionally a computer can simulate multidimensional images on a monitor, a team working in areas with no power or wishing to secure themselves against a computer failure in the field, can find a much more reliable hard copy map. Multidimensional models can be generated from sonic or MRI data on site to also determine the exact locations where, for example, oil or gas can be found. The use of multidimensional image maps can reduce the number of exploratory wells and map the field to the best location to establish a well, thus saving the user time and money.
Una copia hard multidimensionale è migliore rispetto alle mappe e ai rapporti convenzionali a causa dei dettagli di colore spettrali e riflessivi inerenti alle immagini. A proposito del sistema qui descrìtto, non sono da includere nell'immagine da satellite solamente due canali, ma anche da aggiungere una pluralità di canali. Il numero di canali utilizzati può essere determinato dalla complessità del problema da risolvere e dalle caratteristiche del materiale micro-ottico utilizzato. Tipicamente, più un problema è complesso, più l'informazione è generalmente utilizzata per affrontare la riposta. Maggiore è la quantità di informazioni, maggiore è la quantità di canali di informazione utilizzati nel programma di interiasamento, in cui ciascun immagine può essere spezzata in linee discrete e quindi le lìnee vengono interfasate per allinearsi dietro il materiale micro-ottico. Per ottenere la miglior fedeltà dell’immagine, l'informazione può essere presentata dalla matrice agli occhi dell'osservatore in una sequenza appropriata e nei quadri corretti. Tecniche di ray tracing ottico e la conoscenza della risoluzione delle stampanti sono utilizzate per progettare la configurazione di matrice di lenti ottimale per presentare l'informazione all'osservatore in modo appropriato. A multidimensional hard copy is better than conventional maps and reports due to the spectral and reflective color details inherent in the images. With regard to the system described here, not only two channels are to be included in the satellite image, but a plurality of channels are also to be added. The number of channels used can be determined by the complexity of the problem to be solved and by the characteristics of the micro-optical material used. Typically, the more complex a problem, the more information is generally used to address the answer. The greater the amount of information, the greater the amount of information channels used in the interiasing program, where each image can be broken up into discrete lines and then the lines are interphased to line up behind the micro-optical material. To obtain the best image fidelity, the information can be presented by the matrix to the observer's eyes in an appropriate sequence and in the correct frames. Optical ray tracing techniques and knowledge of printer resolution are used to design the optimal lens array configuration to present the information to the observer in an appropriate manner.
Il sistema 200 realizza la capacità di fondere temporalmente i dati. La capacità di fondere temporalmente i dati permette che sequenze di eventi vengano mostrate come un movimento, il che consente ai responsabili delle decisioni di ottenere una migliore comprensione della direzione di eventi o di anticipare l'evoluzione di una sequenza. Inoltre, utilizzando la fusione nel tempo, sequenze precedenti e successive possono essere osservate a scopo di informazione, come per danni assicurativi, progresso di progetti, e impatto sull'ambiente di strutture realizzate dall'uomo. Nell'ambito degli algoritmi sopra descritti vi è la capacità di legare multi-viste in immagini multi-dimensionali con parallasse controllata. Gli algoritmi controllano la parallasse relativamente al sistema di lenti utilizzato, pixel per pollice emessi in uscita da una stampante speciale, e regole sviluppate dai lavori precedenti sulla profondità di campo, come ulteriormente descritto nei brevetti US 4086 585 e 4 124 291 che sono qui incorporati nella loro interezza per riferimento. La capacità di controllare la parallasse e la profondità di campo significa che le immagini risultanti sono accurate e suscettibili dì essere utilizzate per ottenere calcoli di misure. La sovrapposizione di immagini consente inoltre che vengano create accurate mappe di profondità, il che può portare ad un ulteriore affinamento e viste creando immagini tridimensionali virtuali sullo schermo. Il software può essere utilizzato per creare una copia "hard" delle immagini. Il sistema 200 provvede la capacità di utilizzare tecniche di "ray tracing" (tracciatura di raggi) per creare immagini multi-dimensionali da differenti viste della stessa scena. The system 200 realizes the ability to temporally merge data. The ability to temporally blend data allows sequences of events to be shown as a movement, which allows decision makers to gain a better understanding of the direction of events or to anticipate the evolution of a sequence. Additionally, by using time blending, preceding and subsequent sequences can be observed for information purposes, such as for insurance damage, project progress, and environmental impact of man-made structures. Within the algorithms described above there is the ability to link multi-views in multi-dimensional images with controlled parallax. The algorithms control parallax with respect to the lens system used, pixels per inch emitted by a special printer, and rules developed from previous works on depth of field, as further described in US patents 4086 585 and 4 124 291 which are incorporated herein. in their entirety for reference. The ability to control parallax and depth of field means that the resulting images are accurate and likely to be used to obtain measurement calculations. Overlaying images also allows accurate depth maps to be created, which can lead to further refinement and views by creating virtual three-dimensional images on the screen. The software can be used to create a "hard" copy of the images. The system 200 provides the ability to use "ray tracing" techniques to create multi-dimensional images from different views of the same scene.
La figura 3 è un'illustrazione di un sistema esemplificativo 300 (Livello Due) che utilizza le informazioni di sensore remoto (ad esempio, dati di immagine) per generare le immagini fuse per i responsabili delle decisioni. Il sistema 300 può essere utilizzato per creare "dati quantitativi fusi che rispondono visivamente alla domanda". Consistentamente con la figura 2, larghezze di banda differenti dello spettro elettromagnetico possono essere utilizzate per fornire informazioni differenti circa un'immagine rilevata a distanza. Il sistema 300 è orientato verso l'utilizzo di una matrice generata in modo esperto per "definire 1’impronta digitale" di un’immagine rilevata a distanza. Ad esempio, una matrice può elencare lunghezze d'onda di uno spettro elettromagnetico, definito come lo spettro visibile, lo spettro infrarosso, radar, sonar, ecc., ed informazioni ottenute da tale o tali larghezze di banda. In appresso vi è un esempio di una matrice di banda, in cui sono forniti esempi di informazioni che possono essere generate in differenti larghezze di banda. Figure 3 is an illustration of an exemplary system 300 (Level Two) that uses remote sensor information (e.g., image data) to generate fused images for decision makers. System 300 can be used to create "blended quantitative data that visually answers the question". Consistent with Figure 2, different bandwidths of the electromagnetic spectrum can be used to provide different information about a remotely detected image. The 300 system is oriented towards the use of an expertly generated matrix to "define a fingerprint" of a remotely detected image. For example, a matrix may list wavelengths of an electromagnetic spectrum, defined as the visible spectrum, infrared spectrum, radar, sonar, etc., and information obtained from such or such bandwidths. Below is an example of a bandwidth matrix, in which examples of information that can be generated in different bandwidths are given.
Così, se viene ricercata una specifica soluzione per un problema posto, allora la matrice può essere utilizzata per determinare quale o quali larghezze di banda possono essere utilizzate per formulare una soluzione. Ad esempio, per una data regione, l'acqua è razionata e le autorità idriche vogliono sapere quali sotto-regioni necessitano di ricevere acqua per irrigazione (problema posto). Dalla matrice delle bande esemplificativa di cui sopra, le prime tre bande possono essere combinate in un'immagine visuale (immagine uno). Poi, l'immagine prodotta dalla Banda 4 può essere utilizzata per vedere quale tipo di piante vi siano nelle sotto-regioni ed ottenere informazioni sull'umidità del suolo (immagine due). L'immagine tre può essere presa dalla Banda 7 per determinare l'umidità della vegetazione ed essere combinata con un'immagine (immagine quattro) dalla Banda 5 oppure 6 per vedere lo stress della vegetazione. Queste quattro immagini possono poi essere fuse in una immagine rrtultispettrale dal sistema qui descritto. Il responsabile delle decisioni può allora essere in grado di vedere le informazioni sull'immagine multispettrale ruotando l'immagine multi-dimensionale in modo da modificare l’angolo dì vista. Mano a mano che domande vengono alla mente del responsabile delle decisioni, l'ulteriore rotazione avanti e indietro fornisce una rapida risposta. Questa immagine può essere combinata con una fusione temporale della regione da qualsiasi delle bande, quale la Banda 7, determinando il tasso di perdita di umidità nella vegetazione. Questo esempio rappresenta un esempio dell<1>utilizzo del sistema secondo i principi della presente invenzione. Differenti matrici possono essere formulate, a seconda del problema posto. Ciascun problema posto può avere un differente set di immagini multi-dimensionali per risolvere il problema posto. Thus, if a specific solution is sought for a given problem, then the matrix can be used to determine which or which bandwidths can be used to formulate a solution. For example, for a given region, water is rationed and the water authorities want to know which sub-regions need to receive water for irrigation (problem posed). From the exemplary band matrix above, the first three bands can be combined into a visual image (image one). Then, the image produced by Band 4 can be used to see what kind of plants there are in the sub-regions and obtain information on soil moisture (image two). Image three can be taken from Band 7 to determine vegetation moisture and be combined with an image (image four) from Band 5 or 6 to see vegetation stress. These four images can then be merged into a rrtultispectral image by the system described here. The decision maker may then be able to see the information on the multispectral image by rotating the multi-dimensional image in order to change the angle of view. As questions come to the decision maker's mind, the further back and forth rotation provides a quick answer. This image can be combined with a temporal melting of the region from any of the bands, such as Band 7, determining the rate of moisture loss in the vegetation. This example represents an example of the use of the system according to the principles of the present invention. Different matrices can be formulated, depending on the problem posed. Each problem posed can have a different set of multi-dimensional images to solve the problem posed.
In un modo di realizzazione, il sistema di elaborazione 110 (figura 1) può essere configurato per consentire ad un utilizzatore di scegliere fra le differenti lunghezze d'onda per cui sono disponibili informazioni rilevate a distanza, sulla base di un problema che è in corso di soluzione, il sistema di elaborazione 110, che può avere accesso ad una matrice di bande o altre informazioni formattate sulle bande, può accedere alle informazioni rilevate a distanza da elaborare. L'elaborazione può orientare e altrimenti allineare le informazioni rilevate a distanza per formare una singola immagine che include ciascuno dei set di informazioni rilevate a distanza su ciascuna delle bande di lunghezza d'onda. L<1>immagine singola può essere stampata su un materiale che, quando visionato attraverso una schiera di micro-lenti, consente all'osservatore di vedere ciascuna delle immagini prodotte da rispettive informazioni rilevate a distanza su rispettivi campi di lunghezza d'onda, come ulteriormente qui descritto. In one embodiment, the processing system 110 (Figure 1) can be configured to allow a user to choose between the different wavelengths for which remotely sensed information is available, on the basis of an ongoing problem. As a solution, the processing system 110, which can have access to a matrix of bands or other information formatted on the bands, can access the information detected at a distance to be processed. Processing can orient and otherwise align remotely sensed information to form a single image that includes each of the remotely sensed information sets on each of the wavelength bands. The <1> single image can be printed on a material which, when viewed through an array of micro-lenses, allows the observer to see each of the images produced by respective remotely sensed information on respective wavelength fields, such as further described here.
Una volta che le larghezze di banda appropriate sono state selezionate, i dati dai sensori remoti possono essere scaricati nel sistema 300, e informazioni visuali fuse possono essere generate in modo tale che una persona possa raccogliere informazioni per procedere a determinare una soluzione ad un problema corrente. Il sistema può inoltre generare una copia hard multi-dìmensionale dell'area in questione per ulteriore revisione e studio. La copia hard multi-dimensionale dell'area in questione può essere utilizzata per risolvere il problema posto da parte del responsabile delle decisioni, con un modesto o nessun supporto tecnico. La visualizzazione iper-spettrale (cioè multi-spettrale) può agire come uscita scritta di un dispositivo analitico. Il sistema, in conformità con i principi della presente invenzione, prevede passi intermedi che possono essere effettuati, come la formazione della matrice delle bande disponibili e poi la selezione delle bande, per rispondere ad uno specifico problema. Once the appropriate bandwidths have been selected, data from the remote sensors can be downloaded to the system 300, and merged visual information can be generated so that a person can gather information to proceed to determine a solution to a current problem. . The system can also generate a multi-dimensional hard copy of the area in question for further review and study. The multi-dimensional hard copy of the area in question can be used to solve the problem posed by the decision maker, with little or no technical support. Hyper-spectral (i.e. multi-spectral) visualization can act as a written output of an analytical device. The system, in accordance with the principles of the present invention, provides intermediate steps which can be carried out, such as the formation of the matrix of the available bands and then the selection of the bands, to respond to a specific problem.
L'utilizzo di un approccio sistematico dalla posizione di una domanda alla postulazione dell'informazione rilevata a distanza per rispondere alla domanda posta, alla manipolazione dei dati per creare una visualizzazione iper-spettrale e infine per emettere la visualizzazione, può essere utilizzato in conformità con i principi della presente invenzione. L’approccio sistematico può essere effettuato combinando la piattaforma o programma software per il sensore remoto che fornisce luce ad una stampante speciale che utilizza un materiale speciale MicrOptical™ (come descritto qui e nei brevetti qui incorporati per riferimento) con collegamenti speciali per creare la presentazione visiva finita dei dati. L'inchiostro speciale può essere formulato in modo tale da aderire alla schiera di lenti formata dal materiale MicrOptical™, ad esempio. In alternativa, l'inchiostro può essere stampato su un altro materiale e fatto aderire alla schiera di lenti. Così, il sistema come qui descritto semplifica l'uso dei dati da satellite. Ciascuna piattaforma nel sistema può essere tagliata a misura per rispondere ad un problema sulla base dell'input dell'esperto, ove l'input dell'esperto è incorporato nel software in modo tale per cui il responsabile delle decisioni può ricevere dati di input da una varietà di sorgenti differenti e ben specificate, quale un satellite esistente o un nuovo satellite. The use of a systematic approach from the position of a question to the postulation of the remotely detected information to answer the question posed, to the manipulation of the data to create a hyper-spectral visualization and finally to emit the visualization, can be used in accordance with the principles of the present invention. The systematic approach can be done by combining the platform or software program for the remote sensor that provides light to a special printer using a special MicrOptical ™ material (as described here and in the patents incorporated herein for reference) with special links to create the presentation finished visual data. The special ink can be formulated in such a way that it adheres to the array of lenses formed by the MicrOptical ™ material, for example. Alternatively, the ink can be printed on another material and adhered to the array of lenses. Thus, the system as described here simplifies the use of satellite data. Each platform in the system can be tailored to answer a problem based on expert input, where expert input is embedded in the software in such a way that the decision maker can receive input data from a variety of different and well specified sources, such as an existing satellite or a new satellite.
Il sistema 300 o piattaforma, che include algoritmi interni, può compilare e fondere informazioni rilevate a distanza, quali dati di immagine, ed inviare le informazioni rilevate a distanza, compilate e fuse, ad un dispositivo di uscita appositamente progettato che stampa su materiale appositamente progettato per creare una presentazione visiva che contiene "dati quantitativi fusi che rispondono visualmente alla domanda". Sulla base dell'input dell'esperto, che è incorporata nel programma software creato per rispondere alla domanda posta e sul sistema di Livello Due della figura 3, possono essere creati moduli pre-programmati, come previsto nella figura 5, che spiega sotto forma di diagramma di flusso come opera il sistema. La figura 5 può essere utilizzata per rispondere a questioni ampie, quali: System 300 or platform, which includes internal algorithms, can compile and merge remotely sensed information, such as image data, and send remotely sensed, compiled and merged information to a specially designed output device that prints on specially designed material to create a visual presentation that contains "blended quantitative data that visually answers the question". Based on expert input, which is incorporated into the software program created to answer the question posed and on the Level Two system of Figure 3, pre-programmed forms can be created, as provided in Figure 5, which explains in the form of flowchart how the system works. Figure 5 can be used to answer broad questions such as:
Programma Inquinamento: un modulo Inquinamento può essere configurato per seguire gli effetti dell'inquinamento in un periodo di tempo. Il modulo Inquinamento può avere la capacità di fondere differenti dati spettrali in funzione del tempo. Pollution Schedule: A Pollution module can be configured to track the effects of pollution over a period of time. The Pollution module may have the ability to blend different spectral data as a function of time.
Programma Terra: un modulo Terra può seguire i cambiamenti della Terra in funzione del tempo. Variazioni dell’altezza del terreno in funzione del tempo in aree geologicamente instabili sono un esempio di monitoraggio di cambiamenti della Terra. Altri esempi includono il monitoraggio dell'erosione, la separazione di faglie, flussi di lava, ecc. Earth Program: An Earth module can track Earth's changes as a function of time. Variations in the height of the ground as a function of time in geologically unstable areas are an example of monitoring changes in the Earth. Other examples include erosion monitoring, separation of faults, lava flows, etc.
Programma Pianificazione Urbana: un modulo di monitoraggio della Pianificazione Urbana può monitorare sviluppi in funzione del tempo. Costruzioni, sbancamenti , deforestazione ed altri monitoraggi strutturali possono essere seguiti nel tempo. Urban Planning Program: An Urban Planning monitoring module can monitor developments as a function of time. Construction, excavation, deforestation and other structural monitoring can be followed over time.
La figura 4 è un'illustrazione di un hardware esemplificativo 400 che può essere utilizzato per generare copie hard di immagini fuse derivate da informazioni rilevate a distanza, quali dati di immagine da satellite, in conformità con i principi della presente invenzione. L'hardware può definire i tipi di uscita disponibili per gli utilizzatori generati dalle immagini fuse. Tre componenti del-1'hardware possono essere utilizzati in conformità con i principi della presente invenzione, inclusi: 1. un mezzo ottico multi-varìante 402 che rappresenta una base ottica che permette al sistema di essere disaccoppiato dall'occhio di un osservatore. Due tipi di materiale possono essere utilizzati in generale. Un materiale è un materiale ad alta fedeltà, a basso angolo di attenuazione, utilizzato per presentazioni multi-dimensionali. Il secondo materiale è un materiale ad alta fedeltà, ad angolo elevato, utilizzato per sistemi fusi. I materiali possono essere adesivizzati sul retro per laminazione, o rivestiti per presentare recettività all’inchiostro. In un modo di realizzazione si può utilizzare un design di lente ad ampio angolo con 60 lenti per pollice, per la fusione temporale e la fusione EMS. Una lente ad angolo ampio da 100 lenti per pollice, con un angolo di attenuazione approssimativamente da 34 a 36 gradi può essere utilizzata per la presentazione dei dati "True View" (vista vera) . Entrambe tali lenti possono essere cilindriche. Tuttavìa altri design di lenti possono essere utilizzati, che realizzino la stessa od una equivalente funzionalità. Le variabili del sistema possono comprendere i dots per pollice (DPI) della stampante, il numero di frame visionati, lo spessore del materiale, l'indice di rifrazione della lente, l'angolo di attenuazione della lente, e la forma della lente. Questi parametri sono matematicamente correlati e noti agli esperti del settore. Una realizzazione che il materiale può includere può essere realizzata uno dei processi descritti nei brevetti US 5 362 351 o 6 060 003, i contenuti dei quali sono qui incorporati per riferimento nella loro interezza. Il termine alta fedeltà fa riferimento a materiali che presentano un angolo di attenuazione fra approssimativamente 32° ed approssimativamente 38°. Questo campo angolare è ben adatto per la presentazione di dati "True View" e fornisce immagini a fuoco nitide. Angoli di attenuazione più elevati tendono a distoreere i contorni degli oggetti e non sono altrettanto a fuoco. Un materiale ad angolo più ampio opera bene per immagini fuse in quanto l'incrocio (cross over) fra immagini tende ad essere più controllabile. Figure 4 is an illustration of exemplary hardware 400 that can be used to generate hard copies of fused images derived from remotely sensed information, such as satellite image data, in accordance with the principles of the present invention. The hardware can define the types of output available to users generated by the merged images. Three components of the hardware can be used in accordance with the principles of the present invention, including: 1. a multi-variant optical medium 402 which represents an optical base which allows the system to be decoupled from an observer's eye. Two types of material can be used in general. A material is a high-fidelity, low-angle attenuation material used for multi-dimensional presentations. The second material is a high-fidelity, high-angle material used for cast systems. The materials can be glued on the back for lamination, or coated to present receptivity to the ink. In one embodiment, a wide angle lens design with 60 lenses per inch can be used for temporal fusion and EMS fusion. A 100 lens-per-inch wide angle lens with an attenuation angle of approximately 34 to 36 degrees can be used for the presentation of "True View" data. Both of these lenses can be cylindrical. However, other lens designs may be used which provide the same or equivalent functionality. System variables can include printer dots per inch (DPI), number of frames viewed, material thickness, lens refractive index, lens attenuation angle, and lens shape. These parameters are mathematically related and known to those skilled in the art. An embodiment that the material may include may be embodied in one of the processes disclosed in US patents 5 362 351 or 6 060 003, the contents of which are incorporated herein by reference in their entirety. The term high fidelity refers to materials that exhibit an attenuation angle between approximately 32 ° and approximately 38 °. This angular field is well suited for presentation of "True View" data and provides sharp focused images. Higher attenuation angles tend to distort the edges of objects and are not as sharp. A wider angled material works well for fused images as the cross over between images tends to be more controllable.
2. Una stampante speciale può essere utilizzata per allineare otticamente il mezzo alla testa di stampa. La stampante può essere predisposta per utilizzare luce o ultrasuoni per rilevare il pattern della lente. Rilevando i picchi delle lenti e fornendo una retroazione alla testina di stampa, la stampante allinea e registra il materiale microottico. Questa registrazione consente di controllare il posizionamento dei dots così da massimizzare la fedeltà (cioè la nitidezza). Utilizzando luce e sensori, si rileva la spaziatura o passo delle lenti del mezzo e la sì fornisce in retroazione alla testa di stampa cosicché un'immagine rasterizzata viene allineata al mezzo. Speciali pattern di dots vengono utilizzati per conferire la più alta fedeltà all'immagine. La stampante può includere schiere progettate per immagini piane (X-Y). Altre schiere possono essere utilizzate in conformità con i principi della presente invenzione. 2. A special printer can be used to optically align the media to the print head. The printer can be set up to use light or ultrasound to detect the lens pattern. By detecting lens peaks and providing feedback to the printhead, the printer aligns and registers the micro-optical material. This registration allows you to control the positioning of the dots so as to maximize fidelity (i.e. sharpness). Using light and sensors, the lens spacing or pitch of the medium is detected and fed back to the print head so that a rasterized image is aligned to the medium. Special dot patterns are used to give the highest fidelity to the image. The printer may include arrays designed for flat (X-Y) images. Other arrays can be used in accordance with the principles of the present invention.
3. Con il sistema possono essere utilizzati inchiostri speciali. Tali inchiostri conferiscono alta fedeltà, bassa diffusione ed alta saturazione alla stampa. Gli inchiostri sono formulati in modo da operare bene con un rivestimento sul retro di un mezzo di stampa. Gli inchiostri sono inoltre durevoli e resistenti all'acqua. Svariati fattori possono essere implicati in un sistema di inchiostro per operare in conformità con i principi della presente invenzione. Come primo fattore, un rivestimento può essere applicato alla plastica anziché alla carta. Come secondo fattore, la stampa può essere effettuata sul retro della plastica, in modo tale che la luce viaggi attraverso la plastica e quindi torni indietro verso l'osservatore per vedere l'immagine. La stampa normale è sulla superficie e gli occhi ricevono direttamente la luce riflessa. In un modo di realizzazione un sistema totale di rivestimento viene stampato od altrimenti depositato sul retro del materiale miero-ottico cosicché l'inchiostro aderisca al rivestimento. Una plastica che presenta una bassa energia superficiale fa sì che ben poco inchiostro aderisca senza un trattamento o un rivestimento preliminare della superficie della plastica, e l'inchiostro dovrebbe presentare una pigmentazione più forte per superare due volte la trasmittanza attraverso il foglio della lente di plastica. La pigmentazione più forte può essere mantenuta con la minima dimensione possibile dei dots, che è equivalente alle dimensioni standard dei dots. 3. Special inks can be used with the system. These inks give high fidelity, low diffusion and high saturation to the print. The inks are formulated to work well with a coating on the back of a print medium. The inks are also durable and water resistant. Various factors may be involved in an ink system to operate in accordance with the principles of the present invention. As a first factor, a coating can be applied to plastic instead of paper. As a second factor, printing can be done on the back of the plastic, so that the light travels through the plastic and then returns back to the viewer to see the image. Normal print is on the surface and the eyes directly receive the reflected light. In one embodiment a total coating system is printed or otherwise deposited on the back of the myero-optical material so that the ink adheres to the coating. A plastic that has a low surface energy causes very little ink to adhere without pre-treatment or coating of the surface of the plastic, and the ink would have to have stronger pigmentation to overcome twice the transmittance through the plastic lens sheet. . The strongest pigmentation can be maintained with the smallest possible dot size, which is equivalent to the standard dot size.
La figura 5 è un diagramma di flusso di un processo esemplificativo 500 che descrive il funzionamento del sistema in conformità coi principi della presente invenzione. Il processo 500 rappresenta uno sviluppo di un modulo per un problema posto da un cliente. Come è mostrato, un cliente o responsabile di decisione pone un problema al passo 502. Dati rilevati a distanza 504 possono essere raccolti, ed esperti interni possono rivedere i dati al passo 506 per determinare come i dati possano essere meglio combinati per generare una matrice di bande disponibili per affrontare il problema posto, al passo 508. Uno schema di uscita può essere determinato per creare una presentazione di dati al passo 510. Al passo 512 può essere sviluppata una piattaforma digitale per dati (DDP) o una piattaforma di elaborazione digitale per la presentazione dei dati. Il cliente può vedere i dati da satellite combinati in una singola immagine dei dati rilevati a distanza o immagini multiple che mostrano differenti combinazioni dei dati rilevati a distanza per generare una documentazione di modulo di prova al passo 514 per assumere una decisione su come risolvere il problema posto, al passo 516. Figure 5 is a flowchart of an exemplary process 500 describing the operation of the system in accordance with the principles of the present invention. Process 500 represents a development of a module for a problem posed by a customer. As shown, a customer or decision maker poses a problem at step 502. Remote sensed data 504 can be collected, and internal experts can review the data at step 506 to determine how the data can best be combined to generate a matrix of available bands to address the problem posed at step 508. An output scheme can be determined to create a data presentation at step 510. At step 512 a digital data platform (DDP) or a digital processing platform can be developed for the presentation of the data. The customer can see the combined satellite data into a single image of the remotely sensed data or multiple images showing different combinations of the remotely sensed data to generate a test form documentation in step 514 to make a decision on how to solve the problem place, in step 516.
La figura 6 è un digramma di flusso di un altro processo esemplificativo 600 che descrive il funzionamento del sistema in conformità con i principi della presente invenzione. Al passo 602 possono essere raccolti dati rilevati a distanza. I dati rilevati a distanza possono includere dati visuali o non visuali nello spettro elettromagnetico. Al passo 604, un algoritmo può essere utilizzato per convertire i dati di immagine. Un tale algoritmo può essere reperito presso i siti web NASA o Goddard Space. Al passo 606 possono essere utilizzati algoritmi che decifrano 1<1>immagine che risulta dal passo 604. Tali algoritmi possono essere trovati sul sito web della Idaho Water Resources. Un algoritmo per rettificare l'immagine può essere attuato al passo 608. L'algoritmo può assicurare che ciascun set di dati rilevati a distanza sia allineato e presenti sostanzialmente la stessa rappresentazione ortogonale. L’algoritmo per rettificare l'immagine può essere trovato a www .microimages.com/getstart/pdf/rectify.pdf. Figure 6 is a flow chart of another exemplary process 600 describing the operation of the system in accordance with the principles of the present invention. At step 602, data detected remotely can be collected. Remote data can include visual or non-visual data in the electromagnetic spectrum. In step 604, an algorithm can be used to convert the image data. Such an algorithm can be found on the NASA or Goddard Space websites. In step 606 algorithms can be used that decrypt the 1 <1> image resulting from step 604. Such algorithms can be found on the Idaho Water Resources website. An algorithm for rectifying the image can be implemented in step 608. The algorithm can ensure that each set of remotely sensed data is aligned and has substantially the same orthogonal representation. The algorithm for rectifying the image can be found at www .microimages.com / getstart / pdf / rectify.pdf.
Al passo 610 può essere provvisto un sistema esperto che contiene algoritmi per la conversione di dati visuali. Come precedentemente descritto, il sistema esperto può essere creato sulla base di un problema posto da un cliente. Uno o più esperti sensori remoti possono fornire al sistema informazioni per convertire dati visuali. Al passo 612 un algoritmo di interfasamento può essere utilizzato per generare un'immagine fusa dei dati rilevati a distanza. L'algoritmo di interfasamento può essere ritrovato nei brevetti US 6781 707, 6894 904 e 7 019 865 che vengono qui incorporati per riferimento nella loro interezza. Al passo 614, algoritmi di stampante possono essere utilizzati per stampare l'immagine fusa. Gli algoritmi di stampante possono essere trovati nel brevetto US 6709 080 che è qui incorporato per riferimento nella sua interezza. A ciascuno dei passi mostrati, può essere attuato un algoritmo, il che si traduce nel fatto che i dati rilevati a distanza 602 vengono elaborati e stampati per consentire a un responsabile di decisione di essere in grado di visionare immagini multiple da combinare e stampare su un singolo foglio. Si deve intendere che il processo mostrato non è limitato, ma semplicemente espone un modo di realizzazione secondo i principi della presente invenzione. At step 610 an expert system may be provided which contains algorithms for converting visual data. As previously described, the expert system can be created based on a problem posed by a customer. One or more expert remote sensors can provide the system with information to convert visual data. At step 612 an interphase algorithm can be used to generate a fused image of the remotely detected data. The interfacing algorithm can be found in US patents 6781 707, 6894 904 and 7 019 865 which are incorporated herein by reference in their entirety. In step 614, printer algorithms can be used to print the fused image. The printer algorithms can be found in US 6709 080 which is incorporated herein by reference in its entirety. At each of the steps shown, an algorithm can be implemented, which results in the data detected remotely 602 being processed and printed to allow a decision maker to be able to view multiple images to combine and print on a single sheet. It is to be understood that the process shown is not limited, but merely sets out an embodiment according to the principles of the present invention.
La descrizione che precede è stata presentata a scopi di illustrazione e descrizione, e non intende essere esaustiva o limitata ai modi di realizzazione illustrativi nella forma presentata. Molte modifiche e variazioni risulteranno evidenti alle persone di ordinaria esperienza nel settore. The foregoing description has been presented for purposes of illustration and description, and is not intended to be exhaustive or limited to the illustrative embodiments in the presented form. Many changes and variations will be apparent to people of ordinary industry experience.
Claims (21)
Priority Applications (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT000620A ITTO20070620A1 (en) | 2007-08-31 | 2007-08-31 | SYSTEM AND METHOD FOR PRESENTING VISUAL DATA DETACHED IN MULTI-SPECTRAL IMAGES, MERGER, AND THREE SPACE DIMENSIONS. |
EP08795553.0A EP2193449B1 (en) | 2007-08-31 | 2008-08-25 | System and method for presenting remotely sensed visual data in multi-spectral, fusion, and three-spatial dimenson images |
CN2008801134491A CN101971167A (en) | 2007-08-31 | 2008-08-25 | System and method for presenting remotely sensed visual data in multi-spectral, fusion, and three-spatial dimenson images |
EP16191965.9A EP3159848A1 (en) | 2007-08-31 | 2008-08-25 | System and method for presenting remotely sensed visual data in multi-spectral, fusion, and three-spatial dimension images |
US12/675,920 US20110037997A1 (en) | 2007-08-31 | 2008-08-25 | System and method of presenting remotely sensed visual data in multi-spectral, fusion, and three-spatial dimension images |
CA2698090A CA2698090A1 (en) | 2007-08-31 | 2008-08-25 | System and method for presenting remotely sensed visual data in multi-spectral, fusion, and three-spatial dimenson images |
PCT/US2008/010036 WO2009032088A1 (en) | 2007-08-31 | 2008-08-25 | System and method for presenting remotely sensed visual data in multi-spectral, fusion, and three-spatial dimenson images |
ES08795553.0T ES2610502T3 (en) | 2007-08-31 | 2008-08-25 | System and method for presenting remote sensing visual data in multispectral, fused and spatial three-dimensional images |
TW097133339A TWI460399B (en) | 2007-08-31 | 2008-08-29 | System for producing remote sensed images and method for generating visual information from remotely sensed information |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
IT000620A ITTO20070620A1 (en) | 2007-08-31 | 2007-08-31 | SYSTEM AND METHOD FOR PRESENTING VISUAL DATA DETACHED IN MULTI-SPECTRAL IMAGES, MERGER, AND THREE SPACE DIMENSIONS. |
Publications (1)
Publication Number | Publication Date |
---|---|
ITTO20070620A1 true ITTO20070620A1 (en) | 2009-03-01 |
Family
ID=40299947
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
IT000620A ITTO20070620A1 (en) | 2007-08-31 | 2007-08-31 | SYSTEM AND METHOD FOR PRESENTING VISUAL DATA DETACHED IN MULTI-SPECTRAL IMAGES, MERGER, AND THREE SPACE DIMENSIONS. |
Country Status (8)
Country | Link |
---|---|
US (1) | US20110037997A1 (en) |
EP (2) | EP3159848A1 (en) |
CN (1) | CN101971167A (en) |
CA (1) | CA2698090A1 (en) |
ES (1) | ES2610502T3 (en) |
IT (1) | ITTO20070620A1 (en) |
TW (1) | TWI460399B (en) |
WO (1) | WO2009032088A1 (en) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US8456742B2 (en) * | 2008-09-30 | 2013-06-04 | Konica Minolta Opto, Inc. | Optical component manufacturing method, and lens, lens unit and camera module |
CN102779353B (en) * | 2012-05-31 | 2014-08-20 | 哈尔滨工程大学 | High-spectrum color visualization method with distance maintaining property |
CN102903114A (en) * | 2012-10-09 | 2013-01-30 | 河海大学 | Hyperspectral remotely-sensed data dimensionality reduction method based on improved hierarchical clustering |
US10033990B2 (en) | 2015-01-30 | 2018-07-24 | Jerry Nims | Digital multi-dimensional image photon platform system and methods of use |
US9992473B2 (en) | 2015-01-30 | 2018-06-05 | Jerry Nims | Digital multi-dimensional image photon platform system and methods of use |
EP3489889B1 (en) * | 2016-07-25 | 2023-09-20 | Nec Corporation | Information processing device, information processing method, and recording medium |
US10621406B2 (en) | 2017-09-15 | 2020-04-14 | Key Technology, Inc. | Method of sorting |
US10951875B2 (en) * | 2018-07-03 | 2021-03-16 | Raxium, Inc. | Display processing circuitry |
US10685230B2 (en) * | 2018-09-06 | 2020-06-16 | National Central University | Method of top-of-atmosphere reflectance-based spatiotemporal image fusion using aerosol optical depth |
CN109542062A (en) * | 2018-11-20 | 2019-03-29 | 四川省宇行规划设计有限公司 | Resource environment dynamic digital monitor control system and method, information data processing terminal |
US11917119B2 (en) | 2020-01-09 | 2024-02-27 | Jerry Nims | 2D image capture system and display of 3D digital image |
RU2764838C1 (en) * | 2021-03-24 | 2022-01-21 | Федеральное государственное бюджетное образовательное учреждение высшего образования "Рязанский государственный радиотехнический университет имени В.Ф. Уткина" | Method for combining images from matrix photodetectors of various spectral ranges |
CN113376612B (en) * | 2021-08-12 | 2021-11-23 | 成都众享天地网络科技有限公司 | Radar clutter generation method based on terrain matrixing and detection |
Family Cites Families (62)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4101210A (en) * | 1976-06-21 | 1978-07-18 | Dimensional Development Corporation | Projection apparatus for stereoscopic pictures |
US4124291A (en) | 1976-12-03 | 1978-11-07 | Dimensional Development Corp. | Control of depth of field in three dimensional photography |
US4086585A (en) | 1976-12-27 | 1978-04-25 | Dimensional Development Corporation | System and camera for controlling depth of field in three-dimensional photography |
JPH0786914B2 (en) * | 1986-11-07 | 1995-09-20 | 株式会社日立製作所 | Change detection method using images |
US5512922A (en) * | 1989-10-10 | 1996-04-30 | Xaar Limited | Method of multi-tone printing |
US5323317A (en) * | 1991-03-05 | 1994-06-21 | Hampton Terry L | Method and apparatus for determining runoff using remote geographic sensing |
WO1993013929A1 (en) | 1992-01-15 | 1993-07-22 | Karszes William M | Method of making lenticular plastics and products therefrom |
US5329595A (en) * | 1992-06-05 | 1994-07-12 | Trw Inc. | System and method for analyzing optical spectral data of a terrain image |
US5498444A (en) * | 1994-02-28 | 1996-03-12 | Microfab Technologies, Inc. | Method for producing micro-optical components |
WO1996009154A1 (en) | 1994-09-23 | 1996-03-28 | Karszes William M | Method of making lenticular plastics |
US5600402A (en) * | 1995-05-04 | 1997-02-04 | Kainen; Daniel B. | Method and apparatus for producing three-dimensional graphic images using a lenticular sheet |
US7215451B1 (en) * | 1996-04-15 | 2007-05-08 | Dai Nippon Printing Co., Ltd. | Reflection type diffuse hologram, hologram for reflection hologram color filters, etc., and reflection type display device using such holograms |
US6046848A (en) * | 1996-12-20 | 2000-04-04 | Eastman Kodak Company | Integral image display |
US5828495A (en) * | 1997-07-31 | 1998-10-27 | Eastman Kodak Company | Lenticular image displays with extended depth |
US5867322A (en) * | 1997-08-12 | 1999-02-02 | Eastman Kodak Company | Remote approval of lenticular images |
US6016225A (en) * | 1997-11-07 | 2000-01-18 | Vision International Production, Inc. | Data card with lenticular optical display |
US6211896B1 (en) * | 1998-12-16 | 2001-04-03 | Eastman Kodak Company | Method for producing lenticular images |
US6366681B1 (en) * | 1999-04-07 | 2002-04-02 | Space Imaging, Lp | Analysis of multi-spectral data for extraction of chlorophyll content |
WO2000077558A1 (en) * | 1999-06-15 | 2000-12-21 | Dimensional Media Associates, Inc. | Lenticular imaging system, method, and apparatus |
US7223364B1 (en) * | 1999-07-07 | 2007-05-29 | 3M Innovative Properties Company | Detection article having fluid control film |
US7058197B1 (en) * | 1999-11-04 | 2006-06-06 | Board Of Trustees Of The University Of Illinois | Multi-variable model for identifying crop response zones in a field |
WO2001082593A1 (en) * | 2000-04-24 | 2001-11-01 | The Government Of The United States Of America, As Represented By The Secretary Of The Navy | Apparatus and method for color image fusion |
US6760021B1 (en) * | 2000-07-13 | 2004-07-06 | Orasee Corp. | Multi-dimensional image system for digital image input and output |
US6709080B2 (en) * | 2000-12-08 | 2004-03-23 | Orasee Corp. | Method and apparatus for direct printing on a lenticular foil |
US20020121336A1 (en) * | 2000-12-22 | 2002-09-05 | Karszes William M. | System and method for multidimensional imagery |
US20020085207A1 (en) * | 2000-12-27 | 2002-07-04 | Hait John N. | Hyper-resolution, topographic, holographic imaging apparatus and method |
AU2002248400A1 (en) * | 2001-02-06 | 2002-08-19 | Orasee Corp. | Method for scaling and interlacing multidimensional and motion images |
US6816627B2 (en) * | 2001-04-12 | 2004-11-09 | Lockheed Martin Corporation | System for morphological image fusion and change detection |
WO2003001437A1 (en) * | 2001-06-21 | 2003-01-03 | Orasee Corp. | System of processing and printing multidimensional and motion images from medical data sets |
US7088396B2 (en) * | 2001-12-21 | 2006-08-08 | Eastman Kodak Company | System and camera for creating lenticular output from digital images |
US6894809B2 (en) * | 2002-03-01 | 2005-05-17 | Orasee Corp. | Multiple angle display produced from remote optical sensing devices |
US6781707B2 (en) | 2002-03-22 | 2004-08-24 | Orasee Corp. | Multi-spectral display |
KR100488685B1 (en) * | 2002-08-22 | 2005-05-11 | 한국과학기술원 | Image Processing Method for Automatic Image Registration and Correction |
US6898331B2 (en) * | 2002-08-28 | 2005-05-24 | Bae Systems Aircraft Controls, Inc. | Image fusion system and method |
WO2004021151A2 (en) * | 2002-08-30 | 2004-03-11 | Orasee Corp. | Multi-dimensional image system for digital image input and output |
TW559959B (en) | 2002-09-03 | 2003-11-01 | Via Tech Inc | TAB package and method for fabricating the same |
WO2004027492A1 (en) * | 2002-09-19 | 2004-04-01 | Mitsubishi Denki Kabushiki Kaisha | Display unit and electronic apparatus equipped with display unit |
US7283664B2 (en) * | 2002-09-25 | 2007-10-16 | Southwest Research Institute | Interactive computer aided analysis of images from sensor combinations |
GB0227887D0 (en) * | 2002-11-29 | 2003-01-08 | Mirada Solutions Ltd | Improvements in or relating to image registration |
US7340099B2 (en) * | 2003-01-17 | 2008-03-04 | University Of New Brunswick | System and method for image fusion |
US6909815B2 (en) * | 2003-01-31 | 2005-06-21 | Spectral Sciences, Inc. | Method for performing automated in-scene based atmospheric compensation for multi-and hyperspectral imaging sensors in the solar reflective spectral region |
US20050111756A1 (en) * | 2003-11-25 | 2005-05-26 | Turner Robert W. | System and method for generating coherent data sets of images from various sources |
US7620265B1 (en) * | 2004-04-12 | 2009-11-17 | Equinox Corporation | Color invariant image fusion of visible and thermal infrared video |
US7564019B2 (en) * | 2005-08-25 | 2009-07-21 | Richard Ian Olsen | Large dynamic range cameras |
TWI250445B (en) * | 2004-10-15 | 2006-03-01 | Kwang-Chu Yang | Continuous laser printer with adjustable printing speed |
US7450761B2 (en) * | 2004-11-02 | 2008-11-11 | The Boeing Company | Spectral geographic information system |
WO2006113583A2 (en) * | 2005-04-15 | 2006-10-26 | Mississippi State University | Remote sensing imagery accuracy analysis method and apparatus |
US7491944B1 (en) * | 2005-07-14 | 2009-02-17 | Sandia Corporation | Method to analyze remotely sensed spectral data |
US8189877B2 (en) * | 2005-10-21 | 2012-05-29 | Carnegie Institution Of Washington | Remote sensing analysis of forest disturbances |
US20070111171A1 (en) * | 2005-10-27 | 2007-05-17 | Mary Kane | Lenticular teaching and greeting card apparatus |
JP4723387B2 (en) * | 2006-01-18 | 2011-07-13 | 富士フイルム株式会社 | Inkjet drawing method and apparatus |
US8224018B2 (en) * | 2006-01-23 | 2012-07-17 | Digimarc Corporation | Sensing data from physical objects |
US7613360B2 (en) * | 2006-02-01 | 2009-11-03 | Honeywell International Inc | Multi-spectral fusion for video surveillance |
US7805020B2 (en) * | 2006-07-25 | 2010-09-28 | Itt Manufacturing Enterprises, Inc. | Motion compensated image registration for overlaid/fused video |
US8538195B2 (en) * | 2007-09-17 | 2013-09-17 | Raytheon Company | Hyperspectral image dimension reduction system and method |
KR100944462B1 (en) * | 2008-03-07 | 2010-03-03 | 한국항공우주연구원 | Satellite image fusion method and system |
US9117133B2 (en) * | 2008-06-18 | 2015-08-25 | Spectral Image, Inc. | Systems and methods for hyperspectral imaging |
CN101394487B (en) * | 2008-10-27 | 2011-09-14 | 华为技术有限公司 | Image synthesizing method and system |
US8136938B2 (en) * | 2009-05-19 | 2012-03-20 | William Karszes | System and method for printing on lenticular sheets |
GB0914982D0 (en) * | 2009-08-27 | 2009-09-30 | Univ East Anglia | Methods and apparatus for generating accented image data |
US8503761B2 (en) * | 2009-11-12 | 2013-08-06 | Harris Corporation | Geospatial modeling system for classifying building and vegetation in a DSM and related methods |
US8559719B2 (en) * | 2010-03-12 | 2013-10-15 | The United States Of America, As Represented By The Secretary Of The Navy | Spectral anomaly detection in deep shadows |
-
2007
- 2007-08-31 IT IT000620A patent/ITTO20070620A1/en unknown
-
2008
- 2008-08-25 EP EP16191965.9A patent/EP3159848A1/en not_active Withdrawn
- 2008-08-25 CA CA2698090A patent/CA2698090A1/en not_active Abandoned
- 2008-08-25 ES ES08795553.0T patent/ES2610502T3/en active Active
- 2008-08-25 EP EP08795553.0A patent/EP2193449B1/en active Active
- 2008-08-25 WO PCT/US2008/010036 patent/WO2009032088A1/en active Application Filing
- 2008-08-25 CN CN2008801134491A patent/CN101971167A/en active Pending
- 2008-08-25 US US12/675,920 patent/US20110037997A1/en not_active Abandoned
- 2008-08-29 TW TW097133339A patent/TWI460399B/en active
Also Published As
Publication number | Publication date |
---|---|
CN101971167A (en) | 2011-02-09 |
CA2698090A1 (en) | 2009-03-12 |
EP2193449B1 (en) | 2016-10-12 |
EP2193449A1 (en) | 2010-06-09 |
WO2009032088A1 (en) | 2009-03-12 |
TWI460399B (en) | 2014-11-11 |
TW200921045A (en) | 2009-05-16 |
US20110037997A1 (en) | 2011-02-17 |
EP2193449A4 (en) | 2012-08-29 |
EP3159848A1 (en) | 2017-04-26 |
ES2610502T3 (en) | 2017-04-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
ITTO20070620A1 (en) | SYSTEM AND METHOD FOR PRESENTING VISUAL DATA DETACHED IN MULTI-SPECTRAL IMAGES, MERGER, AND THREE SPACE DIMENSIONS. | |
Woodget et al. | Drones and digital photogrammetry: from classifications to continuums for monitoring river habitat and hydromorphology | |
DeBell et al. | Water resource management at catchment scales using lightweight UAVs: Current capabilities and future perspectives | |
Purkis et al. | Remote sensing and global environmental change | |
US6894809B2 (en) | Multiple angle display produced from remote optical sensing devices | |
CN109255843A (en) | Three-dimensional rebuilding method, device and augmented reality AR equipment | |
JP2011100426A (en) | Image processing device and method | |
US6781707B2 (en) | Multi-spectral display | |
Zietara | Creating Digital Elevation Model (DEM) based on ground points extracted from classified aerial images obtained from Unmanned Aerial Vehicle (UAV) | |
CN102609983A (en) | Reconstruction method of lightning three-dimensional images based on images and stereoscopic vision | |
Dalla Mura et al. | Challenges and opportunities of multimodality and data fusion in remote sensing | |
Harding et al. | TouchTerrain—3D printable terrain models | |
Zhang | Ten years of technology advancement in remote sensing and the research in the CRC-AGIP lab in GCE | |
Aber et al. | The challenges of processing kite aerial photography imagery with modern photogrammetry techniques | |
Das | Land use/Land cover change detection: An object oriented approach, Münster, Germany | |
Congalton et al. | Unmanned Aerial Systems (UAS) and Thematic Map Accuracy Assessment | |
Buchroithner et al. | Generating a true-3D image map of high relief terrain using lenticular foil | |
Forster | Satellite remote sensing for land information in developing countries | |
Tabrizian | Integrating Geospatial Computation, Virtual Reality and Tangible Interaction to Improve Landscape Design and Research | |
Renaud et al. | Evaluation of Unmanned Aircraft Systems for flood risk management: results of terrain and structure assessments | |
Hossain et al. | Introduction to remote sensing | |
Pertusa et al. | Pattern Recognition and Image Analysis: 11th Iberian Conference, IbPRIA 2023, Alicante, Spain, June 27–30, 2023, Proceedings | |
Atilola | Mapping with SPOT satellite imagery: the Nigerian experience | |
Ye | Comparison between high-resolution aerial imagery and lidar data classification of canopy and grass in the NESCO neighborhood, Indianapolis, Indiana | |
Zhang | The Frequent Image Frames Enhanced Digital Ortho-Rectified Mapping (FIFEDOM) camera: calibration and application to retrieve vegetation structure parameters. |