ITUB20154043A1 - Sistema e metodo di lettura di informazioni codificate - Google Patents

Sistema e metodo di lettura di informazioni codificate Download PDF

Info

Publication number
ITUB20154043A1
ITUB20154043A1 ITUB2015A004043A ITUB20154043A ITUB20154043A1 IT UB20154043 A1 ITUB20154043 A1 IT UB20154043A1 IT UB2015A004043 A ITUB2015A004043 A IT UB2015A004043A IT UB20154043 A ITUB20154043 A IT UB20154043A IT UB20154043 A1 ITUB20154043 A1 IT UB20154043A1
Authority
IT
Italy
Prior art keywords
dimensional
dimensional images
cameras
planes
faces
Prior art date
Application number
ITUB2015A004043A
Other languages
English (en)
Inventor
Francesco D'ercoli
Marco Bassani
Claudio Saporetti
Marco Cumoli
Original Assignee
Datalogic IP Tech Srl
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Family has litigation
First worldwide family litigation filed litigation Critical https://patents.darts-ip.com/?family=55085770&utm_source=***_patent&utm_medium=platform_link&utm_campaign=public_patent_search&patent=ITUB20154043(A1) "Global patent litigation dataset” by Darts-ip is licensed under a Creative Commons Attribution 4.0 International License.
Application filed by Datalogic IP Tech Srl filed Critical Datalogic IP Tech Srl
Priority to ITUB2015A004043A priority Critical patent/ITUB20154043A1/it
Priority to US15/764,985 priority patent/US10438035B2/en
Priority to PCT/IB2016/055836 priority patent/WO2017056035A1/en
Priority to EP16794425.5A priority patent/EP3356994B1/en
Publication of ITUB20154043A1 publication Critical patent/ITUB20154043A1/it

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10712Fixed beam scanning
    • G06K7/10722Photodetector array or CCD scanning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/251Fusion techniques of input or preprocessed data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/10544Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum
    • G06K7/10821Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices
    • G06K7/10861Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation by scanning of the records by radiation in the optical part of the electromagnetic spectrum further details of bar or optical code scanning devices sensing of data fields affixed to objects or articles, e.g. coded labels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14131D bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06KGRAPHICAL DATA READING; PRESENTATION OF DATA; RECORD CARRIERS; HANDLING RECORD CARRIERS
    • G06K7/00Methods or arrangements for sensing record carriers, e.g. for reading patterns
    • G06K7/10Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation
    • G06K7/14Methods or arrangements for sensing record carriers, e.g. for reading patterns by electromagnetic radiation, e.g. optical sensing; by corpuscular radiation using light without selection of wavelength, e.g. sensing reflected white light
    • G06K7/1404Methods for optical code recognition
    • G06K7/1408Methods for optical code recognition the method being specifically adapted for the type of code
    • G06K7/14172D bar codes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/12Acquisition of 3D measurements of objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Electromagnetism (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Toxicology (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Circuits Of Receivers In General (AREA)

Description

Sistema e metodo di lettura di informazioni codificate
La presente invenzione riguarda un sistema ed un metodo di lettura di informazioni codificate.
In particolare, la presente invenzione riguarda un sistema ed un metodo per la lettura di informazioni codificate da un oggetto.
Con il termine “informazione codificata” si intende indicare l'insieme dei dati identificativi contenuti in un codice, preferibilmente un codice ottico. Con il termine “codice ottico” si intende indicare una qualsiasi rappresentazione grafica avente la funzione di memorizzare la suddetta informazione codificata. Il termine "codice ottico" comprende rappresentazioni grafiche rilevabili sia nel campo della luce visibile sia nella gamma di lunghezze d’onda compresa tra l’infrarosso e l’ultravioletto.
Esempi particolari di codice ottico sono costituiti da codici lineari o codici bidimensionali, in cui l'informazione è codificata tramite opportune combinazioni di elementi di forma prefissata, ad esempio quadrati, rettangolari o esagonali, di colore scuro (normalmente nero) separati da elementi chiari (spazi, normalmente bianchi), quali i codici a barre, i codici stacked, i codici bidimensionali in genere, i codici a colori, ecc. Il termine "codice ottico" comprende inoltre, più in generale, anche altre forme grafiche con funzione di codifica di informazioni, includenti caratteri stampati in chiaro (lettere, numeri, ecc.) e forme ("pattern") particolari (quali ad esempio timbri, logo, firme, impronte digitali ecc.).
Le informazioni codificate possono essere relative, ad esempio, a distanza, volume, ingombro, e/o dati identificativi di un oggetto.
NeN’ambito dei trasporti e della logistica sono comunemente usati sistemi di trasporto e smistamento di pacchi, valigie e più in generale oggetti. In questi sistemi, gli oggetti vengono posti su un nastro trasportatore in movimento ed identificati sulla base della lettura di un codice ottico stampato su un’etichetta associata a ciascun oggetto. La lettura del codice ottico viene effettuata in modo automatico mediante l'utilizzo di un apposito sistema automatizzato di lettura di informazioni codificate.
Come descritto da EP2681138, in passato, quando esistevano solo i codici lineari, la lettura dei codici ottici veniva effettuata tramite scansione sul codice ottico di un fascio di luce laser emesso da un apposito lettore laser. Con l’avvento dei codici bidimensionali, si è diffuso l’impiego di telecamere digitali, tipicamente utilizzanti sensori CCD/CMOS. Tali telecamere permettono una maggior flessibilità d’uso; esse sono infatti in grado di leggere sia i tradizionali codici lineari, sia quelli bidimensionali, sia gli altri tipi di codice, oltre ad offrire funzioni aggiuntive come l’OCR (riconoscimento ottico di caratteri).
La Richiedente ha osservato che le telecamere digitali utilizzate in tali sistemi sono telecamere bidimensionali (2D). Tuttavia, l'utilizzo di telecamere 2D è affetto da problemi di distorsione prospettica dell’immagine dovuti al fatto che si utilizza un sistema 2D per riprendere un oggetto che, in realtà, è tridimensionale (3D). L’eliminazione di tale distorsione dalle immagini 2D acquisite richiede l’uso di algoritmi di correzione complessi.
Inoltre, per garantire l’identificazione di informazioni codificate che possono essere presenti su una faccia qualsiasi dell’oggetto, tali sistemi richiedono l’uso di più telecamere 2D. La Richiedente ha, però, osservato che, per garantire la rilevazione di un codice ottico in ogni situazione possibile, è necessario sovradimensionare il numero di telecamere in modo da garantire che ci sia almeno una telecamera che sia in grado di rilevare tutto il codice ottico nella sua interezza, anche nel caso più sfavorevole (vale a dire, codice ottico posizionato vicino alla telecamera e/o codice ottico di dimensioni massime). In aggiunta, nel caso di oggetti molto vicini l’uno all’altro lungo la direzione di avanzamento del nastro trasportatore e/o lungo una direzione perpendicolare ad essa, vi è il problema di distinguere tali oggetti per effettuare una corretta associazione tra codice ottico e rispettivo oggetto. Come evidente da EP2681138, ovviare a tale problema richiede l’uso di strumentazione aggiuntiva e/o di algoritmi complicati e spesso si risolve in un calo delle prestazioni garantite di lettura per i limiti intrinsechi della soluzione implementata (si richiede al cliente di mantenere gli oggetti molto distanziati tra loro, di ridurre la velocità di movimentazione, di ridurre le dimensioni massime e/o aumentare le dimensioni minime degli oggetti trattati, ecc).
La Richiedente si è quindi posta il problema tecnico di fornire un sistema ed un metodo di lettura di informazioni codificate migliorato rispetto a quelli della tecnica nota.
In particolare, la Richiedente si è posta il problema tecnico di fornire un sistema ed un metodo di lettura di informazioni codificate che consenta di eliminare i problemi sopra menzionati relativi alla distorsione prospettica deN’immagine, al sovradimensionamento delle telecamere ed alla distinzione di oggetti molto vicini tra loro, sia lungo la direzione di avanzamento del nastro trasportatore sia lungo una direzione perpendicolare ad essa.
La Richiedente ha trovato che tale problema tecnico può essere risolto mediante l'utilizzo di telecamere tridimensionali atte ad acquisire immagini tridimensionali deN’oggetto da diverse direzioni (vale a dire, da diversi punti di osservazione) ed una opportuna elaborazione delle immagini tridimensionali acquisite, atta a generare immagini bidimensionali deH’oggetto su cui implementare algoritmi di riconoscimento di informazioni codificate; l’elaborazione delle immagini comprendendo una operazione di fusione delle immagini tridimensionali acquisite dalle telecamere digitali in modo da ottenere una singola immagine fusa tridimensionale rappresentativa dell'oggetto nella sua interezza; una operazione di individuazione di piani su cui giacciono facce deH’oggetto (vale a dire, facce che delimitano il volume dell’oggetto); ed una operazione di estrazione, dalla singola immagine fusa tridimensionale, di immagini bidimensionali che giacciono sui piani individuati.
La Richiedente ha, infatti, percepito che l’ottenimento di immagini bidimensionali dell’oggetto dalle immagini tridimensionali consente di ottenere immagini bidimensionali già prive di qualsiasi distorsione prospettica. Inoltre, considerato che le immagini tridimensionali portano già in sé informazioni di volume dell’oggetto, è possibile, grazie all’operazione di individuazione dei piani su cui giacciono le facce dell’oggetto, distinguere -già alla radice- un oggetto dall’altro per cui si è sicuri che le immagini bidimensionali che si ottengono con la suddetta elaborazione delle immagini 3D sono relative ad un unico e solo oggetto (e, quindi, contengono solo informazioni codificate appartenenti a tale oggetto). In altre parole, si elimina alla fonte il problema di dover associare correttamente un codice ottico al rispettivo oggetto. Le immagini bidimensionali ottenute con la metodologia dell’invenzione sono dunque già rappresentative di tutte le facce di interesse di un oggetto senza ridondanza e senza distorsioni prospettiche. Ciò rappresenta un notevole progresso tecnico rispetto alle tecniche note sopra descritte.
Inoltre, con Γ utilizzo di telecamere tridimensionali, non è più necessario sovradimensionare il numero di telecamere come sopra descritto. Infatti, in questo caso la sovrapposizione è richiesta solo per garantire di riprendere -con la pluralità di telecamere tridimensionali- tutto il volume dell’ oggetto, senza discontinuità, è non è più legata alle caratteristiche dell’applicazione: dimensioni minime e massime degli oggetti e dei codici ottici che devono essere riconosciuti. Per di più, avendo a disposizione la suddetta singola immagine fusa tridimensionale rappresentativa dell’oggetto nella sua interezza, è possibile fornire informazioni relative alla forma e/o volume dell’oggetto, senza richiedere strumentazione aggiuntiva (quale un sensore di volume).
Infine, considerato che gli algoritmi di riconoscimento di informazioni codificate vengono eseguiti sulle immagini bidimensionali, si possono vantaggiosamente utilizzare algoritmi ben noti nell’arte, operanti su immagini bidimensionali.
In un suo primo aspetto, l’invenzione riguarda dunque un sistema di lettura di informazioni codificate da un oggetto, comprendente:
- una pluralità di telecamere tridimensionali configurate in modo da acquisire immagini tridimensionali dell’oggetto da diverse direzioni;
- un elaboratore configurato per elaborare le immagini tridimensionali acquisite dalla pluralità di telecamere tridimensionali in modo da:
• fondere dette immagini tridimensionali in modo da ottenere una singola immagine fusa tridimensionale rappresentativa dell’oggetto nella sua interezza;
• individuare piani su cui giacciono facce dell’oggetto;
• estrarre, da detta singola immagine fusa tridimensionale, immagini bidimensionali che giacciono sui piani individuati;
• applicare algoritmi di riconoscimento di informazioni codificate su almeno parte delle immagini bidimensionali estratte.
In un suo secondo aspetto l'invenzione riguarda un metodo per la lettura di informazioni codificate da un oggetto, comprendente le seguenti fasi:
- acquisire, mediante una pluralità di telecamere tridimensionali, immagini tridimensionali deH'oggetto da diverse direzioni;
- elaborare le immagini tridimensionali acquisite mediante le seguenti fasi:
• fondere dette immagini tridimensionali in modo da ottenere una singola immagine fusa tridimensionale rappresentativa dell’oggetto nella sua interezza;
• individuare piani su cui giacciono facce deH’oggetto;
• estrarre, da detta singola immagine fusa tridimensionale, immagini bidimensionali che giacciono sui piani individuati;
• applicare algoritmi di riconoscimento di informazioni codificate su almeno parte delle immagini bidimensionali estratte.
La presente invenzione in almeno uno dei suddetti aspetti può presentare almeno una delle caratteristiche preferite che seguono.
In una forma di realizzazione, l’elaboratore è configurato per applicare gli algoritmi di riconoscimento di informazioni codificate separatamente su ciascuna di detta almeno parte delle immagini bidimensionali estratte.
In una forma di realizzazione, l’elaboratore è configurato per applicare gli algoritmi di riconoscimento di informazioni codificate su tutte le immagini bidimensionali estratte.
In una forma di realizzazione preferita, l’elaboratore è configurato per unire detta almeno parte delle (preferibilmente, tutte le) immagini bidimensionali estratte in una singola immagine bidimensionale combinata, comprendente uno sviluppo in piano di detta almeno parte delle (preferibilmente, di tutte le) immagini bidimensionali estratte. Preferibilmente, l’elaboratore è configurato per applicare gli algoritmi di riconoscimento di informazioni codificate su detta immagine bidimensionale combinata. Ciò consente vantaggiosamente di applicare i suddetti algoritmi una sola volta, ad un’unica immagine. Rispetto a soluzioni note che prevedono di utilizzare una pluralità di telecamere bidimensionali, ognuna dotata di una propria unità di elaborazione per applicare gli algoritmi di riconoscimento alle immagini acquisite dalle rispettive telecamere, nonché l’uso di tecniche per combinare successivamente, in modo opportuno, i risultati ottenuti da ciascuna unità di elaborazione, questa soluzione consente di ridurre notevolmente il carico computazionale.
Preferibilmente, l’elaboratore è configurato per applicare gli algoritmi di riconoscimento di informazioni codificate solo alle immagini bidimensionali (o porzioni di esse) che -tra le immagini bidimensionali estratte- contengono informazioni codificate. Ciò consente vantaggiosamente di ridurre il carico computazionale. Detta almeno parte delle immagini bidimensionali estratte su cui l’elaboratore applica gli algoritmi di riconoscimento sono dunque, preferibilmente, le immagini bidimensionali che, tra quelle estratte, contengono informazioni codificate.
Preferibilmente, le immagini tridimensionali acquisite dalla pluralità di telecamere sono rappresentate da rispettive nuvole di punti (vale a dire, voxels) tridimensionali.
Preferibilmente, l’elaboratore è configurato per eseguire la fusione:
- rappresentando le nuvole di punti mediante rispettive pile di piani paralleli (“plane-stack”), impilati lungo una predeterminata direzione;
- individuando piani condivisi dalle pile di piani;
- eseguendo un algoritmo di fusione di dati sui punti delle nuvole di punti che appartengono ai piani condivisi individuati.
Preferibilmente, l’algoritmo di fusione di dati è atto a generare, per ciascun punto appartenente ai piani condivisi, un dato unico (ad esempio, il valore dell’intensità di voxel) a partire da dati multipli associati a ciascuno di detti punti nelle diverse nuvole di punti.
Preferibilmente, quando la pluralità di telecamere tridimensionali comprende più di due telecamere, la fusione viene eseguita per coppie di immagini tridimensionali. Ad esempio, in caso di tre telecamere, si può prevedere di eseguire prima la fusione tra due immagini tridimensionali acquisite da una prima coppia di telecamere e poi tra l’immagine fusa cosi ottenuta e l’immagine tridimensionale acquisita dalla terza telecamera.
L’individuazione dei piani su cui giacciono facce dell’oggetto può essere effettuata sulle immagini tridimensionali acquisite e/o sulla singola immagine fusa tridimensionale.
L’elaboratore può essere configurato per effettuare prima la fusione e poi l'individuazione dei piani o, viceversa, prima l’individuazione dei piani e poi la fusione, oppure per effettuare le due fasi sostanzialmente contemporaneamente. In particolare, le fasi di fusione delle immagini tridimensionali ed individuazione dei piani possono essere eseguite come due fasi distinte, una di seguito all’altra. Ad esempio, si può prevedere di eseguire prima la fase di fusione e, successivamente, di eseguire la fase di individuazione dei piani dalla singola immagine fusa tridimensionale. Oppure, la fase di individuazione dei piani può essere eseguita sulle immagini tridimensionali acquisite dalle telecamere, prima di eseguire la fase di fusione in modo da guidare la fase di fusione stessa. Ad esempio, ciò può essere sfruttato per indirizzare la selezione della direzione da utilizzare per impilare i piani nel processo di fusione. Tale direzione può, ad esempio, essere selezionata in modo da essere perpendicolare ad una faccia dell’oggetto (così da avere il fascio di piani parallelo a tale faccia dell’oggetto). Secondo un’altra forma di realizzazione, le due fasi possono essere effettuate con una certa sovrapposizione ed interdipendenza.
Preferibilmente, l’individuazione dei piani su cui giacciono facce dell’oggetto è limitata a porzioni di detti piani che corrispondono a dette facce dell’oggetto. Ciò consente vantaggiosamente di ridurre il tempo di esecuzione degli algoritmi di riconoscimento di informazioni codificate e di ridurre lo spazio di memoria richiesto per la memorizzazione delle immagini bidimensionali estratte.
L’individuazione dei piani può essere limitata ad una faccia o ad un sotto-insieme delle facce dell’oggetto o può essere estesa a tutte le facce. Ad esempio, l’estrazione dei piani può essere limitata alle sole facce piane dell’oggetto (nel caso in cui l’oggetto non abbia tutte le facce assimilabili a facce sostanzialmente piane) e/o alle facce su cui è presente una regione di interesse dell’oggetto (ad esempio, una regione comprendente un’informazione codificata, vale a dire un codice ottico).
L’estensione della fase di individuazione dei piani a tutte le facce dell’oggetto può essere vantaggiosa per fornire in uscita informazioni relative all’oggetto nella sua interezza, utili - ad esempio- a verificare l’integrità di tutte le facce del pacco, incluse quelle facce prive di informazioni codificate da leggere, e/o a ricavare informazioni di volume.
L’individuazione dei piani può essere effettuata tramite algoritmi atti ad applicare opportune correlazioni geometriche a punti di una nuvola di punti tridimensionale rappresentativa di detta immagine fusa tridimensionale.
Preferibilmente, l’elaboratore è configurato per estrarre dette immagini bidimensionali individuando, da una nuvola di punti tridimensionale rappresentativa di detta immagine fusa tridimensionale, i punti che giacciono sui piani individuati.
Preferibilmente, (ad esempio quando l’individuazione di piani non è limitata alle sole porzioni di detti piani che corrispondono alle facce dell’oggetto), l’estrazione delle immagini bidimensionali è limitata ad una porzione di immagine che corrisponde a dette facce dell’oggetto. Ciò consente vantaggiosamente di ridurre il tempo di esecuzione degli algoritmi di riconoscimento di informazioni codificate e di ridurre lo spazio di memoria richiesto per la memorizzazione delle immagini bidimensionali.
In una forma di realizzazione, tutte o alcune immagini bidimensionali estratte da detta immagine fusa tridimensionale sono fornite in uscita dal sistema di lettura di informazioni codificate come immagini separate.
In una forma di realizzazione, tutte o alcune immagini bidimensionali estratte da detta immagine fusa tridimensionale sono fornite in uscita dal sistema di lettura di informazioni codificate in una singola immagine bidimensionale combinata, comprendente uno sviluppo in piano di dette immagini bidimensionali estratte. Per pluralità di telecamere si intendono indicare due o più telecamere.
Le telecamere tridimensionali utilizzano una tecnologia del tipo range imaging. Con il termine “range imaging" si intende una tecnologia usata da una telecamera tridimensionale atta a fornire, per ogni punto (o voxel) di un’immagine, informazioni sulla posizione del voxel nello spazio (in un sistema di coordinate qualsiasi, tipo, ad esempio, cartesiano, polare o qualsiasi rappresentazione ibrida), unitamente ad informazioni sull’intensità del voxel (ad esempio, fornita in livelli di grigio o di colore). Ad esempio, ad ogni voxel può essere associata una coppia di coordinate cartesiane bidimensionali X,Y, un valore indicativo dell’intensità del voxel (ad esempio, fornita in livelli di grigio o di colore) ed un valore indicativo della distanza del voxel da un punto predeterminato, oppure una terna di coordinate cartesiane tridimensionali Χ,Υ,Ζ ed un valore indicativo dell’intensità del voxel.
Preferibilmente, le telecamere tridimensionali sono selezionate dal gruppo comprendente stereo camere, telecamere TOF (dove TOF è l’acronimo di “timeof-flight”), telecamere a luce strutturata e telecamere plenottiche (o a campo di luce, in inglese “Nght-field”).
La pluralità di telecamere tridimensionali è configurata in modo da acquisire immagini tridimensionali dell’oggetto all’interno di un predeterminato volume di misura. Detto predeterminato volume di misura è preferibilmente definito nel sistema di lettura dall’insieme dei volumi di rilevazione di ciascuna telecamera. Preferibilmente, il volume di misura è dimensionato in modo da garantire la rilevazione di oggetti di predeterminate dimensioni minime e massime.
Le telecamere tridimensionali sono preferibilmente disposte in modo da garantire una ripresa di tutto il volume dell’oggetto all’interno di detto predeterminato volume di misura.
Le telecamere tridimensionali sono preferibilmente selezionate in numero in modo da garantire una ripresa di tutto il volume dell’oggetto all’interno di detto predeterminato volume di misura.
Le telecamere tridimensionali sono preferibilmente configurate (ad esempio, in termini di campo visivo e profondità di campo) in modo garantire una ripresa di tutto il volume dell’oggetto all’interno di detto predeterminato volume di misura. Le telecamere tridimensionali sono preferibilmente configurate in modo da garantire una certa sovrapposizione tra le immagini tridimensionali acquisite. Ciò consente vantaggiosamente di generare detta immagine fusa tridimensionale, rappresentativa dell’oggetto nella sua interezza, senza discontinuità.
Preferibilmente, l’elaboratore è configurato per elaborare le immagini tridimensionali acquisite a stessi istanti dalla pluralità di telecamere tridimensionali. A tal fine, il sistema di lettura comprende preferibilmente un sistema di sincronismo, atto sincronizzare gli istanti di acquisizione delle diverse telecamere tridimensionali.
Preferibilmente, detti algoritmi di riconoscimento di informazioni codificate sono algoritmi atti ad operare su immagini bidimensionali.
L’oggetto ha preferibilmente una forma comprendente facce sostanzialmente piane. Più preferibilmente, l’oggetto ha una forma con tutte le facce sostanzialmente piane o assimilabili a facce sostanzialmente piane. Ad esempio, l’oggetto può avere sostanzialmente la forma di un cubo o parallelepipedo.
Preferibilmente, l’oggetto è in movimento rispetto alle telecamere. Preferibilmente, il sistema comprende un sistema a nastro trasportatore per trasportare l’oggetto. Preferibilmente, le telecamere sono fisse rispetto al nastro trasportatore.
Preferibilmente, si prevede di effettuare una procedura di calibrazione (preferibilmente in fase di installazione del sistema di lettura) atta a garantire un sistema di riferimento comune tra le telecamere.
Preferibilmente, si prevede di effettuare una procedura di calibrazione (preferibilmente in fase di installazione del sistema di lettura) atta a consentire di mappare le coordinate di un punto di un immagine dal sistema di riferimento di dette telecamere ad un sistema di riferimento (ad esempio cartesiano 3D) del sistema di lettura (definito, ad esempio, da una direzione Y’ che è parallela ad una direzione di avanzamento A del nastro trasportatore, da una direzione X che è perpendicolare -nel piano del nastro trasportatore- alla direzione Y’ e da una direzione Z’ perpendicolare al piano del nastro trasportatore).
Ulteriori caratteristiche e vantaggi della presente invenzione risulteranno meglio dalla seguente descrizione dettagliata di una sua forma di attuazione preferita, fatta a titolo puramente esemplificativo e non limitativo con riferimento ad alcuni dei disegni allegati. In tali disegni:
- la figura 1 è una vista schematica di un sistema di lettura di informazioni codificate secondo una forma di realizzazione della presente invenzione;
- la figura 2 rappresenta schematicamente il funzionamento di due telecamere 3D del sistema di figura 1 ;
- la figura 3 mostra schematicamente una fase di fusione di due immagini tridimensionali;
- la figura 4 mostra schematicamente il risultato di una fase di individuazione di piani su cui giacciono facce di un oggetto e di una fase di estrazione di immagini bidimensionali che giacciono sui piani individuati;
- la figura 5 mostra schematicamente una singola immagine bidimensionale combinata, comprendente uno sviluppo in piano dell’oggetto.
La figura 1 mostra un sistema 100 di lettura di informazioni codificate 2 secondo una forma di realizzazione dell'invenzione.
Il sistema 100 è un sistema automatizzato, atto leggere in modo automatico informazioni codificate 2 presenti su oggetti 1.
Il sistema 100 può essere parte di un sistema di trasporto e smistamento oggetti 1 (ad esempio, pacchi e/o valigie).
Il sistema 100 comprende un nastro trasportatore 10 che movimenta gli oggetti 1 lungo una direzione di avanzamento A rispetto ad una pluralità di telecamere 20. Per semplicità di illustrazione, in figura 1 sono mostrati solo un oggetto 1 e due telecamere 20.
Ciascun oggetto 1 è provvisto su almeno una delle sue facce 25 di almeno un codice ottico 3. Il codice ottico 3 può essere posizionato su una o più facce 25 qualsiasi (preferibilmente tranne quella inferiore) dell’oggetto 1.
Al fine di rilevare un codice ottico 3 presente su una faccia 25 inferiore, il sistema 100 può comprendere anche una telecamera 2D, non illustrata (o preferibilmente una telecamera lineare), posta sotto il nastro trasportatore 10. La faccia inferiore non necessita di una rilevazione di distanza (e, quindi, di una telecamera 3D) in quanto si dà per scontato che tale distanza sia fissa, pari a quella del piano del nastro trasportatore 10.
In figura 1 è mostrato un sistema di riferimento cartesiano X’, Y’, Z’ del sistema 100 di lettura, dove Y’ rappresenta una direzione parallela alla direzione di avanzamento A del nastro trasportatore 10, X’ una direzione perpendicolare -nel piano del nastro trasportatore 10- alla direzione Y’ e Z’ una direzione perpendicolare al piano del nastro trasportatore 10.
Le telecamere 20 sono disposte in posizioni prefissate e fisse (non mobili) rispetto al nastro trasportatore 10.
Esse in particolare sono disposte al di sopra del nastro trasportatore 10 ed hanno un campo visivo 21 a forma di piramide entro cui transitano gli oggetti 1.
Le telecamere 20 sono atte a riprendere immagini tridimensionali 22 degli oggetti 1 in transito da diverse direzioni (vale a dire, da diversi punti di osservazione), all'interno di un predeterminato volume di misura. Il predeterminato volume di misura è definito dalla combinazione dei campi visivi 21 (vale a dire, volumi di rilevazione) delle diverse telecamere 20.
Le telecamere 20 sono configurate, in termini di quantità, posizionamento, campo visivo 21, profondità di campo e simili, in modo garantire una ripresa -all'interno di detto predeterminato volume di misura- di tutto il volume degli oggetti 1 in transito sul nastro trasportatore 10. Inoltre, esse sono configurate in modo da garantire una certa sovrapposizione tra le immagini tridimensionali 22 acquisite degli oggetti 1 in transito. Ciò è schematicamente mostrato in figura 2, in cui è illustrata una situazione in cui la telecamera 20 di sinistra acquisisce due punti R1 e P3, la telecamera 20 di destra acquisisce due punti P2 e P3, e P3 è in comune. Ad ogni punto (vale a dire, voxel) P1, P2, P3 acquisito, le telecamere 20 associano una terna di coordinate cartesiane Χ,Υ,Ζ di un sistema di riferimento delle telecamere 20, unitamente ad un valore di intensità del voxel (ad esempio, fornita in livelli di grigio o di colore). Preferibilmente, in fase di installazione del sistema 100 di lettura si prevede di effettuare una procedura di calibrazione atta a garantire un sistema di riferimento Χ,Υ,Ζ comune tra le telecamere 20.
Preferibilmente, in fase di installazione del sistema 100 di lettura si prevede inoltre di effettuare una procedura di calibrazione atta a consentire di mappare le coordinate Υ,Υ,Ζ di un punto di un immagine dal sistema di riferimento di dette telecamere 20 nel sistema di riferimento Χ',Υ',Ζ’ del sistema 100. Ciò consente vantaggiosamente di fornire ad un utente (ad esempio un operatore addetto al controllo degli oggetti 1 in transito nel sistema 100) informazioni sulle dimensioni e posizioni reali degli oggetti 1.
Le telecamere 20 sono telecamere digitali tridimensionali. Preferibilmente, esse sono atte ad acquisire immagini tridimensionali 22 con una tecnologia di range imaging. Preferibilmente, le telecamere 20 sono stereo camere, vale a dire telecamere aventi due obiettivi con un sensore separato per ciascun obiettivo. Il sistema 100 comprende anche un elaboratore 30 atto a ricevere le immagini tridimensionali 22 acquisite dalle telecamere 20 e ad elaborarle in modo da individuare la presenza di eventuali codici ottici 3 negli oggetti 1 e decodificare l'informazione codificata 2 in essi contenuta.
L’elaboratore è atto ad elaborare le immagini tridimensionali 22 acquisite dalle telecamere 20 agli stessi istanti. A tal fine, l’acquisizione delle immagini tridimensionali 22 da parte delle diverse telecamere 20 avviene preferibilmente sulla base di un segnale di sincronismi di riferimento esterni, atto ad assicurare che gli istanti di acquisizione delle diverse telecamere 20 siano esattamente gli stessi. Ad esempio, il sistema 100 può essere dotato di un sistema di sincronismo (non mostrato) dotato di un sensore di ingresso disposto in prossimità del nastro trasportatore 10 a monte del volume di misura con riferimento alla direzione di avanzamento A. In questo modo, grazie al sensore di ingresso, l’elaboratore 30 è in grado di rilevare l’arrivo di oggetti all’interno del volume di misura e, sulla base della conoscenza della velocità di avanzamento del nastro trasportatore (nota a priori se tale velocità è costante o determinabile tramite l’impiego di un encoder se tale velocità non è costante), di sincronizzare l’acquisizione ripetuta di sequenze di immagini da parte delle telecamere 20 con l’istante di ingresso di ciascun oggetto nel volume di misura.
In particolare, l’elaboratore 30 è atto ad eseguire il metodo di lettura di informazioni codificate 2 della presente invenzione sulle immagini tridimensionali 22 ricevute dalle telecamere 20, eseguendo le fasi di:
• fondere le immagini tridimensionali 22 in modo da ottenere una singola immagine fusa tridimensionale 26 rappresentativa deN’oggetto 1 nella sua interezza;
• individuare piani 24 su cui giacciono facce 25 dell’oggetto 1 ;
• estrarre, dalla singola immagine fusa tridimensionale 26, immagini bidimensionali 27 che giacciono sui piani 24 individuati;
• applicare algoritmi di riconoscimento di informazioni codificate su almeno parte delle immagini bidimensionali 27 cosi estratte.
In particolare, secondo una forma di realizzazione preferita dell’invenzione e come schematicamente illustrato in figura 3, nella fase di fusione, le immagini tridimensionali 22 acquisite dalle telecamere 20 sono rappresentate da rispettive nuvole di punti 28, 29 tridimensionali. Ciascuna nuvola di punti viene a sua volta rappresentata -nel sistema di riferimento Χ,Υ,Ζ comune alle due telecamere 20-da una rispettiva pila 31, 32 di piani paralleli (“plane-stack”), impilati lungo una predeterminata direzione (nell’esempio di figura 3, lungo la direzione X). Si osserva che in figura 3 l’unità di misura lungo i tre assi Χ,Υ,Ζ del sistema di riferimento delle telecamere 20 è in unità di lunghezza (tipicamente cm o mm). Nella fase di fusione, si individuano dei piani delle pile 31, 32 che sono condivisi dalle due nuvole 28, 29 e si sottopongono tali piani condivisi ad un processo di fusione di dati. In particolare, si individuano i punti che giacciono sui piani condivisi e si genera, per ciascuno di essi, un valore unico di intensità di voxel, combinando opportunamente i valori di intensità associati a tale punto nelle due nuvole 28, 29. Ad esempio, il valore unico di intensità di voxel potrebbe corrispondere al valor medio del valore di intensità associato a tale punto nelle due nuvole 28, 29 o al valore di intensità maggiore.
Tecniche di fusione di immagini tridimensionali sono note neN’arte, quali ad esempio: analisi di componente principale (Principal Component Analysis), trasformata coseno discreta (Discrete Cosine Transform), trasformata Wavelet discreta (Discrete Wavelet Transform), saturazione di intensità di colore (Intensity Hue Saturation), trasformata Contourlet (Contourlet Transform), come descritto da Gazai Malhora et al. (“A review on various image fusion techniqes”, International Journal of Computer Engineering and Applications, Voi. VI, Issue III, June 14, www.ijcea.com ISBN 2321-3469, pages 49-59).
Grazie alla fase di fusione, le immagini tridimensionali 22 acquisite dalle telecamere 20 sono fuse in una singola immagine fusa tridimensionale 26 (visibile in figura 4) rappresentativa dell’oggetto 1 nella sua interezza.
Con riferimento alla figura 4, una volta ottenuta tale immagine fusa tridimensionale 26, l’elaboratore 30 è atto ad individuare, su tale immagine, piani 2D 24 su cui giacciono le facce 25 deN’oggetto 1.
L’individuazione dei piani 24 può essere effettuata tramite opportuni algoritmi atti, ad esempio, ad applicare opportune correlazioni geometriche ai punti di una nuvola di punti tridimensionale rappresentativa di detta singola immagine fusa tridimensionale 26.
Tecniche di estrazione di piani 2D da una nuvola di punti 3D sono note deN’arte, quali ad esempio quelle descritte da Jann Poppinga et al. (“Fast Piane Detection and Polygonalization in noisy 3D Ranges Images”, International Conference on Intelligent Robots and Systems (IROS), Nice, France, IEEE Press 2008) e da Michael Ying Yang et al. (“Piane Detection in Point Coud Data’’, TR-IGG-P-2010-01 , January 25, 201 , disponibile su http://www.ipb.unibonn.de/uploads/tx ikqpublication/Plane Detection in Point Cloud Data.pdf), nonché la metodologia nota come RANSAC (“random sample consensus’’).
In una forma di realizzazione preferita, l’individuazione dei piani 2D 24 viene limitata alle porzioni di detti piani 24 che corrispondono alle facce 25 dell’oggetto. Il risultato di questa fase è schematicamente illustrato in figura 4. In particolare, la figura 4 mostra tre porzioni di tre piani 2D 24 (che nell’esempio hanno equazioni Z=20, X=-30 e Y=65, in cm) individuati in corrispondenza di tre facce 25 dell’oggetto 1.
Si osserva che anche se è stata descritta una forma di realizzazione in cui la fase di fusione viene eseguita prima della fase di individuazione dei piani 24, come già detto sopra, l’elaboratore 30 può essere configurato anche per effettuare prima l'individuazione dei piani 24 e poi la fusione, oppure per effettuare le due fasi sostanzialmente contemporaneamente, in modo correlato.
Inoltre, come detto sopra, l’individuazione dei piani 24 può essere opportunamente limitata ad una faccia 25 o ad un sotto-insieme delle facce 25 dell’oggetto 1.
Nella forma di realizzazione illustrata (si veda in particolare la figura 5), l’individuazione dei piani 24 è estesa a tutte le facce 25 dell’oggetto 1 (esclusa la faccia inferiore che viene trattata a parte, come detto sopra, mediante l'utilizzo di una telecamera 2D o lineare posta sotto il nastro trasportatore 10).
Una volta individuati i piani 24 su cui giacciono le facce 25 dell’oggetto 1, l’elaboratore 30 è atto ad estrarre dalla singola immagine fusa tridimensionale 26, ottenuta mediante la fase di fusione, immagini bidimensionali 27 rappresentative delle facce 25 deN’oggetto 1. Ciò viene effettuato individuando, da una nuvola di punti tridimensionale, rappresentativa di detta singola immagine fusa tridimensionale 26, i punti che giacciono sui piani 24 individuati.
L’elaboratore 30 è a questo punto atto ad applicare gli algoritmi di riconoscimento di informazioni codificate, atti ad operare su immagini 2D, alle immagini bidimensionali 27 così ottenute, rappresentative delle facce 25 deH’oggetto 1.
In alternativa o in aggiunta, dette immagini bidimensionali 27 estratte dalla singola immagine fusa tridimensionale 26 possono essere dispiegate in un piano S avente coordinate cartesiane generiche Xs,Ys (scorrelate dalle coordinate Χ,Υ,Ζ) cosi da ottenere, come schematicamente illustrato in figura 5, una singola immagine bidimensionale combinata 23, illustrativa di uno sviluppo in piano dell’oggetto 1 (o di parte di esso). Si osserva che in figura 5 la singola immagine bidimensionale combinata 23 comprende anche l’immagine 27’ relativa alla faccia inferiore dell’oggetto 1, che può essere ottenuta -come detto sopra- dalla telecamera 2D o lineare posta sotto il nastro trasportatore 10.
In questa forma di realizzazione, l’elaboratore 30 può applicare gli algoritmi di riconoscimento di informazioni codificate alla singola immagine bidimensionale combinata 23, illustrativa dello sviluppo in piano dell’oggetto 1, invece che su ciascuna delle immagini bidimensionali 27 estratte.
A seconda delle applicazioni ed esigenze, l’elaboratore 30 può essere atto a fornire in uscita (ad esempio su uno schermo video) la singola immagine bidimensionale combinata 23, illustrante lo sviluppo in piano dell’oggetto 1, e/o le immagini bidimensionali 27 estratte dalla singola immagine fusa tridimensionale 26, illustranti separatamente le facce 25 dell’oggetto 1.
In aggiunta, a seconda delle applicazioni ed esigenze, l’elaboratore 30 può essere atto a fornire in uscita (ad esempio su uno schermo video) informazioni sulla forma e volume dell’oggetto 1, ottenibili dal suddetto sviluppo in piano o direttamente dalla suddetta singola immagine fusa tridimensionale 26.
La singola immagine bidimensionale combinata 23, illustrante lo sviluppo in piano dell’oggetto 1, e/o le immagini bidimensionali 27 estratte dalla singola immagine fusa tridimensionale, illustranti separatamente le facce 25 deH’oggetto 1, possono essere memorizzate in un server dedicato locale o remoto (ad esempio, in un “cloud”), non mostrato.
Si osserva che sia che si tratti delle immagini bidimensionali 27 estratte dalla singola immagine fusa tridimensionale 26, illustranti separatamente le facce 25 dell’oggetto 1, sia della singola immagine bidimensionale combinata 23, illustrante lo sviluppo in piano dell’ oggetto 1 , la presente invenzione consente vantaggiosamente di generare (per l’applicazione degli algoritmi di riconoscimento di informazioni decodificate e per l’informativa all’utente) delle immagini 2D rappresentative di tutte le facce 25 di interesse dell’oggetto 1 senza ridondanza e senza distorsioni prospettiche.
Si osserva, inoltre, che lo sviluppo in piano dell’oggetto potrebbe essere ottenuto, invece che da immagini tridimensionali, anche a partire da immagini 2D acquisite mediante telecamere lineari o bidimensionali e da informazioni di volume ottenute da un apposito sensore di volume aggiuntivo. Tuttavia, ciò richiederebbe l’uso di opportune tecniche di elaborazione di tali immagini 2D e di tali informazioni di volume, atte a collocare opportunamente le immagini 2D nello spazio a formare una rappresentazione 3D dell’oggetto ed a effettuare una correzione delle distorsioni prospettiche derivanti dall’uso di telecamere lineari o bidimensionali.

Claims (13)

  1. RIVENDICAZIONI 1. Sistema (100) di lettura di informazioni codificate (2) da un oggetto (1), comprendente: - una pluralità di telecamere (20) tridimensionali configurate in modo da acquisire immagini tridimensionali (22) dell’oggetto (1) da diverse direzioni, - un elaboratore (30) configurato per elaborare le immagini tridimensionali (22) acquisite dalla pluralità di telecamere (20) tridimensionali in modo da: • fondere dette immagini tridimensionali (22) in modo da ottenere una singola immagine fusa tridimensionale (26) rappresentativa dell’oggetto (1) nella sua interezza; • individuare piani (24) su cui giacciono facce (25) dell’oggetto (1); • estrarre, da detta singola immagine fusa tridimensionale (26), immagini bidimensionali (27) che giacciono sui piani (24) individuati; • applicare algoritmi di riconoscimento di informazioni codificate su almeno parte delle immagini bidimensionali (27) estratte.
  2. 2. Sistema (100) secondo la rivendicazione 1 , in cui le telecamere (20) tridimensionali utilizzano una tecnologia di tipo range imaging.
  3. 3. Sistema (100) secondo la rivendicazione 1 o 2, in cui le telecamere (20) tridimensionali sono selezionate dal gruppo comprendente stereo camere, telecamere TOF, telecamere a luce strutturata e telecamere plenottiche.
  4. 4. Sistema (100) secondo una qualsiasi delle rivendicazioni da 1 a 3, in cui l’elaboratore (30) è configurato per unire detta almeno parte delle immagini bidimensionali (27) estratte in una singola immagine bidimensionale combinata (23), comprendente uno sviluppo in piano di detta almeno parte delle immagini bidimensionali (27) estratte.
  5. 5. Sistema (100) secondo la rivendicazione 4, in cui l’elaboratore (30) è configurato per applicare gli algoritmi di riconoscimento di informazioni codificate su detta singola immagine bidimensionale combinata (23).
  6. 6. Sistema (100) secondo una qualsiasi delle rivendicazioni da 1 a 5, in cui l’elaboratore (30) è configurato per applicare gli algoritmi di riconoscimento di informazioni codificate separatamente su ciascuna di detta almeno parte delle immagini bidimensionali (27) estratte.
  7. 7. Sistema (100) secondo una qualsiasi delle rivendicazioni da 1 a 6, in cui le immagini tridimensionali (22) acquisite dalla pluralità di telecamere (20) sono rappresentate da rispettive nuvole di punti (28, 29) tridimensionali e l’elaboratore (30) è configurato per fondere dette immagini tridimensionali (22): - rappresentando dette nuvole di punti (28, 29) con rispettive pile (31, 32) di piani paralleli, impilati lungo una predeterminata direzione; - individuando piani condivisi dalle pile (31 , 32) di piani paralleli; - eseguendo un algoritmo di fusione di dati sui punti delle nuvole di punti (28, 29) che appartengono ai piani condivisi individuati.
  8. 8. Sistema (100) secondo una qualsiasi delle rivendicazioni da 1 a 7, in cui l'individuazione dei piani (24) su cui giacciono facce (25) delfoggetto (1) viene effettuata sulle immagini tridimensionali (22) acquisite e/o sulla singola immagine fusa tridimensionale (26).
  9. 9. Sistema (100) secondo una qualsiasi delle rivendicazioni da 1 a 8, in cui l’elaboratore (30) è configurato per effettuare prima la fusione di dette immagini tridimensionali (22) acquisite e poi l’individuazione dei piani (24) su cui giacciono facce (25) dell’oggetto (1) o, viceversa, prima l’individuazione dei piani (24) e poi la fusione di dette immagini tridimensionali (22), oppure per effettuare le due fasi sostanzialmente contemporaneamente.
  10. 10. Sistema (100) secondo una qualsiasi delle rivendicazioni da 1 a 9, in cui l’individuazione dei piani (24) su cui giacciono facce (25) dell’oggetto (1) è limitata a porzioni di detti piani (24) che corrispondono a dette facce (25) dell’oggetto.
  11. 11. Sistema (100) secondo una qualsiasi delle rivendicazioni da 1 a 9, in cui l’oggetto (1) è in movimento rispetto alle telecamere (20).
  12. 12. Sistema (100) secondo la rivendicazione 11, comprendente un sistema a nastro trasportatore (10) per trasportare l’oggetto (1).
  13. 13. Metodo per la lettura di informazioni codificate (2) da un oggetto (1), comprendente le seguenti fasi: - acquisire, mediante una pluralità di telecamere (20) tridimensionali, immagini tridimensionali (22) dell’oggetto (1) da diverse direzioni, - elaborare le immagini tridimensionali (22) acquisite mediante le seguenti fasi: • fondere dette immagini tridimensionali (22) in modo da ottenere una singola immagine fusa tridimensionale (26) rappresentativa dell’oggetto (1) nella sua interezza; • individuare piani (24) su cui giacciono facce (25) dell’oggetto (1); • estrarre, da detta singola immagine fusa tridimensionale (26), immagini bidimensionali (27) che giacciono sui piani (24) individuati; • applicare algoritmi di riconoscimento di informazioni codificate su almeno parte delle immagini bidimensionali (27) estratte.
ITUB2015A004043A 2015-09-30 2015-09-30 Sistema e metodo di lettura di informazioni codificate ITUB20154043A1 (it)

Priority Applications (4)

Application Number Priority Date Filing Date Title
ITUB2015A004043A ITUB20154043A1 (it) 2015-09-30 2015-09-30 Sistema e metodo di lettura di informazioni codificate
US15/764,985 US10438035B2 (en) 2015-09-30 2016-09-29 System and method for reading coded information
PCT/IB2016/055836 WO2017056035A1 (en) 2015-09-30 2016-09-29 System and method for reading coded information
EP16794425.5A EP3356994B1 (en) 2015-09-30 2016-09-29 System and method for reading coded information

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ITUB2015A004043A ITUB20154043A1 (it) 2015-09-30 2015-09-30 Sistema e metodo di lettura di informazioni codificate

Publications (1)

Publication Number Publication Date
ITUB20154043A1 true ITUB20154043A1 (it) 2017-03-30

Family

ID=55085770

Family Applications (1)

Application Number Title Priority Date Filing Date
ITUB2015A004043A ITUB20154043A1 (it) 2015-09-30 2015-09-30 Sistema e metodo di lettura di informazioni codificate

Country Status (4)

Country Link
US (1) US10438035B2 (it)
EP (1) EP3356994B1 (it)
IT (1) ITUB20154043A1 (it)
WO (1) WO2017056035A1 (it)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20190306385A1 (en) * 2014-01-31 2019-10-03 Digimarc Corporation Concerning digital marking and reading of plastic items, useful in recycling
US11962876B2 (en) 2014-01-31 2024-04-16 Digimarc Corporation Recycling methods and systems, and related plastic containers
WO2017223242A1 (en) 2016-06-22 2017-12-28 United States Postal Service Item tracking using a dynamic region of interest
DE102017204035B3 (de) 2017-03-10 2018-09-13 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturabbildungsvorrichtung, Abbildungssystem und Verfahren zum Bereitstellen einer Multiaperturabbildungsvorrichtung
JP6837880B2 (ja) * 2017-03-15 2021-03-03 株式会社東芝 画像処理装置、画像処理システム、画像処理方法、およびプログラム
DE102017206429A1 (de) 2017-04-13 2018-10-18 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Multiaperturabbildungsvorrichtung, Abbildungssystem und Verfahren zum Bereitstellen einer Multiaperturabbildungsvorrichtung
DE102017206442B4 (de) 2017-04-13 2021-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung zur Abbildung von Teilgesichtsfeldern, Multiaperturabbildungsvorrichtung und Verfahren zum Bereitstellen derselben
JP7005622B2 (ja) * 2017-07-12 2022-01-21 株式会社ソニー・インタラクティブエンタテインメント 認識処理装置、認識処理方法及びプログラム
US10958895B1 (en) * 2017-10-04 2021-03-23 Amazon Technologies, Inc. High speed automated capture of 3D models of packaged items
US10872392B2 (en) 2017-11-07 2020-12-22 Digimarc Corporation Generating artistic designs encoded with robust, machine-readable data
US10558844B2 (en) 2017-12-18 2020-02-11 Datalogic Ip Tech S.R.L. Lightweight 3D vision camera with intelligent segmentation engine for machine vision and auto identification
US10930001B2 (en) * 2018-05-29 2021-02-23 Zebra Technologies Corporation Data capture system and method for object dimensioning
US11878327B2 (en) 2019-03-13 2024-01-23 Digimarc Corporation Methods and arrangements for sorting items, useful in recycling
US11869213B2 (en) * 2020-01-17 2024-01-09 Samsung Electronics Co., Ltd. Electronic device for analyzing skin image and method for controlling the same
US11334739B2 (en) * 2020-05-29 2022-05-17 Zebra Technologies Corporation Barcode readers with 3D camera(s)

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6330973B1 (en) * 1989-10-30 2001-12-18 Symbol Technologies, Inc. Integrated code reading systems including tunnel scanners
EP0851374B1 (en) 1996-12-30 2003-09-10 DATALOGIC S.p.A. Method of locating an object-applied code
ATE203342T1 (de) 1997-11-17 2001-08-15 Datalogic Spa Verfahren zur lokalisierung von farbbereichen oder von bereichen mit grossen helligkeitsänderungen in einem bild
US6072496A (en) * 1998-06-08 2000-06-06 Microsoft Corporation Method and system for capturing and representing 3D geometry, color and shading of facial expressions and other animated objects
ATE203343T1 (de) 1998-10-23 2001-08-15 Datalogic Spa Verfahren zur detektion von coden in zweidimensionalen bildern
EP2003599A1 (de) * 2007-06-14 2008-12-17 Sick Ag Optoelektronischer Sensor und Verfahren zur Erfassung von Codes
CN102065277A (zh) * 2009-11-12 2011-05-18 鸿富锦精密工业(深圳)有限公司 阵列摄影机***
IT1404187B1 (it) 2011-02-28 2013-11-15 Datalogic Automation Srl Metodo per l'identificazione ottica di oggetti in movimento
DK2546776T3 (en) * 2011-07-11 2013-07-08 Sick Ag Camera-based code reader and method for its adjusted manufacture
US9367770B2 (en) * 2011-08-30 2016-06-14 Digimarc Corporation Methods and arrangements for identifying objects
US11282287B2 (en) * 2012-02-24 2022-03-22 Matterport, Inc. Employing three-dimensional (3D) data predicted from two-dimensional (2D) images using neural networks for 3D modeling applications and other applications
US9183631B2 (en) 2012-06-29 2015-11-10 Mitsubishi Electric Research Laboratories, Inc. Method for registering points and planes of 3D data in multiple coordinate systems
ES2545374T3 (es) * 2012-07-31 2015-09-10 Sick Ag Sistema de detección para el montaje en una cinta transportadora
US9412040B2 (en) 2013-12-04 2016-08-09 Mitsubishi Electric Research Laboratories, Inc. Method for extracting planes from 3D point cloud sensor data
DE102014105759A1 (de) * 2014-04-24 2015-10-29 Sick Ag Kamera und Verfahren zur Erfassung eines bewegten Stroms von Objekten
US10094650B2 (en) * 2015-07-16 2018-10-09 Hand Held Products, Inc. Dimensioning and imaging items

Also Published As

Publication number Publication date
US20180285611A1 (en) 2018-10-04
EP3356994A1 (en) 2018-08-08
US10438035B2 (en) 2019-10-08
EP3356994B1 (en) 2019-11-06
WO2017056035A1 (en) 2017-04-06

Similar Documents

Publication Publication Date Title
ITUB20154043A1 (it) Sistema e metodo di lettura di informazioni codificate
US11720766B2 (en) Systems and methods for text and barcode reading under perspective distortion
US10142612B2 (en) One method of binocular depth perception based on active structured light
US10600193B2 (en) Three-dimensional measurement apparatus, three-dimensional measurement method and program
JP5947819B2 (ja) 動作中物体の光学的識別方法
US8699786B2 (en) 3D model generating apparatus, method and CRM by line pattern imaging
DE112014004190T5 (de) Positurschätzverfahren und Roboter
KR20170066336A (ko) 로그 스캔 시스템
CN110892445B (zh) 药剂检查辅助装置、药剂识别装置、图像处理装置、图像处理方法以及程序
US20160343143A1 (en) Edge detection apparatus, edge detection method, and computer readable medium
CN106233105B (zh) 测色装置以及测色方法
JP5757156B2 (ja) 検出対象物の中心位置を算出する方法、装置およびプログラム
CN105787429B (zh) 采用机器视觉用于检查物体的方法和设备
Sun et al. Geometric and photometric restoration of distorted documents
Zhang et al. Estimation of 3D shape of warped document surface for image restoration
KR20170047780A (ko) 적응적 윈도우 마스크를 이용하는 로우 코스트 계산장치 및 그 방법
US20230070252A1 (en) Data encoding in printed material using varying ir reflective materials
EP3062516B1 (en) Parallax image generation system, picking system, parallax image generation method, and computer-readable recording medium
Nozick Camera array image rectification and calibration for stereoscopic and autostereoscopic displays
KR20150107581A (ko) 화상 처리 장치 및 화상 처리 방법
JP7187830B2 (ja) 画像処理プログラム、画像処理装置、及び画像処理方法
US20200151495A1 (en) Drug identification device, image processing device, image processing method, and program
Zhang et al. 3D multispectral imaging system for contamination detection
Baláž et al. Camera systems of industrial robots
Nguyen et al. Second iteration of photogrammetric pipeline to enhance the accuracy of image pose estimation