ITUA20164219A1 - Procedimento e sistema per la rilevazione di traffico veicolare, corrispondente prodotto informatico - Google Patents

Procedimento e sistema per la rilevazione di traffico veicolare, corrispondente prodotto informatico Download PDF

Info

Publication number
ITUA20164219A1
ITUA20164219A1 ITUA2016A004219A ITUA20164219A ITUA20164219A1 IT UA20164219 A1 ITUA20164219 A1 IT UA20164219A1 IT UA2016A004219 A ITUA2016A004219 A IT UA2016A004219A IT UA20164219 A ITUA20164219 A IT UA20164219A IT UA20164219 A1 ITUA20164219 A1 IT UA20164219A1
Authority
IT
Italy
Prior art keywords
vehicles
representations
transit
vehicle
visual
Prior art date
Application number
ITUA2016A004219A
Other languages
English (en)
Inventor
Stefano Arrighetti
Original Assignee
Kria S R L
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kria S R L filed Critical Kria S R L
Priority to ITUA2016A004219A priority Critical patent/ITUA20164219A1/it
Publication of ITUA20164219A1 publication Critical patent/ITUA20164219A1/it

Links

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/052Detecting movement of traffic to be counted or controlled with provision for determining speed or overspeed

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Circuits Of Receivers In General (AREA)
  • Traffic Control Systems (AREA)

Description

“Procedimento e sistema per la rilevazione di traffico veicolare, corrispondente prodotto informatico”
TESTO DELLA DESCRIZIONE
Campo tecnico
La descrizione si riferisce alla rilevazione di traffico veicolare.
Una o più forme di attuazione possono trovare applicazione nella rilevazione della velocità media di percorrenza, ad esempio di tratti stradali.
Sfondo tecnologico
Il calcolo della velocità media con cui un veicolo percorre un tratto stradale è un problema concettualmente semplice se si considera solo l'aspetto logico-procedurale, che riguarda l'associazione dei passaggi dello stesso veicolo in ingresso/uscita al tratto ed il calcolo numerico della velocità media come rapporto tra spazio percorso e tempo di transito.
Tuttavia, quando si vanno a considerare implicazioni di tipo “forensico” (ad es. di natura sanzionatoria) ed i requisiti di accuratezza e certezza della misura che esse impongono, si osserva come la misura dello spazio e del tempo diventino critiche e tali da rendere problematico l'impiego di soluzioni tecnologicamente semplici, specie su tratte brevi percorse a velocità elevata.
Misurare in modo automatico la velocità media di veicoli che percorrono un tratto di strada comporta di osservare lo stesso veicolo in punti A e B (a distanza nota) a tempi differenti, mediante apparati sincronizzati.
Dati per risolti gli aspetti sistemistici relativi alla stima della lunghezza del tratto, le principali difficoltà tecniche sono riconducibili a:
- determinare con accuratezza nota sia la posizione, sia i due istanti di passaggio dei veicoli rispetto ad A e B;
- gestire la inevitabile concorrenza di più veicoli, con la capacità di distinguerli fra loro al fine di calcolare la velocità media per ognuno di essi; ciò impone che l’intero processo di osservazione e successiva associazione logica sia affidabile.
Vari sistemi automatici prevedono di distinguere i veicoli tramite sensori in grado di fornire una rappresentazione accurata di una parte o più parti discriminanti degli oggetti stessi.
La rappresentazione più completa ed immediata da acquisire, in particolare in ambiente esterno e con il veicolo in moto, è di tipo visuale, ossia rilevata tramite sensori ottici o (tele)camere con acquisizione delle relative immagini.
Il segnale 2D acquisito da una telecamera può essere elaborato da un sistema automatico di riconoscimento in grado di fornire una descrizione sintetica identificativa dell’oggetto ad un livello di astrazione superiore rispetto alla sua realtà fisica.
La targa è un esempio di rappresentazione sintetica, distintiva del veicolo, che racchiude in un dato semplice e compatto (una stringa di testo) una informazione molto più articolata.
Documenti quali EP 1 276 086 B1, EP 1 870 868 B1 ed ancora EP 1513 125 A2 (al riguardo sostanzialmente analogo a EP 1276 086 B1) utilizzano l'approccio concettuale sopra descritto.
Ad esempio, EP 1 276 086 B1 utilizza più sensori (telecamere e microfoni) e più sistemi automatici di riconoscimento applicati ai relativi segnali, descritti in modo generico, ad es. senza affrontare un tema quale il calcolo della dimensione di un veicolo da immagini in cui il veicolo appare in posizioni A e B prospetticamente differenti. Analogamente, in relazione al microfono non appare presa in considerazione la variazione del suono in funzione della velocità puntuale nei due punti A e B di rilevamento né considerata l’esistenza di forze motrici diverse dal motore a scoppio. Viene parimenti citato il layout dei marchi presenti sul veicolo, informazione di sicuro interesse per stabilire l’identità del veicolo, ma tutt’altro che banale da rilevare e porre in corrispondenza in presenza di inevitabili variazioni di prospettiva e di illuminazione.
EP 1 870 868 B1 prevede di utilizzare in A e in B un solo sensore (telecamera) ed un solo sistema automatico (lettore automatico di caratteri, OCR). In entrambi i casi l’oggetto “veicolo” è descritto attraverso uno o più segnali e relativi processi di riconoscimento di caratteri, con una memorizzazione in forma simbolica per un tempo necessario al loro confronto in istanti differenti. L’associazione automatica di un veicolo in due punti ed istanti differenti è dunque ottenuta utilizzando le sintesi testuali fornite in uscita da processi di riconoscimento.
Un tale approccio può soffrire del fatto che i sistemi automatici utilizzati sono affetti da probabilità di rilevamento e da probabilità di corretto riconoscimento entrambe inferiori all’unità. Nella pratica, casi di mancata lettura o lettura con uno o più caratteri errati sono sicuramente possibili a causa ad esempio del degrado fisico o della presenza di sporcizia che ne riducono la visibilità. Per quanto certificabile da prove di laboratorio in condizioni di ripresa e qualità delle targhe ideali, l’affidabilità del sistema di lettura targhe cala in condizioni non ottimali, ad esempio in caso di neve, pioggia, nebbia. La dimensione ridotta della targa e la sua tipica posizione a bassa quota rispetto al veicolo ne riduce inoltre la visibilità e la espone a degradazioni della leggibilità a causa di ulteriori effetti interferenti come le occlusioni causate da altri veicoli nella scena ripresa dalla telecamera. Inoltre il processo di riconoscimento targhe consiste in una sequenza di sottoprocessi concatenati, quali: localizzatore della targa, segmentazione dei singoli caratteri, OCR (Optical Character Recognition), verifica sintattica della sequenza di caratteri riconosciuta, ognuno dei quali è caratterizzato da una probabilità di errore tale da rendere la probabilità di riconoscimento dell’intero processo inferiore all’unità; e la combinazione dei processi indipendenti nei punti di rilevamento A e B riduce ulteriormente la probabilità di corretta associazione complessiva. Basare l’associazione solo sulla targa è quindi una soluzione sicuramente parziale, esposta ad errore. Infine l’utilizzo di un segnale intrinsecamente 2D riduce l’accuratezza della stima della posizione nel mondo reale del veicolo rispetto alla strada nel suo passaggio attraverso i punti di rilevamento A e B. Oltre all’intrinseca ridotta accuratezza di un segnale 2D nella stima della posizione nel mondo reale assume rilievo l’assenza di una chiara riferibilità metrologica dei due dispositivi e di una evidenza del mantenimento del loro assetto. Una telecamera infatti può banalmente modificare il proprio angolo di orientamento e la focale dell’obiettivo zoom, ad esempio a causa di vibrazioni o derive meccaniche, introducendo quindi un errore di localizzazione nel punto di rilevamento, senza peraltro poter dare evidenza di tale variazione sull’immagine 2D del veicolo in transito. Oltretutto, la sola lettura della targa può non permettere di riconoscere la classe del veicolo, suscettibile di essere un fattore che concorre alla determinazione del relativo e specifico limite di velocità.
Il documento EP 1 997 090 A1 descrive un sistema in grado di fornire, per ogni veicolo in transito in corrispondenza di un certo punto (ad es. in corrispondenza di un incrocio), oltre alle immagini ottiche convenzionali, sia la caratterizzazione cinematica 3D del suo moto (posizione, tempo e velocità di passaggio) sia la rappresentazione 3D della sua forma. Tali dati vengono ottenuti utilizzando oltre alle immagini stereoscopiche anche le diverse posizioni prospettiche che il veicolo stesso assume durante il proprio transito rispetto alle stereo-camere. Il documento EP 1997 090 A1 utilizza quindi la rappresentazione 3D e simbolica di ogni veicolo per descriverlo nel suo passaggio istantaneo, senza peraltro affrontare il tema dell'ottenimento combinato di rappresentazioni dello stesso veicolo fornite da dispositivi installati in luoghi diversi e raccolte a tempi differiti.
Scopo e sintesi
Una o più forme di attuazione si prefiggono lo scopo di superare gli inconvenienti delineati in precedenza.
Secondo una o più forme di attuazione, tale scopo può essere raggiunto grazie ad un procedimento avente le caratteristiche richiamate in modo specifico nelle rivendicazioni che seguono.
Una o più forme di attuazione possono essere relative a un corrispondente sistema di rilevazione, così come a un prodotto informatico caricabile nella memoria di almeno un dispositivo di elaborazione e comprendente porzioni di codice software per eseguire le fasi del procedimento quando il prodotto è eseguito su almeno un elaboratore. Come qui utilizzato, un riferimento a un tale prodotto informatico intende essere equivalente a un riferimento a un mezzo leggibile da elaboratore contenente istruzioni per controllare il sistema di elaborazione al fine di coordinare l’implementazione del procedimento secondo una o più forme di attuazione. Il riferimento ad “almeno un dispositivo di elaborazione” intende evidenziare la possibilità che una o più forme di attuazione siano implementate sotto forma modulare e/o distribuita.
Le rivendicazioni formano parte integrante degli insegnamenti tecnici qui somministrati in relazione alle forme di attuazione.
Secondo una o più forme di attuazione (suscettibili di soddisfare i requisiti delle applicazioni sanzionatorie), un sistema per la rilevazione di traffico veicolare può comprendere (almeno) due dispositivi di rilevazione dei transiti basati sull’utilizzo di telecamere in assetto stereoscopico (nel seguito stereo-camere) metrologicamente certificate per le misure di spazio e tempo, dotate di uno stato (calibrazione intrinseca ed estrinseca) con la proprietà di essere costantemente osservabile, poste all'ingresso ed all'uscita del tratto stradale da controllare (di lunghezza nota).
In una o più forme di attuazione, tali dispositivi possono essere separatamente in grado di fornire, per ogni veicolo in transito la caratterizzazione cinematica 3D del moto (posizione rispetto a un sistema di riferimento sulla strada e tempo rispetto ad un riferimento assoluto e velocità di passaggio) e la rappresentazione 3D della forma, ottenuta, utilizzando oltre alle immagini stereo anche le diverse posizioni prospettiche che assume durante il proprio transito il veicolo stesso rispetto alle stereocamere. In una o più forme di attuazione, tali immagini possono associare alla rappresentazione 3D del veicolo un’informazione pittorica (texture - Tx), dando così origine ad una rappresentazione che può essere definita in breve come 3D+Tx.
In una o più forme di attuazione, l'uso (eventuale) di più stereo-camere in ogni punto di controllo, orientate in direzione contrapposta e fra di loro reciprocamente calibrate, permette di ricoprire tutta la superficie sommando le varie rappresentazione di tipo 3D+Tx dell'intero veicolo.
In una o più forme di attuazione, la valutazione della corrispondenza tra veicoli in ingresso ed uscita per il calcolo della velocità di sezione può quindi sfruttare la ricchezza di informazione pittorica e morfologica tridimensionale del veicolo. In una o più forme di attuazione, tale informazione può abbracciare quella parte di superficie senz'altro distintiva rappresentata dalla targa, ripresa da entrambi i dispositivi senza tuttavia essere necessariamente interpretata automaticamente: in questo modo la soluzione complessiva prescinde dai possibili errori che si possono commettere con processi di estrazione dati sintetici.
In una o più forme di attuazione, l'accuratezza della stima della posizione tridimensionale del veicolo rispetto al tratto stradale e della sincronizzazione temporale rispetto ad un riferimento assoluto dei due dispositivi facilitano il conseguimento di un'elevata accuratezza complessiva della misura di velocità media per ogni veicolo ottenuta tramite il rapporto fra le due grandezze primarie.
In una o più forme di attuazione, l’associazione ingresso-uscita ottenuta attraverso le possibili verifiche di corrispondenza, in modalità “molti-a-molti”, cioè fra le liste di veicoli transitati in ingresso e in uscita in tempi compatibili può dimostrarsi più robusta nella gestione dei casi di mancata rilevazione (in ingresso o in uscita) rispetto ad una più tradizionale tecnica di associazione “uno-a-molti”, con la capacità di fornire una misura dinamica della incertezza complessiva del processo allo scopo di ridurre al minimo l’errore associativo.
Breve descrizione delle figure
Una o più forme di attuazione saranno ora descritte, a puro titolo di esempio non limitativo, con riferimento alle figure annesse, in cui:
- la Figura 1 è una rappresentazione schematica di un possibile contesto di impiego di una o più forme di attuazione,
- la Figura 2 è uno schema a blocchi di un sistema secondo una o più forme di attuazione,e
- la Figura 3 è un diagramma esemplificativo del possibile funzionamento di una o più forme di attuazione.
Descrizione particolareggiata
Nella descrizione che segue sono illustrati vari dettagli specifici, allo scopo di fornire una comprensione approfondita di vari esempi di forme di attuazione secondo la descrizione. Le forme di attuazione possono essere ottenute senza uno o più dei dettagli specifici, o con altri procedimenti, componenti, materiali, ecc. In altri casi, strutture, materiali o operazioni note non sono illustrate o descritte in dettaglio in modo che i vari aspetti delle forme di attuazione non saranno resi poco chiari.
Un riferimento a “una forma di attuazione” nel quadro della presente descrizione intende indicare che una particolare configurazione, struttura o caratteristica descritta in relazione alla forma di attuazione è compresa in almeno una forma di attuazione. Per cui, frasi come “in una forma di attuazione” che possono essere presenti in vari punti della presente descrizione non fanno necessariamente riferimento esattamente alla stessa forma di attuazione. Inoltre, particolari conformazioni, strutture o caratteristiche possono essere combinate in un modo adeguato qualsiasi in una o più forme di attuazione.
I riferimenti qui utilizzati sono forniti semplicemente per comodità e quindi non definiscono l’ambito di protezione o la portata delle forme di attuazione.
La Figura 1 è una rappresentazione schematica di un possibile contesto di impiego di una o più forme di attuazione: la rilevazione della velocità (media) V con cui dei veicoli W (ad es. degli autoveicoli) percorrono un tratto stradale di lunghezza L compresa fra un punto (di ingresso) A ed un punto (di uscita) B.
Ad esempio, la velocità V che si intende rilevare può essere la velocità media con cui ciascun veicolo percorre il tratto di lunghezza L, la rilevazione essendo finalizzata a verificare ad es. che la velocità V non superi un certo valore limite, con la eventuale possibilità di applicare corrispondenti sanzioni ai (guidatori dei) veicoli che superino tale limite.
In una o più forme di attuazione, la rilevazione può essere demandata ad un sistema comprendente almeno due (stereo)camere SC1, SC2 suscettibili di “inquadrare” i veicoli W in transito in corrispondenza, rispettivamente, del un punto (di ingresso) A e del punto (di uscita) B, fornendo rispettivi segnali di rilevazione a due unità U1 e U2, suscettibili di essere configurate per operare così come esemplificato nello schema a blocchi della Figura 2.
Così come già detto, in una o più forme di attuazione è ipotizzabile l'uso di più stereo-camere in ogni punto di controllo, orientate in direzione contrapposta (vede ad es. la stereo-camera SC2’, il cui profilo è rappresentato con linea a tratti, associata alla stereo-camera SC2) con la finalità di ricoprire tutta la superficie sommando le varie rappresentazione di tipo 3D+Tx dell'intero veicolo W.
Per semplicità e chiarezza di illustrazione, la presente descrizione particolareggiata è fatta con riferimento ad esempi di attuazione che prevedono di utilizzare due sole (stereo)camere SC1 e SC2.
In una o più forme di attuazione, le camere SC1, SC2 possono operare secondo le tecniche di stereometria esemplificate in EP 1 997 090 A1 e presentare le caratteristiche strutturali esemplificate nello stesso documento (vedere ad es. la Figura 7), il che rende superfluo ripetere in questa sede una corrispondente descrizione particolareggiata.
In una o più forme di attuazione (ad es. per permettere l'utilizzazione a scopo sanzionatorio), è auspicabile che l'accuratezza nella misura di rilevamento di velocità media V possa essere contenuta entro un errore relativo complessivo ad es. dell’1%.
In una o più forme di attuazione, ciò corrisponde a prevedere che l’errore massimo dei due dispositivi (SC1-U1 e SC2-U2), considerati singolarmente in modo indipendente, non ecceda un valore pari a 0,5%.
In una o più forme di attuazione, ogni dispositivo fornisce una misura di posizione e tempo di attraversamento per cui 0,5% può essere visto come l’errore di misura complessivo delle due grandezze.
L’errore assoluto di stima di posizionamento è legato alla lunghezza del tratto e quindi il sistema risulta più sensibile a tratte brevi.
Per una tratta lunghezza L pari, ad es. a 500 m, quanto detto sopra corrisponde a contenere l’errore spaziale di ogni dispositivo va contenuto entro 2,5 m, un risultato teorico tecnicamente non banale da raggiungere e mantenere, anche ipotizzando essere l’errore di sincronizzazione nullo.
Se si considera poi che l’errore di sincronizzazione oraria è anche esso nella realtà diverso da zero (0,1 sec di errore sono un obiettivo ambizioso con le tecnologie a disposizione) e che anche a soli 100Km/h tale errore temporale equivale ad uno spostamento del veicolo di 2,7 m, l’accuratezza della misura dello spazio e del tempo rappresentano un vincolo tecnologico abbastanza stringente.
In una o più forma di attuazione, una rappresentazione del singolo veicolo di tipo “3D+Tx” (così come definita in precedenza del veicolo, ossia descrittiva della sua superficie tridimensionale esterna, ad es. radiometrica e cromatica), è in grado di fornire una caratterizzazione del veicolo tale da facilitare una sicura ed affidabile associazione in tempi e punti dello spazio differenti.
Essa contiene, con un elevato livello di dettaglio, l’informazione geometrica e pittorica identificativa del veicolo stesso, senza mediazioni legate alla necessità di “condensare” tale informazione in un mero elenco di attributi, che per quanto ricco è esposto all’errore interpretativo dell’automatismo.
Dal punto di vista concettuale, la rappresentazione veicolare utilizzata in una o più forme di attuazione può essere pensata come un’unione di punti, spazialmente connessi in una struttura reticolare di densità opportuna, dotati di coordinate 3D e di struttura (texture - ad es. colore) che ne definisce gli attributi visibili.
Una o più forme di attuazione possono far ricorso a metodologie numeriche in un sistema con telecamere SC1, SC2 metrologicamente calibrate sia da punto di vista geometrico sia sa quello radiometrico e cromatico, come discusso nel seguito, in grado di fornire ricostruzioni 3D con accuratezza stabilita.
Una o più forme di attuazione possono attuare un posizionamento spazio-temporale preciso del veicolo nei punti prossimi alle postazioni di rilevamento (ad es. A e B) con la capacità di controllare l’errore di velocità, specialmente su sezioni stradali corte.
Una o più forme di attuazione possono utilizzare, oltre all’assetto stereoscopico, più ricco di informazioni rispetto alla singola telecamera, la disponibilità, ora corrente, di un numero molto elevato di celle elementari (pixel), in unione alla relativa sensibilità ed al campo dinamico dei sensori delle telecamere.
Uno o più sensori “semplici”, come una singola telecamera, possono fornire una rappresentazione 2D incompleta e non invariante dell’oggetto 3D veicolo, nel senso che tale rappresentazione può cambiare in modo non prevedibile nel passare dal punto A al punto B.
Questo rende difficile stabilire un'identità diretta a livello di dati grezzi tra le due osservazioni di uno stesso veicolo W.
L’impiego di un segnale non invariante può imporre di svolgere un successivo processo tale da permettere di ottenere una descrizione ad un livello di astrazione superiore, appunto invariante, almeno delle parti più discriminanti del veicolo: questo può avvenire, ad es. tramite metodi automatici di riconoscimento, ad esempio la lettura OCR delle parti testuali od il riconoscimento di linee oppure di simboli grafici. Tuttavia, un processo di riconoscimento di tali parti può dare origine ad errori che penalizzano a priori la funzione di associazione della descrizione del veicolo in transito da A a B. Inoltre, non è in generale possibile stabilire a priori quali di questi attributi siano effettivamente più discriminanti in un generico scenario applicativo.
In una o più forme di attuazione, la rappresentazione completa del veicolo ottenuta con sensori “complessi” come ad es. le stereo-camere SC1, SC2 permette di fornire una rappresentazione 3D completa e invariante dell’oggetto 3D, cioè del veicolo.
Un segnale invariante permette una associazione diretta, cioè non intermediata da processi di riconoscimento, in potenza fallibili, della descrizione del veicolo in transito.
Più esplicitamente, le superfici 3D rilevate nei punti di ingresso/uscita, A e B, “colorate” mediante le rispettive texture, possono essere semplicemente rototraslate rigidamente fino alla sovrapposizione reciproca.
Questo processo può essere agevolato dalla analisi del moto 3D suscettibile di essere resa disponibile su entrambi i dispositivi SC1-U1, SC2-U2, con la capacità di fornire, virtualmente in tempo reale, informazioni sull’allineamento relativo delle superfici, ad es. in base alle direzioni di moto osservata, e dalla presenza della strada come vincolo di moto.
In una o più forme di attuazione, questo può limitare drasticamente le trasformazioni geometricamente ammissibili, facendo sì che la valutazione di identità o meno non dipenda più da concetti “antropici” quali testo, simboli, etc. ma solo dalla sovrapponibilità delle superfici colorate, che può essere valutata numericamente, ed in modo molto più affidabile, senza alcun riferimento a tali concetti.
In particolare, si rende superfluo procedere ad una (corretta) lettura OCR della targa per la valutazione di corrispondenza, tale lettura facilitando unicamente l'accesso ai dati dell’intestatario del veicolo da parte degli operatori del sistema.
Il fatto di poter evitare il ricorso ad una lettura OCR ha il vantaggio di svincolarsi ad es. dalla complessità delle targhe delle singole nazioni, concependo un sistema intrinsecamente applicabile in tutto il mondo. Questo aspetto consente anche l'estensione a sistemi similari ma non orientati ad applicazioni di controllo del traffico veicolare su strada, ad esempio le aree industriali, le aree aeroportuali, portuali, marini dove il traffico coinvolge veicoli non necessariamente dotati di targa e più in generale permette l’utilizzo nei casi in cui si voglia comunque stabilire l’identità tra due oggetti osservati in diverse condizioni, sulla base della forma/colore degli stessi.
La rappresentazione del veicolo in precedenza denominata per brevità 3D+Tx (rappresentazione tridimensionale texture) si profila come una fra le più conservative ed affidabili ottenibili da sensori ottici (telecamere) e facilita a priori una elevata robustezza del processo di associazione fra A e B.
In una o più forme di attuazione, l’associazione può avvenire con successo anche in caso di parziale mancanza di corrispondenza, ad esempio nel caso di occlusioni parziali dei veicoli (per traffico denso) o in presenza di disturbi locali (riflessi luminosi, fari accesi).
Infatti, il processo di associazione fra le due rappresentazioni 3D+Tx non necessita che le singole rappresentazioni coincidano in ogni singolo punto. In virtù della quantità di informazione identificativa del veicolo e distribuita sulla sua superficie, l’eventuale parziale occlusione della rappresentazione 3D+Tx causata in A e/o in B della presenza, ad esempio di altro veicolo, permette comunque di eseguire con esito positivo il processo di associazione fra A e B.
Inoltre, una delle due rappresentazioni 3D+Tx dello stesso veicolo ripreso in ingresso e in uscita potrebbe non comprendere parzialmente o totalmente la zona della superficie relativa alla targa, senza che ciò infici la capacità del sistema di eseguire la corretta associazione. È sufficiente che la sola parte visibile in entrambi i punti A e B contenga una informazione 3D+Tx tale da rendere comunque univoca l’associazione.
Tutto ciò in contrapposizione con la descrizione simbolica e astratta di una parte peraltro molto ridotta del veicolo quale è la targa, suscettibile di rendere fallimentare l’associazione in caso di mancanza di visibilità della targa stessa.
La rappresentazione 3D+Tx può fornire anche una risposta diretta al requisito applicativo del limite di velocità variabile per classe veicolare (ad es. veicolo leggero e veicolo pesante), la quale può essere determinata direttamente mediante un apposito sistema di classificazione automatica basata sulla dimensione osservata. In questo caso, l’impiego della sola targa renderebbe di fatto impossibile ottenere tale tipo di informazione.
Dal punto di vista tecnologico, la ricostruzione 3D ed il posizionamento preciso del veicolo rispetto alla camera possono essere conseguite tramite calibrazione geometrica dell'assetto stereometrico, che viene mantenuta e tenuta sotto controllo durante l'operatività: le soluzioni strutturali presentate EP 1 997 090 A1 (già citato - vedere ad es. la Figura 7), permettono di conseguire tale scopo.
Dettagli metodologici sulle modalità di stima congiunta di moto e struttura 3D di oggetti si possono reperire nella letteratura scientifica: vedere al riguardo, ad es. G.P.Stein, A.Shashua: "Direct Estimation of Motion and Extended Scene Structure from a Moving Stereo Rig", MIT Technical Report, 1997; N.Molton, M.Brady "Practical Structure and Motion from Stereo When Motion is Unconstrained" International Journal of Computer Vision, Volume 39, Issue 1, August 2000, Pages 5-23; L.Valgaerts et al. "Joint Estimation of Motion, Structure and Geometry from Stereo Sequences", Proceedings of the 11th European Conference on Computer Vision: Part IV, 2010, Pages 568-581.
In una o più forme di attuazione, così come esemplificate nella Figura 2, alla (prima) stereo-camera SC1 può essere associata un unità elaborativa U1 configurata per svolgere le seguenti funzioni:
- 100a: acquisizione immagini della stereo-camera e segnale orario;
- 101a: controllo funzionale (sincronismo orario attivo, calibrazione dispositivo, calibrazione dispositivostrada);
- 102a: generazione report;
- 103a: controllo parametri (esposizione stereo-camera SC1, orologio interno-esterno);
- 104a: generazione rapporto 3D-Tx
- 105a: invio rapporto 3D-Tx ad unità 106.
In una o più forme di attuazione, così come esemplificate nella Figura 2, alla (seconda) stereo-camera SC2 può essere associata un unità elaborativa U2 essenzialmente simile all’unità U1 e dunque configurata per svolgere le seguenti funzioni:
- 100b: acquisizione immagini della stereo-camera e segnale orario;
- 101b: controllo funzionale (sincronismo orario attivo, calibrazione dispositivo, calibrazione dispositivostrada);
- 102b: generazione report;
- 103b: controllo parametri (esposizione stereo-camera SC1, orologio interno-esterno);
- 104b: generazione rapporto 3D-Tx
- 105b: invio rapporto 3D-Tx ad unità 106.
In una o più forme di attuazione, volendo verificare l'identità del veicolo anche dal punto di vista della texture (Tx), è possibile procedere ad una calibrazione radiometrica e cromatica delle immagini (passi 103a-103b), tale da rendere confrontabili i dati osservati in diverse condizioni di illuminazione.
Ancora, in una o più forme di attuazione, il fatto di generare una superficie 3D+Tx tramite stereometria, integrata dalla analisi del moto (passi 104a-104b) può assumere il carattere di un processo numerico di tipo a black box, che non richiede la specificazione o l’apprendimento di particolari simbolici. Esso può operare direttamente sui pixel delle immagini in modo “cieco”, basandosi solo sulle informazioni di calibrazione delle telecamere e sui vincoli ottico-geometrici propri della visione tridimensionale.
Una o più forme di attuazione possono quindi differenziarsi in modo sostanziale dai metodi OCR o comunque di pattern recognition, che prevedono un qualche tipo di descrizione, di tipo predefinito od appreso tramite statistica, di ciò che si vuole rilevare nelle immagini.
In vista dell'uso notturno, ciascun dispositivo SC1-U1 e SC2-U2 può essere dotato di illuminatori operanti nello spettro della luce visibile o nell'infrarosso (non visibili nelle figure), mentre durante l’uso diurno, quando un supplemento di luce artificiale può non essere necessario, è ragionevole assumere che gli eventi in A e in B avvengano in un lasso di tempo e ad una distanza spaziale limitate e tali per cui le variazioni (ad es. luce solare alternativamente mascherata da nuvole) sono ininfluenti e/o così ridotte da poter essere gestite attraverso la modifica automatica dei parametri di acquisizione di ogni stereocamera SC1, SC2.
Al fine di disporre di dispositivi sincronizzati (vedi passi 100a, 101a e 100b, 101b) in una o più forme di attuazione è possibile prevedere che il tempo assoluto sia trasmesso via rete TCP/IP, in grado di garantire la trasmissione ovunque, anche in tunnel o altri in luoghi privi di copertura di segnale orario satellitare, a partire da un orologio universale ai due dispositivi SC1-U1, SC2-U2. In una o più forme di attuazione, ritardi ed errori di trasmissione istantanei possono essere controllati utilizzando due ulteriori contatori locali che, anche se meno accurati di un orologio “universale”, non sono affetti dai disturbi della trasmissione.
In merito alla osservabilità del sistema/processo, in una o più forme di attuazione, il singolo dispositivo SC1-U1, SC2-U2 basato su stereo-camere può essere concepito per verificare costantemente (passi 103a-103b) il proprio assetto, ossia la calibrazione, dei parametri geometrici ed ottici intrinseci ed estrinseci che permettono di estrapolare dalle immagini 2D stereo l’informazione tridimensionale del veicolo e la sua posizione rispetto al mondo reale, ossia al punto A o B della strada.
Inoltre, in una o più forme di attuazione, ognuno dei dispositivi può fornire l’osservabilità di tale calibrazione, e ciò si traduce in termini applicativi nella possibilità di fornire evidenza del corretto comportamento del sistema e quindi di affidabilità della misura di velocità media V.
Puntando l'attenzione sulla Figura 1, si noterà che, in una o più forme di attuazione, sia il primo sistema SC1-U1, sia il secondo sistema SC2-U2 sono in grado di “catturare” i veicoli in transito rispettivamente in A in ingresso alla sezione e in B in uscita, con la capacità di ricostruisce la forma/texture tramite algoritmi di visione artificiale 3D (di per sé noti). Con analoghe metodologie si può determinare il moto 3D, cioè il vettore della velocità di ingresso, dalla loro osservazione in più istanti successivi (vedi ad es. tA1, tA, tA2; tB1, tB, tB2 nella Figura 1) per stimarne tramite semplici procedure di interpolazione il tempo di attraversamento delle due linee virtuali in corrispondenza dei punti A e B di inizio e fine sezione.
Così come qui utilizzato, il termine texture (struttura) identifica l’insieme di punti, linee e forme suscettibili di dare ad una superficie un aspetto compatto e unitario. Nella grafica tipica delle rappresentazioni in 3D, le texture svolgono un ruolo simile a quello di un vestito che ricopre i poligoni della rappresentazione 3D stessi, ricoprendoli al fine di definirli meglio, colorarli e in definitiva renderli più realistici allo sguardo, migliorando la qualità globale dell'aspetto grafico di una rappresentazione in 3D; nel caso specifico di ricerca di corrispondenza fra A e B, la texture può fornire un’informazione identificativa complementare al 3D e parimenti discriminante nel processo automatico di associazione.
Per semplicità, per quanto interessa ai fini della presente descrizione esemplificativa, si può per pensare ai dati di texture rilevabili dalla camere SC1 e SC2 come dati inerenti ai veicoli W e suscettibili di comprendere, oltre al colore/i complessivo della carrozzeria, anche dati di maggior dettaglio come la presenza e la distribuzioni di fasce ed elementi di colore diverso, etc… utilizzabili per integrare la rappresentazione 3D del veicolo.
Più tecnicamente, la texture rappresenta il contenuto di una o più immagini ottiche 2D che vengono sovrapposte mediante deformazione geometrica ad un modello 3D espresso in forma di superficie digitale (es. modello poligonale), in modo da aggiungere dettagli di tipo pittorico e non solo morfologico. Nella grafica computerizzata la texture aumenta quindi significativamente il realismo della rappresentazione e consente anche di riprodurre effetti legati alla illuminazione. Come esempio di tecniche di rappresentazione 3D+Tx si può pensare alla funzione di “wrapping” del rilievo del terreno e degli edifici 3D in mappe satellitari quali Google Earth®.
Nel presente contesto il ruolo è di una tale rappresentazione può essere quello di accoppiare in modo puntuale l'informazione geometrica presente nel modello 3D con l'informazione pittorica (colori, bordi, etc.) presente nelle immagini 2D.
In una o più forme di attuazione, il sistema può ancora annotare (registrare) – includendoli nei rapporti inviati (passi 105a-105b) verso la procedura di associazione (106 – discussa nel seguito) anche ulteriori dati sintetici quali ad es. la targa, il modello, il costruttore, il colore complessivo, la presenza di marchi codificati e quant'altro risulti utile conoscere per successive analisi.
In una o più forme di attuazione, i dati raccolti dal primo dispositivo SC1-U1 possono essere destinati ad essere elaborati in modo congiunto con i dati raccolti dal secondo dispositivo SC2-U2. Questo può avvenire (in tutto o in parte) in un passo 106 attuabile in una terza unità U3, ad es. secondo lo schema esemplificato nella Figura 2.
In una o più forme di attuazione, ferma restando la localizzazione delle camere SC1 e SC2 in corrispondenza dei punti A e B, la distribuzione “territoriale” delle unità U1, U2 e U3 cui sono demandate le varie funzioni di elaborazione dei segnali della camere SC1, SC2 può essere – almeno in linea di principio - qualsiasi, con tali unità suscettibili di comunicare fra loro su canali di varia natura, ad es. via rete LAN/WAN opportunamente protetta.
In una o più forme di attuazione, il secondo dispositivo SC2-U2 può svolgere una funzione essenzialmente analoga al primo dispositivo SC1-U1 per quanto concerne la funzione di cattura dei dati 3D/Texture (ad es. colore, nell’esempio semplificato qui considerato a fini illustrativi).
In una o più forme di attuazione i dispositivi SC1 e SC2, utilizzati in una sezione percorsa in entrambe le direzioni, possono svolgere sia la funzione U1 (elaborazione di ingresso) sia la funzione U2 (elaborazione di uscita) a seconda del verso di percorrenza stimato in base al vettore di velocità.
In una o più forme di attuazione, ad ogni veicolo W estratto (descritto in termini di 3D+Tx) il secondo dispositivo SC2-U2 può attivare una procedura di confronto (matching), attuabile appunto nel passo 106 insieme al calcolo della velocità.
Il tutto al fine di dare origine ad un risultato di rilevazione, suscettibile di essere reso disponibile ad un utilizzatore, qui esemplificato da una base dati DB, con il “record” elementare comprendente:
- l’identificazione di un certo veicolo W che ha percorso il tratto o sezione di lunghezza L compreso fra A e B, e
- l’indicazione della velocità (media) V con cui il veicolo in questione ha percorso tale tratto.
Al riguardo della procedura di confronto, un approccio convenzionale di ricerca dell’associazione “uno-a-molti” potrebbe risultare prono all’errore. Tale approccio prevede, dato un veicolo in uscita rilevato dal secondo dispositivo, di selezionare, tra tutti i veicoli in ingresso comunicati dal primo dispositivo, solo quelli entrati in un intervallo temporale definito in base ad una durata minima e massima dell’attraversamento ed attivare una ricerca di corrispondenza; ricerca destinata a valutare se, tra tutti i veicoli entrati in tale intervallo ne esiste almeno uno compatibile con quello corrente, ed in caso multiplo selezionare quello che massimizza uno score o "punteggio" di somiglianza. Il tutto provvedendo nel contempo anche a cancellare dalla lista in ingresso tutti i veicoli che non sono più di interesse per le procedure di verifica future. Questo modo di procedere è esposto al rischio di fornire risultati fortemente dipendenti dall'ordine in cui i veicoli vengono analizzati e di condurre facilmente ad errori di associazione se la lista in ingresso contiene coppie di veicoli molto simili fra loro. Questa eventualità è tanto più probabile quanto più il traffico risulta elevato e la sezione da controllare lunga. A titolo di esempio, il tempo di percorrenza di una sezione da 10Km con velocità massima 100Km/h con un intervallo di velocità da 50km/h a 300km/h corrisponde a un massimo di 12 minuti ed un minimo di 2 minuti pertanto l’intervallo di ricerca è pari a 10 minuti. In tale intervallo, con un flusso ad esempio di 3000 veicoli/ora, possono essere contenuti in media 500 veicoli, con forte probabilità di trovarne di molto simili.
Una o più forme di attuazione, possono invece adottare una funzione di matching più robusta, operando il matching non tra un singolo veicolo in uscita e tutti i veicoli in ingresso temporalmente compatibili, ma tra una lista di veicoli in uscita, raccolti in una certa finestra temporale, e tutti i veicoli in ingresso contenuti in un intervallo di ricerca desunto in base ad analoghi criteri basati sul tempo minimo e massimo di attraversamento della sezione.
Un tale tipo di associazione, detta “molti-a-molti” per distinguerla dalla associazione di tipo “uno-a-molti” discussa in precedenza, consente di massimizzare la affidabilità del matching anche nel caso della presenza di veicoli simili in ingresso/uscita a tempi ravvicinati, la cui corretta gestione potrebbe essere inficiata nel caso del semplice processo “uno-a-molti”.
Questo tipo di associazione, di tipo del tutto generale, è descritta nella letteratura scientifica: vedere ad es. J.Munkres: "Algorithms for the Assignment and Transportation Problems", Journal of the Society for Industrial and Applied Mathematics, Volume 5 Issue 1, March 1957, Pages 32–38.
Questa associazione può basarsi solo su dati di tipo numerico (matrice di misure di somiglianza) e pertanto non richiede ulteriori analisi complesse a livello di immagini.
In altre parole, in una o più forme di attuazione, la “somiglianza” di due generici veicoli X ed Y può essere stabilita ponendo in corrispondenza diretta punti delle due superfici 3D+Tx, utilizzando la posizione di riferimento ed il vettore di velocità come dati per ottenere il migliore allineamento possibile.
Allineate le due superfici, in una o più forme di attuazione è possibile valutare il grado di corrispondenza ad es. tramite una somma (pesata) delle differenze localmente rilevate, sia di tipo geometrico sia di struttura (texture ad es. colore). In questo modo è possibile stabilire un indicatore oggettivo (punteggio o “score”) di somiglianza che può includere sia aspetti dimensionali, sia aspetti pittorici, e prescindere da ogni interpretazione di tali dati volta ad estrarne un significato semantico.
In una o più forme di attuazione, utilizzando il principio della corrispondenza “molti-a-molti”, la ricerca delle associazioni ottimali può creare inizialmente una matrice di misure di somiglianza tra tutte le possibili coppie fra veicoli X in ingresso (punto A) ed veicoli Y in uscita (punto B), così come schematicamente rappresentato nella Figura 3 dove è evidenziata ad es. la possibile corrispondenza fra veicoli Win (…, Xn-2, Xn-1, Xn, Xn+1, Xn+2, Xn+3, Xn+4, Xn+5,…) rilevati in sequenza in ingresso nella sezione oggetto di rilevazione in una certa finestra temporale in ingresso e veicoli Wout(…, Yk-2, Yk-1, Yk, Yk+1, Yk+2, Yk+3, Yk+4, …) rilevati in sequenza in uscita in una finestra temporale in uscita compatibile con la finestra in ingresso. Per “compatibile” si intende una finestra temporale in uscita ritardata rispetto alla finestra temporale in ingresso di un intervallo di tempo rapportato ai possibili tempi di percorrenza della sezione di lunghezza L da parte dei veicoli W (tenuto conto dei possibili campi di variazione della velocità che si vuole poter rilevare).
Sulla base di tale matrice è possibile eseguire una procedura di associazione con l'obiettivo di identificare l'insieme delle coppie che risulta globalmente migliore; in presenza di soluzioni ambigue (es. veicoli del tutto identici o comunque non discriminabili in base ai dati disponibili), è anche possibile segnalare l'anomalia di una possibile doppia associazione. Stabilite le corrispondenze migliori tra quelle possibili, è infine possibile valutare le velocità di sezione e, se è il caso, generare le opportune segnalazioni.
Ad esempio, facendo riferimento alla rappresentazione matriciale (puramente esemplificativa) della Figura 3 è possibile vedere che i veicoli identificati (rispettivamente in ingresso ed in uscita) come Xn-2-Yk, Xn-Yk+2, Xn+2-Yk+3, Xn+5-Yk+4 risultano aver conservato le loro posizioni relative, indizio del fatto che hanno percorso la sezione più o meno alla stessa velocità.
I veicoli identificati (sempre rispettivamente in ingresso ed in uscita) come Xn+1-Yk-1e Xn+3-Yk+1, dimostrano invece di aver percorso la sezione più velocemente di altri, sorpassandoli.
Il veicolo identificato (ancora una volta rispettivamente in ingresso ed in uscita) come Xn+4-Yk-2dimostra invece di aver percorso la sezione a velocità elevata, avendo in pratica sorpassato tutti i veicoli che l’interpolazione in 3D delle traiettorie dei veicoli. Il tempo di attraversamento della sezione può essere determinato in base alla differenza dei tempi di passaggio, cosa possibile grazie alla sincronizzazione tra i due dispositivi SC1-U1, SC2-U2, conseguibile nei modi detti in precedenza.
In una o più forme di attuazione, l'informazione fornita all’utilizzatore DB può comprendere anche ulteriori informazioni oltre alla identificazione di un certo veicolo W ed all’indicazione della sua velocità.
La natura di tali ulteriori indicazioni (ad es. targa, colore complessivo del veicolo, tipo, modello) e le stesse modalità di presentazione delle informazioni (immagine, testo, ecc…) possono essere scelte in modo diverso in funzione delle esigenze o della natura dell’utilizzatore (pattuglia su strada, centro di sorveglianza, amministrazione municipale, ecc…), che possono essere i più diversi.
Tornando al tema della distribuzione sul territorio della unità U1, U2 e U3 della Figura 2, in una o più forme di attuazione, la funzione di ricerca della corrispondenza (unità U3) può essere di fatto “ospitata” sul secondo dispositivo (unità U2), ad esempio ammettendo che la ricostruzione degli attributi di forma/colore in uscita possibile utilizzare una asimmetria software, nel calcolo della ricostruzione 3D, per mantenere la simmetria hardware dei due dispositivi.
In una o più forme di attuazione, l'impiego di una rappresentazione dei dati 3D+Tx (3D e texture) in formato multi-scala può facilitare la scelta di un ragionevole compromesso tra accuratezza della descrizione e complessità computazionale. Una tale rappresentazione può quindi ospitare simultaneamente tutte le possibili scale di indagine, corrispondenti a diversi livelli di dettaglio, attraverso una struttura dati di tipo gerarchico nota nel mondo informatico come octree.
Tale tipo di rappresentazione consente di descrivere in modo efficiente volumi e superfici in 3D ed è comunemente impiegata nella grafica computerizzata. Maggiori dettagli sono reperibili nella letteratura scientifica, ad es. in C.H.Chien, J.K.Aggarwal: "Volume/surface octrees for the representation of threedimensional objects", Journal Computer Vision, Graphics and Image Processing, Volume 36 Issue 1, Oct.1986, Pages 100-113.
In una o più forme di attuazione, la misura di somiglianza può quindi limitarsi alle sole scale più grossolane nel caso di veicoli che risultino da subito affidabile sulla base della lunghezza L della tratta (nota) e delle posizioni 3D negli istanti di rilevamento, ossia Tin e Tout, e
- il tempo T = Tout - Tin trascorso tra tali istanti. In una o più forme di attuazione, la misura del tempo trascorso può coinvolgere una procedura (passi 103a, 103b) di correzione di eventuali errori di tipo sistematico. Nel caso in cui vengano rilevati errori oltre un limite prefissato, la procedura può produrre un segnale di anomalia ed interrompere il calcolo delle velocità fino al ripristino della sincronizzazione corretta.
In termini formali, indicato con EVl’errore percentuale sulla velocità e detta L la lunghezza della sezione, V la velocità e T il tempo di percorrenza, è
possibile esprimere tale errore EVmediante la relazione:
∆ V ∆ L ∆ T
Ε V = =
V L T
Osservando che L = V∙T, la stessa relazione può essere riformulata come
∆L+V ∆ T
Ε V =
L
Quest’ultima espressione evidenzia il fatto che l’errore di velocità è una funzione crescente della velocità V e decrescente della lunghezza della sezione L. Il suo valore massimo si ha quindi per una sezione di lunghezza minima percorsa alla velocità massima rilevabile. In altri termini, la relazione sopra consente di valutare la velocità massima sotto la quale l’errore EVrimane comunque entro un valore assegnato, noti i valori massimi di ∆L e di ΔT.
Un sistema con caratteristiche metrologiche così come qui esemplificato facilita il rispetto di tali valori.
Analizzando separatamente le fonti di errore ∆L e ΔT, si osserva che esse sono affette da errori sia di tipo sistematico sia di tipo casuale.
Nel caso della componente temporale ΔT, la parte strumentale si può ritenere trascurabile, mentre quella casuale può essere gestita mediante la sincronizzazione, prevedendo ad es. che in assenza di essa, non venga generata la misura di velocità.
Nel caso della componente spaziale ∆L, la parte sistematica è legata alla conoscenza della lunghezza L della sezione (ottenibile ad es. in fase di installazione e taratura del sistema) mentre la parte casuale dipende dalla capacità del sistema di posizionare correttamente il veicolo W rispetto ai punti di ingresso/uscita e di poter dimostrare tale correttezza.
Si è osservato che una o più forme di attuazione permettono di superare le limitazioni di varie soluzioni note anche a livello di certificazione del rispetto dei requisiti di accuratezza imposti.
Disponendo delle sole immagini 2D non risulta infatti possibile stabilire in modo sufficientemente certo la distanza tra veicolo e punto di ripresa (od altro punto di riferimento): piccole variazioni nel puntamento della telecamera o nei suoi parametri ottici sono invisibili all’osservazione ma possono indurre variazioni spaziali non trascurabili (es. anche di diversi metri); questo rende la misura di velocità valida solo per sezioni sufficientemente lunghe da rendere trascurabile il peso di tale tipo di errore.
A puro titolo di esempio - un sistema basato su telecamere 2D con un processo di lettura delle targhe e quindi privo di precisi e riscontrabili riferimenti 3D, può avere un errore di posizionamento del veicolo in A e in B di alcuni metri.
Ciò porta a superare il valore massimo di riferimento dell’1% di errore già su tratte da 500m. Se a questo si aggiunge la componente di errore dovuta alla sincronizzazione (pari a 0.1 secondi con la tecnologia attualmente disponibile) e alla velocità di un veicolo in infrazione ipotizzabile pari a 150Km/h, l’errore complessivo supera il valore dell’1% anche su tratte di lunghezza maggiore.
Una o più forme di attuazione, comprendenti (almeno) due dispositivi di cattura 3D+Tx ed una funzione di ricerca della corrispondenza e conseguente calcolo della velocità, possono quindi utilizzare una rappresentazione 3D del veicolo (ad es. in coordinate cartesiane comuni con la telecamera) tale da permettere di rilevare (con al più un errore di alcuni centimetri) la posizione relativa veicoloosservatore, eliminando quindi di fatto l’impatto della componente casuale ∆L, rendendolo nettamente inferiore alla componente sistematica.
Una descrizione 3D risulta infatti più completa di una descrizione 2D dello stesso oggetto fatta mediante una lista, per quanto lunga, di attributi. Tale lista, che richiede singoli processi di riconoscimento, oltre a non poter essere esaustiva, accumula inevitabilmente errori. Oltre a poter fornire un’accuratezza superiore alla rappresentazione del veicolo in sé, l’informazione 3D ne permette una misura accurata della posizione rispetto ai punti A e B note a priori le posizioni 3D delle stereocamere SC1, SC2 rispetto ai punti stessi. Ciò rende possibile la verifica metrologica della accuratezza della distanza del veicolo in A con il veicolo stesso in B e quindi, utilizzando il tempo trascorso, la verifica metrologica dell’accuratezza della grandezza fisica di interesse applicativo, ossia della velocità di sezione.
Una descrizione puramente 2D, ottenuta da una singola telecamera non permette di identificare, se non grossolanamente e senza riferimenti metrologici certi, la posizione del veicolo rispetto alle due linee di attraversamento della strada nei punti A e B e quindi non è in grado di porre limiti stringenti al possibile errore numerico nella stima di velocità.
In una o più forme di attuazione, un tale errore può essere invece completamente controllato sia dal punto di vista spaziale (posizione del veicolo rispetto ai punti A e B) sia da quello temporale (controllo della sincronizzazione).
Al riguardo si può osservare che la richiesta di precisione certificabile non è solo un fatto tecnico ma ha un notevole rilievo per eventuali fini sanzionatori: un errore elevato riduce di fatto il numero di violazioni rilevabili, vista la necessità di mantenere un intervallo di tolleranza più ampio ed il fatto che la maggior parte delle violazioni avviene per velocità di poco superiori al limite massimo tollerato. Un tale sistema è infatti esposto al rischio di dover sospendere la rilevazione in caso di mancato riscontro spaziale (telecamera spostata) o temporale (perdita sincronizzazione).
Si è ancora osservato che varie soluzioni note prevedono la sola lettura posteriore (ottenuta inquadrando il veicolo dal retro), escludendo la possibilità di lettura anteriore (ottenuta inquadrando il veicolo dal davanti). Questo presumibilmente in considerazione del fatto che la lettura anteriore può risultare più difficoltosa a causa della ridotta dimensione delle targhe anteriori, se non della mancata previsione delle stesse nei veicoli circolanti in certi stati.
Una o più forme di attuazione possono prescindere completamente dal tipo di installazione, che può quindi essere sia posteriore (come rappresentato schematicamente che nella Figura 1), sia anteriore, sia ancora – almeno in linea di principio - laterale (ossia con una telecamera aggiuntiva che inquadri il retro solo a scopo di documentazione), non essendoci la necessità di lettura in tempo reale della targa.
Una o più forme di attuazione superano dunque le limitazioni intrinseche dei sistemi che riducono esplicitamente l’intero veicolo alla sola targa, ignorando completamente ogni altro tipo di informazione utile sia per la valutazione di corrispondenza sia per la stima di velocità.
Oltretutto, utilizzando un sistema di lettura targhe operante in modo continuo, la lettura può avvenire in un qualsiasi punto nel cono di osservazione in cui la targa può essere rilevata dalla camera che la inquadra. In tali condizioni, la targa finisce per non essere riferita a una posizione spaziale precisa, anche quando si proceda – ad es. tramite interpolazioni 2D fra due fotogrammi - a collocare in qualche modo la targa in uno spazio 3D.
Una o più forme di attuazione possono basarsi, ad es. su una interpolazione tra successive rilevazioni (“fotogrammi”) 3D e calcolare con incertezza minima l’istante in cui un veicolo W attraversa le linee virtuali di inizio (punto A) e fine (punto B) della sezione di percorso sottoposta a rilevazione.
Una o più forme di attuazione possono peraltro prescindere del tutto dalla targa e dalla correttezza sintattica della sua lettura, basandosi invece sulle caratteristiche geometriche e pittoriche invarianti del veicolo stesso, cioè sulla sua forma geometrica e sul suo aspetto visivo determinato dalla texture.
Si apprezzerà che una o più forme di attuazione possono peraltro prevedere la rilevazione della targa che (come dato pittorico fortemente identificativo) può essere utilizzato come ulteriore elemento di raffronto. Tutto in condizioni in cui la mancata lettura automatica non inficia né la definizione della corrispondenza ingresso-uscita né tantomeno la stima della velocità di sezione.
In una o più forme di attuazione, un procedimento per rilevare la velocità (ad es. la velocità media V) di veicoli (ad es. W) in un tratto di percorso avente una lunghezza L fra un punto di ingresso (ad es. A) ed un punto di uscita (ad es. B) può comprendere:
- rilevare (ad es. 100a-104a) il transito di detti veicoli in detto punto di ingresso con primi mezzi rilevatori visivi (ad es. SC1) e in detto punto di uscita con secondi mezzi rilevatori visivi (ad es. SC2), ottenendo (ad es. in U1, U2) da detti primi e secondi mezzi rilevatori visivi rispettive rappresentazioni (ad es. 105a, 105b) dei veicoli in transito,
- elaborare (ad es. U3, 106) le rispettive rappresentazioni ottenute da detti primi e secondi mezzi rilevatori visivi accoppiando (ossia associando ad es. identificando) un certo veicolo (ad es. …, Yk-2, Yk-1, Yk, Yk+1, Yk+2, Yk+3, Yk+4, …) in transito in detto punto di uscita ad un tempo di uscita (ad es. Tout) con un veicolo (ad es. …, Xn-2, Xn-1, Xn, Xn+1, Xn+2, Xn+3, Xn+4, Xn+5,…) in transito in detto punto di ingresso ad un tempo di ingresso (ad es.
Tin), calcolando la velocità di detto certo veicolo su detto tratto di percorso in funzione di detta lunghezza L e del tempo intercorso fra detto tempo di ingresso e detto tempo di uscita (ad es. V = L/T dove T = Tout - Tin).
In una o più forme di attuazione, il procedimento può comprendere dette rispettive rappresentazioni dei veicoli in transito come rappresentazioni tridimensionali (3D) dei veicoli stessi.
In una o più forme di attuazione, il procedimento può comprendere detti primi mezzi rilevatori visivi e detti secondi mezzi rilevatori visivi come mezzi rilevatori stereometrici (stereo-camere).
Una o più forme di attuazione possono prevedere di configurare detti primi mezzi rilevatori visivi e detti secondi mezzi rilevatori visivi per ottenere dette rispettive rappresentazioni tridimensionali dei veicoli stessi per estrapolazione di rappresentazioni bidimensionali dei veicoli.
Una o più forme di attuazione possono prevedere di ottenere dette rispettive rappresentazioni dei veicoli in transito come rappresentazioni tridimensionali dei veicoli stessi integrate da informazioni di struttura (texture).
In una o più forme di attuazione, dette informazioni di struttura (texture) possono comprendere informazioni sul colore di detti veicoli.
In una o più forme di attuazione detto elaborare (U3, 106) le rispettive rappresentazioni ottenute da detti primi e secondi mezzi rilevatori visivi può comprendere una procedura di matching in cui si valuta la corrispondenza fra:
- un insieme di rappresentazioni ottenute da detti secondi mezzi rilevatori visivi per una pluralità di veicoli (ad es. Yk-2, Yk-1, Yk, Yk+1, Yk+2, Yk+3, Yk+4, … in Figura 3) in transito in detto punto di uscita, e
- un insieme di rappresentazioni ottenute da detti primi mezzi rilevatori visivi per una pluralità di veicoli (ad es. …, Xn-2, Xn-1, Xn, Xn+1, Xn+2, Xn+3, Xn+4, Xn+5,… in Figura 3) in transito in detto punto di ingresso.
Una o più forme di attuazione possono prevedere di valutare la corrispondenza fra le rappresentazioni di detti insiemi tramite una somma, preferibilmente pesata, delle differenze fra dette rappresentazioni.
Una o più forme di attuazione possono prevedere di: - ottenere da detti primi e secondi mezzi rilevatori visivi rappresentazioni dei veicoli in transito aventi almeno un primo livello ed almeno un secondo livello, rispettivamente più grossolano e più fine,
- valutare la corrispondenza fra le rappresentazioni di detti insiemi a partire da detto primo livello, estendendo la valutazione della corrispondenza a detto almeno un secondo livello per le sole rappresentazioni per cui si è riscontrata la corrispondenza a detto almeno un primo livello.
In una o più forme di attuazione un sistema per rilevare la velocità (ad es. media) di veicoli in un tratto di percorso avente una lunghezza fra un punto di ingresso ed un punto di uscita, può comprendere:
- primi mezzi rilevatori visivi stereometrici posizionabili in detto punto di ingresso,
- secondi mezzi rilevatori visivi stereometrici posizionabili in detto punto di uscita,
- mezzi di elaborazione (ad es. U1, U2, U3) accoppiabili a detti primi ed a detti secondi mezzi rilevatori visivi per ottenere rispettive rappresentazioni dei veicoli in transito,
il sistema essendo configurato per operare con il procedimento in precedenza esemplificato.
Si apprezzerà infine che la possibilità di ottenere rappresentazioni dei veicoli in transito come rappresentazioni tridimensionali dei veicoli stessi non è da intendesi limitata alla soluzione qui esemplificata, basata sull’impiego di mezzi rilevatori stereometrici quali stereo-camere, operanti ad es. con tecniche di estrapolazione di rappresentazioni bidimensionali dei veicoli.
In una o più forme di attuazione, per ottenere rappresentazioni dei veicoli in transito come rappresentazioni tridimensionali dei veicoli stessi è possibile ricorrere a soluzioni diverse quali ad es. telecamere a tempo di volo (Time Of Flight camera o TOF-camera) oppure tecniche di profilometria.
Una telecamera a tempo di volo permette di valutare la distanza tra la telecamera ed un oggetto - ad es. un veicolo - rilevando il tempo “di volo” impiegato da un impulso di luce per percorrere il cammino di andata e ritorno fra la camere e l’oggetto.
La rilevazione della distanza può essere effettuata in modo selettivo (idealmente per ciascun pixel), il che consente di ottenere le rispettive rappresentazioni dei veicoli in transito come rappresentazioni tridimensionali dei veicoli stessi.
In una o più forme di attuazione, quale che sia per la soluzione adottata per ottenere rappresentazioni tridimensionali dei veicoli in transito, una telecamera ottica può fornire l’informazione “pittorica” per la rappresentazione 3D+Tx.
Fermi restando i principi di fondo, i particolari di realizzazione e le forme di attuazione potranno variare, anche in modo significativo, rispetto a quanto qui illustrato a puro titolo di esempio non limitativo, senza per questo uscire dall'ambito di protezione.
Tale ambito di protezione è definito dalle rivendicazioni annesse.

Claims (10)

  1. RIVENDICAZIONI 1. Procedimento per rilevare la velocità (V) di veicoli (W) in un tratto di percorso avente una lunghezza (L) fra un punto di ingresso (A) ed un punto di uscita (B), il procedimento comprendendo: - rilevare (100a-104a) il transito di detti veicoli (W) in detto punto di ingresso (A) con primi mezzi rilevatori visivi (SC1) e in detto punto di uscita (B) con secondi mezzi rilevatori visivi (SC2), ottenendo (U1, U2) da detti primi (SC1) e secondi (SC2) mezzi rilevatori visivi rispettive rappresentazioni (105a, 105b) dei veicoli (W) in transito, - elaborare (U3, 106) le rispettive rappresentazioni (105a, 105b) ottenute da detti primi (SC1) e secondi (SC2) mezzi rilevatori visivi accoppiando un certo veicolo (…, Yk-2, Yk-1, Yk, Yk+1, Yk+2, Yk+3, Yk+4, …) in transito in detto punto di uscita (B) ad un tempo di uscita con un veicolo (…, Xn-2, Xn-1, Xn, Xn+1, Xn+2, Xn+3, Xn+4, Xn+5,…) in transito in detto punto di ingresso (A) ad un tempo di ingresso, - calcolare la velocità di detto certo veicolo su detto tratto di percorso in funzione di detta lunghezza (L) e del tempo intercorso fra detto tempo di ingresso e detto tempo di uscita, il procedimento comprendendo ottenere dette rispettive rappresentazioni (105a, 105b) dei veicoli (W) in transito come rappresentazioni tridimensionali dei veicoli stessi.
  2. 2. Procedimento secondo la rivendicazione 1, comprendente configurare detti primi mezzi rilevatori visivi (SC1) e detti secondi mezzi rilevatori visivi (SC2) come mezzi rilevatori stereometrici.
  3. 3. Procedimento secondo la rivendicazione 2, comprendente configurare detti primi mezzi rilevatori visivi (SC1) e detti secondi mezzi rilevatori visivi (SC2) per ottenere dette rispettive rappresentazioni tridimensionali dei veicoli stessi per estrapolazione di rappresentazioni bidimensionali dei veicoli (W).
  4. 4. Procedimento secondo una qualsiasi delle rivendicazioni precedenti, comprendente ottenere dette rispettive rappresentazioni (105a, 105b) dei veicoli (W) in transito come rappresentazioni tridimensionali dei veicoli stessi integrate da informazioni di struttura (texture).
  5. 5. Procedimento secondo la rivendicazione 4, in cui dette informazioni di struttura (texture) comprendono informazioni sul colore di detti veicoli (W).
  6. 6. Procedimento secondo una qualsiasi delle rivendicazioni precedenti, in cui detto elaborare (U3, 106) le rispettive rappresentazioni (105a, 105b) ottenute da detti primi (SC1) e secondi (SC2) mezzi rilevatori visivi comprende una procedura di matching in cui si valuta la corrispondenza fra: - un insieme di rappresentazioni ottenute da detti secondi (SC2) mezzi rilevatori visivi per una pluralità di veicoli (…, Yk-2, Yk-1, Yk, Yk+1, Yk+2, Yk+3, Yk+4, …) in transito in detto punto di uscita (B), e - un insieme di rappresentazioni ottenute da detti primi (SC1) mezzi rilevatori visivi per una pluralità di veicoli (…, Xn-2, Xn-1, Xn, Xn+1, Xn+2, Xn+3, Xn+4, Xn+5,…) in transito in detto punto di ingresso.
  7. 7. Procedimento secondo la rivendicazione 6, comprendente valutare la corrispondenza fra le rappresentazioni di detti insiemi tramite una somma, preferibilmente pesata, delle differenze fra dette rappresentazioni.
  8. 8. Procedimento secondo la rivendicazione 6 o la rivendicazione 7, comprendente - ottenere da detti primi (SC1) e secondi (SC2) mezzi rilevatori visivi rappresentazioni (105a, 105b) dei veicoli (W) in transito aventi almeno un primo livello ed almeno un secondo livello, rispettivamente più grossolano e più fine, - valutare la corrispondenza fra le rappresentazioni di detti insiemi a partire da detto almeno un primo livello, estendendo la valutazione della corrispondenza a detto almeno un secondo livello per le sole rappresentazioni per cui si è riscontrata la corrispondenza a detto almeno un primo livello.
  9. 9. Sistema per rilevare la velocità (V) di veicoli (W) in un tratto di percorso avente una lunghezza (L) fra un punto di ingresso (A) ed un punto di uscita (B), il sistema comprendendo: - primi mezzi rilevatori visivi stereometrici (SC1) posizionabili in detto punto di ingresso (A), - secondi mezzi rilevatori visivi stereometrici (SC2) posizionabili in detto punto di uscita (B), - mezzi di elaborazione (U1, U2, U3) accoppiabili a da detti primi (SC1) ed a detti secondi (SC2) mezzi rilevatori visivi per ottenere rispettive rappresentazioni (105a, 105b) dei veicoli (W) in transito, il sistema essendo configurato per operare con il procedimento secondo una qualsiasi delle rivendicazioni 1 a 8.
  10. 10. Prodotto informatico caricabile nella memoria di almeno un dispositivo di elaborazione (U1, U2, U3) e comprendente porzioni di codice software per eseguire le fasi del procedimento secondo una qualsiasi delle rivendicazioni 1 a 8 quando il prodotto è eseguito su almeno un dispositivo di elaborazione.
ITUA2016A004219A 2016-06-09 2016-06-09 Procedimento e sistema per la rilevazione di traffico veicolare, corrispondente prodotto informatico ITUA20164219A1 (it)

Priority Applications (1)

Application Number Priority Date Filing Date Title
ITUA2016A004219A ITUA20164219A1 (it) 2016-06-09 2016-06-09 Procedimento e sistema per la rilevazione di traffico veicolare, corrispondente prodotto informatico

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
ITUA2016A004219A ITUA20164219A1 (it) 2016-06-09 2016-06-09 Procedimento e sistema per la rilevazione di traffico veicolare, corrispondente prodotto informatico

Publications (1)

Publication Number Publication Date
ITUA20164219A1 true ITUA20164219A1 (it) 2017-12-09

Family

ID=57209686

Family Applications (1)

Application Number Title Priority Date Filing Date
ITUA2016A004219A ITUA20164219A1 (it) 2016-06-09 2016-06-09 Procedimento e sistema per la rilevazione di traffico veicolare, corrispondente prodotto informatico

Country Status (1)

Country Link
IT (1) ITUA20164219A1 (it)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090207046A1 (en) * 2006-03-22 2009-08-20 Kria S.R.L. system for detecting vehicles
EP2799901A2 (de) * 2013-04-30 2014-11-05 JENOPTIK Robot GmbH Verkehrsüberwachungssystem zur Geschwindigkeitsmessung und Zuordnung von bewegten Fahrzeugen bei einem Mehrziel-Aufnahmemodul

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20090207046A1 (en) * 2006-03-22 2009-08-20 Kria S.R.L. system for detecting vehicles
EP2799901A2 (de) * 2013-04-30 2014-11-05 JENOPTIK Robot GmbH Verkehrsüberwachungssystem zur Geschwindigkeitsmessung und Zuordnung von bewegten Fahrzeugen bei einem Mehrziel-Aufnahmemodul

Similar Documents

Publication Publication Date Title
Xiao et al. Pandaset: Advanced sensor suite dataset for autonomous driving
Chen et al. Cooper: Cooperative perception for connected autonomous vehicles based on 3d point clouds
US11287523B2 (en) Method and apparatus for enhanced camera and radar sensor fusion
CN105711597B (zh) 前方局部行驶环境感知***及方法
AU2017300097B2 (en) Crowdsourcing and distributing a sparse map, and lane measurements for autonomous vehicle navigation
CN106407315B (zh) 一种基于街景图像数据库的车辆自主定位方法
CN110285793A (zh) 一种基于双目立体视觉***的车辆智能测轨迹方法
CN103377476B (zh) 使用三维地理弧的多模型数据的图像配准
CN110462343A (zh) 基于地图的用于车辆的自动图像标记
CN108229366A (zh) 基于雷达和图像数据融合的深度学习车载障碍物检测方法
CN110322702A (zh) 一种基于双目立体视觉***的车辆智能测速方法
CN109359409A (zh) 一种基于视觉与激光雷达传感器的车辆可通过性检测***
JP2021508815A (ja) 妨害物体の検出に基づいて高精細度マップを補正するためのシステムおよび方法
CN106503653A (zh) 区域标注方法、装置和电子设备
CN106462727A (zh) 用于车道尽头识别的***和方法
CN105849771A (zh) 移动设备上的同步定位与映射
CN106796648A (zh) 用于检测对象的***和方法
CN105654732A (zh) 一种基于深度图像的道路监控***及方法
US20180293450A1 (en) Object detection apparatus
WO2016185373A1 (en) Detection and documentation of tailgating and speeding violations
CN106463051A (zh) 信号机识别装置以及信号机识别方法
CN108805910A (zh) 多目车载记录仪、目标检测方法、智能驾驶***及汽车
Beck et al. Automated vehicle data pipeline for accident reconstruction: New insights from LiDAR, camera, and radar data
Li et al. Durlar: A high-fidelity 128-channel lidar dataset with panoramic ambient and reflectivity imagery for multi-modal autonomous driving applications
CN115440034B (zh) 一种基于摄像头的车路协同实现方法及实现***