ITBO20000166A1 - Metodo , e relativa apparecchiatura , per la rilevazione automatica di microcalcificazioni in segnali digitali di tessuto mammario . - Google Patents

Metodo , e relativa apparecchiatura , per la rilevazione automatica di microcalcificazioni in segnali digitali di tessuto mammario . Download PDF

Info

Publication number
ITBO20000166A1
ITBO20000166A1 IT2000BO000166A ITBO20000166A ITBO20000166A1 IT BO20000166 A1 ITBO20000166 A1 IT BO20000166A1 IT 2000BO000166 A IT2000BO000166 A IT 2000BO000166A IT BO20000166 A ITBO20000166 A IT BO20000166A IT BO20000166 A1 ITBO20000166 A1 IT BO20000166A1
Authority
IT
Italy
Prior art keywords
microcalcifications
image
classifier
svm
false
Prior art date
Application number
IT2000BO000166A
Other languages
English (en)
Inventor
Renato Campanini
Armando Bazzani
Alessandro Bevilacqua
Rosa Brancaccio
Nico Lanconelli
Alessandro Riccardi
Davide Romani
Original Assignee
Univ Bologna
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Univ Bologna filed Critical Univ Bologna
Priority to IT2000BO000166A priority Critical patent/IT1320956B1/it
Priority to EP00128526A priority patent/EP1136914A3/en
Priority to US09/775,216 priority patent/US20010031076A1/en
Publication of ITBO20000166A1 publication Critical patent/ITBO20000166A1/it
Application granted granted Critical
Publication of IT1320956B1 publication Critical patent/IT1320956B1/it

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H15/00ICT specially adapted for medical reports, e.g. generation or transmission thereof
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Public Health (AREA)
  • Primary Health Care (AREA)
  • General Health & Medical Sciences (AREA)
  • Epidemiology (AREA)
  • Biomedical Technology (AREA)
  • Theoretical Computer Science (AREA)
  • Databases & Information Systems (AREA)
  • Pathology (AREA)
  • Data Mining & Analysis (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Image Analysis (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Investigating Or Analysing Biological Materials (AREA)

Description

D E S C R I Z I O N E
del brevetto per invenzione industriale
La presente invenzione è relativa ad un metodo e ad una apparecchiatura per analisi, elaborazione e rivelazione automatica di microcalcificazioni in segnali digitali di tessuto mammario.
In Europa e negli Stati Uniti il tumore al seno è in assoluto la forma di neoplasia più diffusa tra le donne e costituisce anche una delle principali cause di mortalità della popolazione femminile.
La mammografia è un esame radiologico diretto della mammella che permette la visualizzazione di tutte le sue componenti anatomiche mettendo in evidenza le alterazioni patologiche. Un fascio di raggi X attraversa la mammella e viene registrata la differente capacità di assorbimento dei tessuti incontrati su una lastra sensibile a queste radiazioni .
La scoperta della mammografia ha costituito una vera e propria rivoluzione nella lotta al carcinoma mammario.
Grazie all'incessante sviluppo tecnologico ed all'affinamento della metodologia, la mammografia moderna è in grado di evidenziare lesioni di pochi millimetri in donne completamente asintomatiche, consentendo la significativa anticipazione diagnostica che è alla base della diagnosi precoce.
In una lastra mammografica al tessuto ghiandolare e ai dotti galattofori sono associate zone molto chiare (alto potere di assorbimento delle radiazioni, zone radio-opache), mentre il tessuto grasso, concentrato nella parte più esterna della mammella, risulta molto più scuro (basso potere di assorbimento dei raggi X, zona radio-lucente) . Le anomalie dovute a patologie presenti o in via di sviluppo hanno caratteristiche di assorbimento delle radiazioni diverse da quelle dei tessuti sani e vengono perciò evidenziate nell'esame mammografico.
Una delle più significative anomalie è la microcalcificazione. Tipicamente appare come una minuscola macchia luminosa dal bordo nitido; essa ha dimensioni che vanno da 0.1 a 1 mm di diametro ed assume una notevole rilevanza clinica se presente in gruppi (cluster) di almeno cinque in un'area di 1cmx1cm. La rilevazione dei cluster di microcalcificazioni è il principale ausilio alla diagnosi precoce del tumore al seno. In generale la struttura del tessuto mammario genera uno sfondo molto rumoroso rendendo difficile la rivelazione di questi segnali.
L'avvento delle nuove tecnologie digitali ha permesso di sottoporre le lastre ad un'analisi computerizzata. Da allora sono stati concepiti diversi sistemi computerizzati (CAD, Computer Assisted Diagnosis) allo scopo di coadiuvare il radiologo nella diagnosi. Un CAD elabora un'immagine mammografica e individua le zone sospette da sottoporre all'esame del radiologo (prompting). Al fine di essere d'aiuto per la diagnosi precoce del carcinoma mammario, è necessario che il sistema computerizzato riesca a rivelare i cluster di microcalcificazioni. Esso deve essere molto sensibile, allo scopo di trovare microcalcificazioni che il radiologo potrebbe non vedere; in tal modo diventa un valido sostituto del secondo radiologo permettendo di mantenere bassi sia i tempi sia i costi di una diagnosi.
È altrettanto importante che non evidenzi zone con segnali di altra natura (falsi-positivi), pena l'aumento del tempo necessario alla diagnosi e la riduzione della fiducia che lo specialista avrà nell'utilizzare una tale soluzione .
Due diversi tipi di errore possono essere commessi durante la lettura di una mammografia; errori dovuti a falsi-positivi ed errori dovuti a falsi-negativi.
Un errore falso-negativo si verifica qualora una mammografia contenente un qualche tipo di lesione venga erroneamente classificata come normale. In altre parole, la lesione non viene rivelata dal medico e la donna che presenta i sintomi di un carcinoma al seno viene diagnosticata sana. Questo tipo di errore è chiaramente il più grave, poiché un ritardo nella diagnosi e nella cura del disturbo possono compromettere irrimediabilmente la salute della donna.
Il secondo tipo di errore, detto errore falsopositivo, viene commesso quando in una normale mammografia vengono segnalate lesioni che invece non esistono. Sebbene questo tipo di errore non influenzi le probabilità di sopravvivenza della paziente, può comunque produrre conseguenze psicologiche negative su di essa.
Infatti una qualsiasi diagnosi di tumore al seno a seguito di un esame mammografico produce nella paziente una grande preoccupazione sul suo stato di salute.
In una mammografia le lesioni possono apparire con una grande varietà di forma, dimensione e livello di contrasto. Analogamente, la densità e la complessità del tessuto mammario che costituisce il background strutturato dell'immagine possono assumere notevoli variazioni. Può allora accadere che un cluster di microcalcificazioni sia particolarmente evidente e facile da rivelare in una certa area della mammografia, mentre in zone in cui il contrasto fra le calcificazioni del cluster e il background è basso la sua individuazione può richiedere un'attenta e sistematica analisi dell'immagine. Questo suggerisce che l'accuratezza del lavoro di un radiologo possa beneficiarne se l'attenzione del medico viene diretta, attraverso un sistema automatico, verso quelle zone dell'immagine in cui le sospette lesioni sono presenti.
In questo tipo di processi di identificazione è conosciuto l'uso di classificatori automatici, per esempio, reti neurali, che comprendono una fase di addestramento. Generalmente, un classificatore viene messo a punto considerando soltanto gli "errori empirici" che esso compie in questa fase senza tener conto del suo comportamento in presenza di un segnale mai analizzato.
La presente invenzione, invece, si prefigge di ovviare al suddetto svantaggio fornendo un processo innovativo, ed il relativo metodo, che utilizza un classificatore basato sulla Statistical Learning Theory denominato Support Vector Machine (SVM). Tale classificatore considera, in fase di apprendimento, non solo il già citato "errore empirico", ma anche un termine, chiamato "termine di confidenza", che dipende dalla capacità di classificazione del classificatore stesso e dal numero degli esempi di addestramento. La somma dell' "errore empirico" e del "termine di confidenza" fornisce un limite superiore al cosiddetto "errore vero", o "errore di generalizzazione", il quale dà una indicazione precisa delle reali prestazioni del classificatore. Nella presente invenzione si fa uso del citato classificatore SVM nella fase di riduzione di segnali falsi-positivi; questa fase è di fondamentale importanza in quanto permette di separare i falsi segnali rivelati dal metodo automatico dalle vere microcalcificazioni .
Anche se nel prosieguo della presente descrizione ci riferiremo espressamente ad una mammografia, resta inteso che gli insegnamenti della presente invenzione possono essere applicati, mutatis mutandis, alla analisi ed alla elaborazione di segnali digitali di porzioni di tessuto mammario provenienti da qualsivoglia metodo di indagine e di rivelazione, come, per esempio, Risonanza Magnetica Nucleare, termografia, ecografia, scintimammografia, TAC, PET, ecc.
Pertanto oggetto principale della presente invenzione è quello di fornire un metodo per la rivelazione automatica di microcalcificazioni in un segnale digitale rappresentante almeno una porzione di tessuto mammario; metodo comprendente i seguenti passi:
• rivelare almeno una potenziale microcalcificazione in detto segnale digitale;
• calcolare un insieme di caratteristiche per detta almeno una potenziale microcalcificazione; ed infine • eliminare, o meno, detta almeno una potenziale microcalcificazione, sulla base delle caratteristiche calcolate utilizzando un classificatore denominato Support Vector Machine (SVM).
Altro oggetto della presente invenzione è un metodo per memorizzare le informazioni relative a zone di interesse presenti nei segnali digitali tramite l'uso di una tavoletta-schermo.
Altro oggetto della presente invenzione è un metodo per la classificazione delle zone di interesse di un'immagine mammografica digitale secondo il loro grado di malignità.
Ulteriore oggetto della presente invenzione è una apparecchiatura fisica atta ad implementare i suddetti metodi .
La presente invenzione verrà ora descritta con riferimento ai disegni annessi, che ne illustrano degli esempi di attuazione non limitativi; in cui:
- la figura 1 illustra un diagramma di flusso di una prima forma di attuazione di un metodo di rivelazione automatica, metodo oggetto della presente invenzione;
- la figura 2 illustra un diagramma di flusso di una seconda forma di attuazione di un metodo di rivelazione automatica, metodo oggetto della presente invenzione;
- la figura 3 mostra un istogramma di una immagine mammografica digitalizzata a 12 bit;
- la figura 4 illustra un diagramma di flusso di un algoritmo di segmentazione dell'immagine digitale;
- la figura 5 mostra un diagramma di flusso di un primo metodo di rivelazione utilizzato nei sistemi rappresentati nelle figure 1, 2;
la figura 6 illustra una distribuzione della deviazione standard del contrasto locale per una immagine digitale;
- la figura 7 mostra la deviazione standard del contrasto locale ed il livello di rumore per una immagine digitale dopo la procedura di equalizzazione del rumore;
- la figura 8 mostra una matrice rappresentante i coefficienti di un primo filtro;
- la figura 9 illustra una matrice rappresentante i coefficienti di un secondo filtro;
- la figura 10 mostra gli istogrammi di due diverse regioni dell'immagine filtrata; dove (a) è relativo ad una zona priva di microcalcificazioni, (b) è relativo ad una zona contenente microcalcificazioni, e {c) illustra i particolari della coda di (b);
- la figura 11 illustra un esempio di correzione del background di una regione di interesse (ROI);
- la figura 12 mostra le caratteristiche calcolate nella fase di riduzione dei falsi-positivi;
- la figura 13 illustra l'andamento degli errori in funzione della dimensione VC;
- la figura 14 mostra un diagramma di flusso della strategia di apprendimento "boot-strap";
- la figura 15 mostra un diagramma di flusso di un secondo metodo di rivelazione utilizzato nei sistemi rappresentati nelle figure 1, 2;
- la figura 16 illustra schematicamente il metodo Fast Wavelet Transform (FWT);
- la figura 17 mostra schematicamente un diagramma di flusso del filtro wavelet;
- la figura 18 mostra la distribuzione dei livelli di grigio in regioni senza microcalcificazioni (a,b), ed in regioni con microcalcificazioni (c,d);
- la figura 19 illustra un esempio di distribuzione di luminosità all'interno di un ritaglio e fitting con curva di tipo parabolico;
- la figura 20 mostra le forme utilizzate per la pulizia del ritaglio di immagine;
- la figura 21 illustra delle possibili risposte di un osservatore in un semplice schema decisionale di tipo "Sì/No";
- la figura 22 mostra un esempio di Free-Response Operating Characteristic (FROC);
- la figura 23 mostra un diagramma di flusso della fase di classificazione delle ROI secondo il loro grado di malignità;
- la figura 24 mostra un procedimento utilizzato per eliminare il background strutturato nelle ROI; ed infine - la figura 25 illustra un diagramma di flusso della fase di ottimizzazione dei parametri con algoritmo genetico.
Il primo passo del metodo di rivelazione automatica di cluster di microcalcificazioni rappresentato in figura 1 e figura 2 è l'acquisizione dell'immagine digitalizzata .
Tale processo viene attuato o mediante un mammografo digitale, o mediante l'uso di uno scanner di tipo laser o CCD.
Segue una fase di segmentazione in cui si cerca di eliminare dall'immagine digitale tutto ciò che non comprende il tessuto mammario.
Questa immagine viene quindi passata ai due possibili metodi di rivelazione.
In una prima realizzazione del metodo (figura 1), dopo aver effettuato la segmentazione dell'immagine, si attua, separatamente in ciascuno dei metodi, una fase di riduzione dei falsi-positivi (fpr), basata sull'uso di un classificatore SVM. I segnali uscenti dal classificatore vengono uniti dall'operazione logica OR.
In una seconda realizzazione (figura 2) i segnali rivelati dai due metodi sono prima uniti dall'operazione logica OR, poi passati al classificatore SVM.
I segnali che superano la fase di fpr sono poi raggruppati in gruppi (fase di clustering).
Infine, sono visualizzati su monitor i risultati finali, per esempio tramite circonferenze colorate che evidenziano le zone interessanti individuate dal metodo.
La scelta dei parametri in gioco nelle fasi di rivelazione e classificazione tramite SVM viene ottimizzata grazie all'uso di un algoritmo genetico.
Entrando più nel dettaglio, si può dire che le mammografie in forma digitale possono essere ottenute in due modi distinti, detti primario e secondario. Il metodo primario permette di ottenere direttamente mammografie digitali registrando in forma digitale il fascio di raggi-X trasmesso. Questa tecnica non prevede perciò l'uso della convenzionale lastra radiografica. Con il metodo secondario l'immagine radiografica viene prima registrata su pellicola e solo in un secondo momento si procede alla sua digitalizzazione mediante un opportuno scanner oppure telecamera CCD.
Le immagini digitali del metodo qui descritto provengono dal metodo secondario ed hanno una profondità di 12 bit (4096 livelli di grigio) e una risoluzione spaziale di 100 μm.
Come è stato detto in precedenza, la prima operazione da effettuare sull'immagine consiste nel riconoscimento dell'area occupata dal parenchima mammario .
Nella presente invenzione, il riconoscimento dell'area occupata dal seno è stato ottenuto da un'analisi dell'istogramma dell'immagine.
Le immagini mammografiche si prestano bene a questo tipo di approccio, poiché il loro istogramma (figura 3) presenta sistematicamente le seguenti caratteristiche: • un picco nella regione più scura, corrispondente alla superficie della pellicola esposta direttamente ai raggi X;
• una lunga coda corrispondente al tessuto mammario;
• un ampio intervallo a frequenza pressoché nulla;
• un eventuale picco nella regione più chiara, corrispondente a regioni non attraversate dai raggi X, scritte e marker, aree acquisite dallo scanner esternamente alla lastra radiografica.
L'algoritmo di segmentazione esegue le operazioni schematizzate nel diagramma di flusso di figura 4.
Il primo metodo di rivelazione è rappresentato nel diagramma di flusso mostrato in figura 5.
In tale figura 5 è possibile distinguere un primo passo che si riferisce alla equalizzazione del rumore.
L'idea di fondo di siffatta equalizzazione del rumore è quella di renderlo indipendente dal valore del livello di grigio.
A causa delle proprietà fisiche del processo di formazione delle immagini, le informazioni in esse contenute presentano errori statistici cui si dà il nome di rumore. Nonostante le immagini radiografiche abbiano alto contrasto ed alta risoluzione spaziale, l'identificazione di particolari dell'immagine diventa difficile quando il livello di rumore è elevato rispetto ai dettagli rilevanti dal punto di vista diagnostico. Il rumore non è distribuito uniformemente nell'immagine, ma dipende dalle proprietà di attenuazione del tessuto rappresentato. In altre parole, il livello di rumore è considerabilmente più elevato nelle regioni maggiormente luminose della radiografia, che rappresentano tessuto denso. Caratteristiche estratte da diverse regioni dell'immagine presentano perciò diverse variazioni statistiche. Per rivelare con la stessa probabilità oggetti situati in diverse regioni dell'immagine, l'algoritmo che ne estrae le caratteristiche non può prescindere dalla dipendenza del rumore dal livello di grigio. L'equalizzazione può essere vista come una trasformazione non lineare dei livelli di grigio che porta ad ottenere un livello di rumore costante in ogni regione dell'immagine. In questo modo, le caratteristiche estratte dal metodo automatico presentano le stesse deviazioni statistiche, ed i segnali possono essere rivelati indipendentemente dalla regione dell'immagine considerata.
I passi per effettuare l'equalizzazione sono i seguenti :
• calcolo del contrasto locale;
stima della deviazione standard del contrasto locale; • calcolo della trasformazione da applicare all' immagine .
Per il calcolo del contrasto locale cp si utilizzata
dove I(p) è il livello di grigio nel punto p, e dp un intorno del punto p costituito da N punti.
Per ottenere un valore attendibile della deviazione standard del contrasto locale ac(y), è necessario un elevato numero di punti p tali che I(p)=yt per ogni livello di grigio y. Tale requisito non è soddisfatto per ogni valore di y. Per superare questo problema, la scala di grigi viene suddivisa in un numero K di intervalli (bin). Per ogni intervallo k viene calcolato il valore medio del contrasto locale c(k) e la deviazione standard ac(k); si effettua poi un'interpolazione su ac(k) in modo da ottenere una stima di ac(y) per ogni livello di grigio y. La figura 6 mostra una tipica distribuzione di crc(k).
Per effettuare l'interpolazione su ac(k) è stata utilizzata una interpolazione con una polinomiale di terzo grado.
La trasformazione usata di tipo noto è la seguente:
Dove ar è il livello costante della deviazione standard del contrasto locale dell'immagine trasformata.
Applicando la trasformazione y—>L(y) al livello di grigio di ogni punto, si ottiene un'immagine in cui il rumore rc è pressoché indipendente dal livello di grigio considerato. In figura 7 è rappresentato l'andamento di ac(y) fino ad un livello di grigio pari a 200 dopo l'equalizzazione del rumore; si noti che l'unico intervallo di livelli di grigio in cui σα{γ) si distacca apprezzabilmente da ar è nella zona a bassi livelli di grigio, di scarso interesse per il riconoscimento di microcalcificazioni.
In altre forme di attuazione del metodo oggetto della presente invenzione non è contemplata la suddetta fase di equalizzazione del rumore. In questo caso l'immagine segmentata è passata direttamente alle fasi successive dell'algoritmo di rivelazione.
Prendendo in considerazione di nuovo la figura 5, possiamo notare che la funzione del filtro lineare è quella di eliminare, o almeno ridurre il contributo del background strutturato (rumore a bassa frequenza). A questo scopo si è utilizzata una tecnica nota nel campo dell'elaborazione di immagini.
In campo spaziale il valore del pixel dell'immagine filtrata assume il valore:
è il lato in pixel della maschera g2 e xt J è il valore di intensità del pixel (i,j) dell'immagine di partenza. I valori dei coefficienti dei pesi delle maschere gl e g2, nel caso di immagini con risoluzione pari a 100 μm, sono riportati, rispettivamente, nelle figure 8 e 9.
L'immagine così filtrata contiene il rumore di tipo gaussiano e i segnali con alto contrasto di piccole dimensioni.
Il terzo passo del diagramma di flusso del primo metodo di rivelazione illustrato in figura 5 è costituito da un test di gaussianità.
L'idea che sta alla base di tale test nasce dalla considerazione che, nell'immagine filtrata, una regione che contiene solo rumore di fondo avrà una distribuzione delle intensità diversa da quella relativa ad una zona che presenta microcalcificazioni. Infatti le microcalcificazioni, per la loro natura, saranno posizionate nella coda dell'istogramma a valori di intensità più elevati.
D'altra parte i valori del rumore di fondo presi da un'area sana dell'immagine filtrata varieranno in modo casuale attorno allo zero e la loro distribuzione avrà un andamento assimilabile ad una funzione Gaussiana. La presenza di microcalcificazioni renderà la distribuzione asimmetrica (figura 10). Un parametro che misuri il grado di Gaussianità di una distribuzione può cosi essere utilizzato per discriminare fra regioni sane e non.
Il test di Gaussianità applicato calcola una stima locale dei primi tre momenti, indicati con I1, I2 e I3, ottenuti dall'immagine filtrata. Più precisamente:
nell'immagine filtrata e Mx.N è l'area della finestra locale. Nel caso di distribuzioni Gaussiane I1, I2 e I3 convergono ai seguenti valori per M,N~+∞\
dove μ e σ <2 >rappresentano il valor medio e la varianza dell'istogramma della finestra locale.
tenderà a zero per distribuzioni Gaussiane, mentre valori diversi da zero saranno indice di non Gaussianità.
Il suddetto test di Gaussianità può essere formulato nei seguenti termini:
dove TG è un valore di soglia del parametro G che permette di discriminare fra Ho e H1, che corrispondono rispettivamente ai casi di regioni sane e regioni con microcalcificazioni. Nella realizzazione preferita si è scelto un valore di TG pari a 0,9.
Nel quarto passo illustrato in figura 5 si è presa in considerazione una sogliatura locale sui livelli di grigio .
Tale sogliatura viene applicata all'immagine filtrata ed ha lo scopo di isolare le microcalcificazioni dal rimanente rumore di fondo.
Una volta individuate le regioni sospette, caratterizzate appunto da un elevato valore dell'indice G di Gaussianità, l'operazione di sogliatura locale prevede un ulteriore test statistico eseguito sui soli pixel di queste regioni, allo scopo di rivelare l'eventuale presenza di microcalcificazioni.
Il metodo oggetto della presente invenzione opera ancora una volta calcolando parametri statistici locali relativi alla distribuzione dei livelli di grigio dei pixel interni ad una maschera centrata su di una regione sospetta. Le misure statistiche che vengono calcolate sono la media μ e la deviazione standard σ.
Il pixel su cui è centrata la finestra è conservato, ovvero viene considerato parte di una possibile microcalcificazione, solo se la sua intensità supera il valore medio μ di un numero k prefissato di volte la deviazione standard σ.
Al variare di k il metodo avrà un diverso valore di sensibilità .
Nel quinto passo del diagramma a blocchi di figura 5 è effettuata l'estrazione dei segnali al fine di localizzarne la posizione.
Tale operazione è resa possibile utilizzando 1'immagine binaria risultato del precedente passo di sogliatura locale. I pixel sopravvissuti alla sogliatura e adiacenti tra loro vengono raggruppati in un'unica struttura che rappresenta una potenziale microcalcificazione. Per ciascuno di questi segnali individuati viene calcolato il corrispondente centro di massa. Il risultato ottenuto a completamento di questa fase è costituito da una sequenza di coordinate che individuano la posizione dei centri di massa delle potenziali microcalcificazioni trovate.
La fase di riduzione di falsi-positivi illustrata nelle figure 1, 2 consiste nella separazione di segnali inerenti a vere microcalcificazioni da quelli relativi a oggetti diversi dalle microcalcificazioni stesse.
Tale fase di riduzione opera sfruttando una serie di caratteristiche che riescono a discriminare fra segnali veri e non (figura 12).
Per determinare il valore di queste caratteristiche, per un dato segnale viene estratta dalla mammografia digitale di origine una regione di interesse (ROI) che, nella realizzazione preferita-, ha dimensione 32x32 pixel ed è centrata sulla potenziale microcalcificazione identificata precedentemente. Lo scopo è quello di isolare il segnale dal fastidioso background strutturato presente nel resto della ROI. Per eliminare, o quantomeno ridurre, l'influenza dello sfondo non uniforme si costruisce una superficie che approssimi l'andamento del rumore interno alla ROI.
La tecnica di surface-fitting utilizzata si basa su un metodo di approssimazione polinomiale o di tipo spline. La superficie ottenuta dal processo di fitting viene sottratta alla ROI di origine ottenendo una nuova immagine caratterizzata da un background più uniforme. Un esempio della correzione operata dall'operazione di fitting viene illustrato in figura 11.
È possibile eseguire un'operazione di sogliatura sulla nuova ROI a background uniforme per isolare il segnale e determinare così i pixel che lo compongono. Per il segnale in esame, si calcolano le caratteristiche illustrate in figura 12. Tali caratteristiche sono 24 nella configurazione preferita; ovviamente è possibile utilizzare anche un sottoinsieme di esse oppure ampliare il loro numero.
Come è stato detto in precedenza, la discriminazione tra segnali veri e false identificazioni viene operata per mezzo di un classificatore SVM, che trova giustificazione nella Statistical Learning Theory.
In altre parole nella presente invenzione si è applicata in maniera innovativa la Support Vector Machine, che in qualche modo migliora i tradizionali sistemi CAD, i quali, per classificare, utilizzano metodi non giustificati teoricamente dalla Statistical Learning Theory.
Pertanto, i segnali rivelati dal presente metodo appartengono o alla classe delle microcalcificazioni o alla classe dei segnali falsi-positivi. Il problema di come apprendere a separare le microcalcificazioni dai segnali falsi-positivi consiste formalmente nello stimare una funzione f(χ,α) : R<N >-» {± 1}, dove con /(χ,α) si indica una famiglia di funzioni, ognuna delle quali è caratterizzata da particolari valori del vettore parametro a. La funzione f ha valore 1 per i vettori x di segnali appartenenti a microcalcificazioni e -1 per x di segnali falsi-positivi. Inoltre, con x si è indicato il vettore le cui N componenti sono le caratteristiche del segnale viste in figura 12. Come è stato detto il numero di tali caratteristiche può essere uguale a 24, però, in generale, esso può essere un numero intero positivo qualunque .
L'apprendimento viene realizzato utilizzando dati input-output di addestramento:
I dati per l'addestramento del metodo oggetto dell'invenzione sono forniti da radiologi che segnalano zone con cluster di microcalcificazioni confermate da biopsia. L'apprendimento del metodo consiste nello stimare, usando i dati di addestramento, la funzione f in modo che f classifichi correttamente esempi non visti (x,y), cioè f(1ά)=y per esempi generati dalla stessa distribuzione di probabilità degli esempi di addestramento .
Se non si pongono restrizioni sulla classe di funzioni da cui si estrae la stima f, si rischia di non avere una buona generalizzazione su segnali non utilizzati nella fase di apprendimento. Infatti, per ogni funzione f e per ogni insieme di test esiste un'altra funzione f* tale che f*(xi)=/(xi) per tutti gli i = ma con f*(x1)≠/(xl) per tutti gli i = 1,
Poiché si hanno a disposizione solamente i dati di addestramento, non si ha la possibilità di selezionare quale delle due funzioni sia preferibile. Occorre definire l'errore empirico:
dove L è una generica funzione di perdita.
La minimizzazione del valore dell'errore empirico non tiene in considerazione la eventuale presenza di un piccolo errore di test. L'errore nella fase di test, mediato su tutti gli esempi di test estratti dalla distribuzione di probabilità è detto anche
"errore vero" ed è definito come:
La teoria statistica dell'apprendimento (Statistical Learning Theory) o teoria VC (Vapnik-Chervonenskis) dimostra che è indispensabile restringere la classe delle funzioni in modo che f sia scelta da una classe che ha una capacità adeguata alla quantità di dati di addestramento disponibili. La teoria VC fornisce una maggiorazione (bound) dell'errore vero. La minimizzazione di questo bound, che dipende sia dal rischio empirico che dalla capacità della classe di funzioni, può essere utilizzata nell'ambito del principio di minimizzazione del rischio strutturale (SRM). Una misura della capacità della classe di funzioni è la dimensione VC, che è definita come il massimo numero h di punti che può essere separato in tutti i possibili modi usando funzioni della classe stessa. Nella costruzione di classificatori vale un bound in cui, se h è la dimensione VC della classe di funzioni che la macchina di apprendimento può realizzare e 1 il numero di esempi di addestramento, allora per tutte le funzioni di quella classe, con probabilità almeno I-77, con 0< η ≤ 1, vale il limite:
Poiché l'errore empirico Remp diminuisce all'aumentare di h mentre il termine di confidenza φ, per valori fissati di 1 e di η, cresce in modo monotono con h stesso (figura 13), occorre utilizzare classi di funzioni di cui si possa calcolare il valore della capacità, per poter valutare il valore Ra. Se si considera la classe degli iperpiani che corrisponde
alle funzioni di decisione f(x)= sgn((w <.>x)+b), per costruire f dai dati sperimentali si può utilizzare un algoritmo di apprendimento denominato Generallzed Portraitr valido per i problemi separabili. Questo algoritmo si basa sul fatto che tra tutti gli iperpiani che separano i dati ne esiste uno ed uno solo che produce il massimo margine di separazione tra le classi:
Massimizzare il margine di separazione coincide col minimizzare Φ(Κ l,η) e quindi i3⁄4 una volta fissato Remp, dal momento che vale la relazione:
per la classe degli iperpiani, definiti dalla normale w, che separano esattamente i dati di training appartenenti ad una ipersfera di raggio R. Per costruire l'iperpiano ottimale si deve minimizzare con i vincoli
Questa ottimizzazione viene trattata
introducendo i moltiplicatori di Lagrange αi ≥ 0 e la funzione di Lagrange:
Questo è un problema di ottimizzazione vincolata, in cui la funzione da minimizzare è una forma quadratica e, perciò, convessa ed i vincoli sono lineari. Si può applicare il teorema di Karush-Kuhn-Tucker.
In altre parole, il problema è equivalente a trovare w, b, a tali che:
Il vettore soluzione ha un'espansione in termini di un sottoinsieme di vettori χχ di addestramento i cui αi non sono zero. Dalle condizioni complementari di Karush-Kuhn-Tucker:
risulta che af ≠0 solo quando ^((x,•w)+i)-l=0, cioè quando il punto Xi appartiene ad uno dei due iperpiani paralleli all'iperpiano ottimale e che definiscono il margine di separazione. Questi vettori xi sono chiamati Support Vectors. Procedendo nel calcolo, si riscrive la Lagrangiana tenendo conto che e
si arriva all'espressione del duale di Wolfe del problema di ottimizzazione, cioè trovare i moltiplicatori <3⁄4 che
La funzione di decisione è un iperpiano e si può pertanto scrivere:
dove b si ottiene dalle condizioni complementari di Karush-Kuhn-Tucker .
In generale l'insieme delle microcalcificazioni e quello dei segnali falsi-positivi non sono separabili linearmente nello spazio dei vettori x di input. Pertanto è necessario un metodo per costruire ipersuperfici più generali degli iperpiani. Per far questo si mappano i dati in un altro spazio F, chiamato spazio delle caratteristiche, tramite una mappa non lineare φ:R<N >—>F, per poi eseguire in F l'algoritmo lineare visto precedentemente. La costruzione dell'iperpiano ottimale in F e la valutazione della corrispondente funzione di decisione comportano solo il calcolo di prodotti scalari e mai dei patterns mappati Φ(x) in forma esplicita. Questo è di fondamentale importanza per l'obiettivo che abbiamo, poiché in alcuni casi i prodotti scalari possono essere valutati da una semplice funzione (kernel) che non richiede il calcolo della singola mappatura Φ(x) In generale il teorema di analisi funzionale di Mercer dimostra che i kernel k di operatori integrali positivi danno origine a mappe φ tali che vale In una realizzazione della
invenzione si sono utilizzati kernel polinomiali £(x,y)=(x-y cY con c > 0. In altre realizzazioni della invenzione si sono utilizzati kernel sigmoidali *(x,y)=tanh(*(x,y)+0) e kernel a funzioni di base radiali, come ad esempio k L'operazione di mapping
non lineare dello spazio di input dei vettori dei segnali di microcalcificazioni e di falsi-positivi in uno spazio ad alte dimensioni trova giustificazione nel teorema di Cover sulla separabilità dei patterns. Cioè, uno spazio di input di patterns non separabili linearmente può essere trasformato in un nuovo spazio di caratteristiche dove i patterns sono separabili linearmente con alta probabilità, purché la trasformazione sia non lineare e la dimensione del nuovo spazio delle caratteristiche sia sufficientemente elevato.
Come si è detto in precedenza, la SVM si occupa di trovare l'iperpiano ottimale di separazione, iperpiano definito come funzione lineare di vettori del nuovo spazio delle caratteristiche e non più dello spazio di input. La costruzione dell' iperpiano è costruita in accordo al principio di minimizzazione del rischio strutturale. In altri sistemi CAD la riduzione dei falsipositivi viene ottenuta mediante classificazione con reti neurali. Le reti neurali minimizzano il rischio empirico, il quale non garantisce una buona generalizzazione in fase di applicazione.
Nella presente invenzione si utilizzano, per classificare, funzioni di decisione che hanno la seguente forma:
y ø
Per il problema di ottimizzazione si passa al duale di Wolfe. In altre parole, occorre massimizzare la seguente funzione:
L L
Spesso, in pratica, non esiste una ipersuperficie che separi senza errori la classe delle microcalcificazioni dalla classe dei segnali falsipositivi. Quindi esistono esempi che violano la * Per trattare questi casi, si introducono
le variabili, dette slack variables con i
vincoli rilassati £ ra si tratta
di minimizzare la nuova funzione obiettivo:
C è un parametro reale positivo, da scegliere a priori, t
mentre è un limite superiore al numero totale di i=1
errori sull'insieme di addestramento. Nel caso in oggetto nella presente invenzione è opportuno modificare la funzione obiettivo per pesare maggiormente una classe rispetto all'altra.
Ci si trova così a dover minimizzare la seguente
mentre C<+ >e C<” >sono rispettivamente il costo dei falsinegativi e dei falsi-positivi.
Il problema duale relativo è dunque quello di massimizzare la seguente funzione:
Non è nota a priori quale coppia (C<+>,C-) dia risultati migliori. Il training viene effettuato fissando C<" >e variando il rapporto
(caso in cui IC<~ >=IC<+ >) al valore 1. Da questa variazione si ottengono i punti delle curve FROC (Free Response Receiver Operating Characteristic). Al crescere del rapporto <c>/'c- si pesa sempre di più la perdita delle microcalcificazioni vere; in tal modo si aumenta la sensibilità del metodo, riducendone la specificità. Per risolvere il problema di ottimizzazione quadratica esistono numerosi metodi. In una forma preferita di attuazione del presente metodo si è utilizzato il metodo noto come 'Interior Point Method' .
La rivelazione delle microcalcificazioni, come la maggior parte dei problemi di rivelazione, è ardua a causa della variabilità nei pattern da identificare. È altresì difficile descrivere analiticamente tale variabilità. Attraverso l'addestramento della SVM si identifica una superficie di decisione. Si utilizza poi il sistema così addestrato su immagini che non contengono microcalcificazioni o su zone di immagini che non contengono microcalcificazioni. Entrambi i tipi di regioni menzionate possono essere evidenziate tramite l'uso di una tavoletta-schermo descritta in seguito {vedi oltre) .
In una forma di attuazione preferita del presente metodo si è utilizzata una strategia di addestramento nota con il nome di "boot-strap" (figura 14).
Ad ogni iterazione questo procedimento aggiunge ai dati di addestramento gli esempi classificati non correttamente dalla SVM. Questo dovrebbe migliorare le prestazioni del classificatore, poiché lo si rende via via più sensibile ai segnali che esso non classifica correttamente. Questa strategia di addestramento è molto utile nel caso in cui le classi, o un sottoinsieme di esse, che si vogliono riconoscere non siano facilmente caratterizzabili .
Se ci si riferisce di nuovo alle figure 1, 2, il secondo metodo di rivelazione segue lo schema generale rappresentato nel diagramma a blocchi di figura 15.
Per prima cosa, la ricerca dei segnali avviene suddividendo 1'immagine mammograf ica in regioni abbastanza piccole da poter considerare omogenea la componente dovuta alla struttura del tessuto mammario. La dimensione del ritaglio di analisi è stata scelta pari ad un quadrato di 6x6 mm<2 >in modo da poter contenere almeno due microcalcificazioni. È necessario che i ritagli siano parzialmente sovrapposti, in modo da ridurre al minimo la possibilità di mancare la rilevazione di un gruppo di segnali a causa di un infelice posizionamento.
Subito dopo l'estrazione del ritaglio (figura 15) si utilizza un filtro preliminare allo scopo di rendere più efficiente la fase di rivelazione. Tale filtro permette di individuare le regioni in cui applicare la trasformata wavelet. Come filtro è stato scelto un filtro lineare così definito:
dove Gaussn (x,y) indica il risultato della i nvoluzione di un filtro gaussiano di dimensioni nxn nel punto (x,y) , mentre MeanM (x ,y) è il valore medio dei livelli di grigio in un intorno quadrato di lato m centrato in (x,y) .
In una forma di attuazione preferita il valore di m è stato fissato a 9, mentre il valore di n è stato fissato a 3.
Riferendoci sempre alla figura 15, si può analizzare in maggior dettaglio la fase riguardante il filtro wavelet.
La trasformata wavelet trasporta una funzione dal dominio spaziale ad un altro caratterizzato da una famiglia di funzioni dette funzioni base. Esse sono ottenute da traslazioni e dilatazioni di un'unica funzione detta wavelet madre ψ :
{}
Questa funzione deve avere valore medio nullo ed essere localizzata sia nel tempo che in frequenza.
Un'implementazione efficiente della trasformata wavelet discreta, chiamata fast wavelet trans f oriti (FWT), si basa su uno schema già noto nel campo dell'elaborazione di immagini. In questo schema i coefficienti wavelet vengono ricavati da successive applicazioni di due filtri complementari, uno passa alto e uno passa basso. Nell'analisi wavelet, con il termine ''approssimazione", si indicano le componenti a larga scala del segnale, mentre, con il termine "dettaglio" si denotano le componenti a bassa scala.
In figura 16 è riportato un esempio che illustra il funzionamento della FWT. Inizialmente al segnale vengono applicati i due filtri complementari sopra descritti ottenendo un'approssimazione A1 ed un dettaglio Di (livello 1). Al passo successivo si applicano i due filtri ad A ottenendo una nuova approssimazione A2 ed un nuovo dettaglio D2 (livello 2). Si itera il procedimento, utilizzando sempre l'approssimazione generata al passo precedente, fino al livello desiderato n, ottenendo quello che viene chiamato albero di scomposizione wavelet. Quanto è più grande il livello di scomposizione, tanto maggiore è la scala della relativa approssimazione e del relativo dettaglio. Le componenti racchiuse dalla linea tratteggiata in figura 16, cioè l'approssimazione A„ e tutti i dettagli, costituiscono la scomposizione wavelet e permettono una perfetta ricostruzione del segnale di partenza. Il procedimento per la trasformata wavelet inversa è l'esatto inverso di quello appena descritto. Cioè, si parte da An e Dn e si genera An-1 utilizzando due filtri complementari. Si procede iterando fino alla ricostruzione di A0, cioè del segnale iniziale. Sintetizzando, si può affermare che la trasformata wavelet discreta genera un'analisi in multirisoluzione di un segnale, separandolo in componenti ortogonali relative a diverse scale spaziali.
L'impiego della trasformata wavelet nel campo della rivelazione di segnali quali le microcalcificazioni è immediato, in quanto queste coprono una determinata gamma di scale. Pertanto, è sufficiente trasformare l'immagine e ricostruirla considerando solo i dettagli relativi alle scale spaziali inerenti ai segnali da ricercare. Le scale che contengono informazioni sulle microcalcificazioni sono quelle aventi risoluzioni di 100, 200, 400 e 800 μηι.
E' emerso che la seconda e la terza scala sono quelle che esaltano maggiormente simili segnali sopprimendo efficacemente il rumore. Scale superiori alla terza mostrano un'alta correlazione con la struttura dello sfondo, mentre la risoluzione più fine è pesantemente influenzata dal rumore ad alta frequenza diffuso su tutta l'immagine. Scartare completamente i dettagli relativi alla prima scala rende, però, molto ardua l'individuazione di alcune minuscole microcalcificazioni. In base a questa considerazione è stato deciso di applicare a questo livello di dettaglio un hard thresholding . In pratica vengono annullati i coefficienti relativi al dettaglio più fine che sono in modulo inferiori a k volte la loro deviazione standard.
Affinché questo sistema funzioni efficacemente va scelta una wavelet madre il più possibile correlata con la forma di una microcalcificazione. Sono state impiegate wavelet madri simmetriche, quali quelle della famiglia Symlet (Symmetric Wavelet) e della famiglia LAD (Least Asymmetric Wavelet) ottenendo i migliori risultati con la LAD8 .
In figura 17 è rappresentato lo schema di questo filtro wavelet.
Ritornando alla figura 15, si può notare che il passo successivo alle fasi di filtraggio appena descritte è rappresentato da una sogliatura sull'istogramma.
Dopo aver applicato uno dei due filtri precedentemente descritti, nella fattispecie un filtro preliminare ed un filtro wavelet, un ritaglio di immagine è composto unicamente da segnali simili a microcalcificazioni e rumore. Si assume che il rumore abbia un andamento gaussiano. Preso un ritaglio di immagine privo di segnali, la luminosità dei suoi punti sarà distribuita in maniera gaussiana (figura 18 a), mentre, se si prende in considerazione un ritaglio che contiene microcalcificazioni, sarà visibile un'anomalia nella parte destra dell'istogramma(figura 18 c), anomalia dovuta al contributo dei pixel appartenenti alle microcalcificazioni sensibilmente più brillanti dello sfondo.
Tale asimmetria risulta maggiormente evidente se si rappresenta l'istogramma su un diagramma semilogaritmico (figura 18 b,d). Prendendo in considerazione quest'ultima tipologia di grafico è stato ricavato un metodo per determinare la soglia da utilizzare per la trasformazione dell'immagine in una rappresentazione binaria.
L'idea consiste nel considerare l'istogramma suddiviso in due parti, una comprendente i livelli di grigio inferiori ad un valore l ed il cui andamento è dovuto esclusivamente al rumore gaussiano (zona di rumore), l'altra relativa a livelli di grigio superiori ad / ed influenzata solamente dalla presenza o meno di microcalcificazioni (zona di segnale). La ricerca delle anomalie avviene solo nella zona di segnale. Infatti, se essa contiene dei picchi il livello di grigio relativo al primo di essi costituirà la soglia cercata. Ovviamente se tali anomalie non compaiono significa che il ritaglio non contiene segnali utili e quindi sarà scartato. Il problema si sposta ora sull'individuazione del valore 1.
Per avere una stima di / si approssima il profilo dell'istogramma compreso nella zona di rumore con una parabola. I non è altro che il livello di grigio positivo in cui la parabola interseca l'asse x.
Un esempio di questo procedimento è visibile in figura 19.
Una volta applicata la sogliatura al ritaglio di immagine, è necessario ripulire tale ritaglio dagli oggetti che, per forma e dimensioni, non possono essere microcalcificazioni. Ciò avviene eseguendo un'operazione di "apertura" con le quattro forme rappresentate in figura 20 e unendo i risultati in un'unica immagine attraverso un OR logico. In tal modo si ottiene l'eliminazione di tutte quelle strutture larghe un solo pixel, lasciando inalterati gli altri oggetti. La lista delle potenziali microcalcificazioni viene passata alla fase di riduzione dei falsi-positivi descritta precedentemente .
Per ognuno di questi segnali vengono calcolate le 24 caratteristiche di figura 12. A questo punto, si passano direttamente queste caratteristiche ad un classificatore SVM come descritto in precedenza seguendo la forma di attuazione mostrata in figura 1. In alternativa, si uniscono i segnali a quelli rivelati dal primo metodo tramite un operatore OR, seguendo quanto illustrato in figura 2.
Nel contesto del secondo metodo di rivelazione illustrato in figura 15 un ritaglio viene considerato una "zona d'interesse" (ROI) se, una volta effettuata la sogliatura dell'istogramma, al suo interno si contano almeno due potenziali microcalcificazioni.
Riferendoci adesso nuovamente alle figure 1, 2, si vuole rimarcare che i segnali provenienti dai due metodi di rivelazione visti sopra vengono uniti tramite un'operazione logica OR, dando origine alla lista globale dei segnali che si andranno poi a raggruppare secondo il criterio di clustering descritto qui di seguito. Poiché ogni metodo è in grado di segnalare microcalcificazioni con caratteristiche simili tra loro, facendo l'unione di quelle provenienti da metodi diversi è possibile rivelare segnali con proprietà diverse.
La presenza di aggregati (cluster) di microcalcificazioni è in molti casi il primo e spesso unico indicatore di tumore al seno. Microcalcificazioni isolate non sono, infatti, nella maggior parte dei casi, clinicamente significative. È per questi motivi che un CAD per la mammografia è sempre orientato alla ricerca di cluster piuttosto che di singole microcalcificazioni.
Lo schema di clustering implementato definisce come "cluster" un gruppo di tre o più microcalcificazioni tali che la distanza con la più vicina microcalcificazione sia inferiore a 5 mm.
A questo proposito, si può notare che i dati di input sono costituiti dalla lista delle coordinate dei centri di massa di tutti i segnali individuati al termine della fase di rivelazione di singole microcalcificazioni.
Per ciascuno dei segnali localizzati si determina l'insieme di quelli che distano meno di 5 ma. Se la cardinalità dell'insieme è inferiore a tre allora il segnale in questione viene eliminato poiché considerato isolato, altrimenti sopravvive alla fase di clustering e va a formare un gruppo assieme agli altri segnali dell'insieme. Una volta determinati i segnali componenti un cluster, esso viene caratterizzato da una terna di numeri (x, y, R) rappresentanti il centro e il raggio del cluster, dove con x e y sono designate le coordinate spaziali del centro di massa del cluster, mentre R rappresenta la distanza tra il centro del cluster ed il segnale più distante da esso.
Al di là di quanto detto in precedenza, la valutazione delle prestazioni del citato metodo di rivelazione è espressa dalla percentuale di cluster veri trovati rispetto al numero di cluster falsi-positivi generati .
A questo proposito, la rivelazione di una lesione in una immagine radiologica consiste nel discriminare un segnale, rappresentato dalla lesione, da un rumore di fondo, rappresentato dal normale tessuto del seno. Un semplice protocollo, per valutare le prestazioni di un radiologo o di un metodo automatico nella lettura di lastre, è rappresentato dal processo di discriminazione forzata a due alternative. Questo schema prevede che ad un osservatore venga presentata una serie di stimoli, dove uno stimolo può essere solo "rumore" oppure "segnale rumore" . Ogni volta che si presenta uno stimolo l'osservatore deve classificarlo rispondendo "segnale presente" oppure "segnale assente". Si hanno allora quattro diverse situazioni possibili, illustrate nello schema di figura 21.
La valutazione delle prestazioni di un osservatore, sia esso un medico sia esso un metodo automatico, avviene in termini di Receiver Operating Characteristic (ROC).
All'osservatore viene presentato un campione di immagini radiografiche, alcune contenenti una singola lesione, altre normali, che egli classifica. A questo punto si calcolano le percentuali di Veri-Positivi e Falsi-Positivi, come accade in un processo decisionale di tipo "Sì/No". I risultati prodotti vengono illustrati in un grafico dando origine ad una curva ROC, costruita con coppie di valori del tipo (P(FP),P(TP)). I valori di P(TP) e P(FP) rappresentano rispettivamente le percentuali di Veri-Positivi (indicata spesso come TPF, o True-Positive Fraction) e di Falsi-Positivi (indicata anche come FPF, o False-Positive Fraction) .
Al fine di esprimere le prestazioni di un metodo diagnostico si introducono gli indici di "sensibilità", intesa come percentuale di immagini che presentano una lesione e che sono correttamente classificate, e "specificità", intesa come percentuale di immagini "normali" classificate come tali. I valori di True-Positive Fraction e True-Negative Fraction determinano allora i valori di sensibilità e specificità del metodo.
Più precisamente:
[Sensibilità] = TPF = P(TP)
[Specificità] - TNF = 1 - FPF = 1 - P(FP)
dove TPF, TNF, FPF sono rispettivamente le True-Positive, True-Negative e False-Positive Fraction. Le prestazioni di un metodo possono dunque essere espresse indifferentemente da "specificità" e "sensibilità", oppure da FPF e TPF.
Nonostante l'analisi ROC possa essere applicata ad una vasta tipologia di problemi di individuazione e classificazione di segnali, essa ha una grossa limitazione. La sua applicazione è ristretta a quei problemi decisionali in cui l'osservatore, in presenza di uno stimolo, è vincolato ad un'unica risposta: "segnale presente" o "segnale assente". In molti problemi pratici questa limitazione è inadeguata. Si consideri, ad esempio, un metodo automatico per la localizzazione di un oggetto in una immagine digitale. L'algoritmo può segnalare diversi punti dell' immagine, ma uno solo di questi individua l'oggetto cercato, mentre gli altri sono falsi-positivi. Applicando un'analisi ROC risulta che il metodo ha prodotto un true-positive, poiché l'oggetto è stato localizzato. Vengono però ignorate le informazioni relative ai falsi-positivi. Affinché anche questi dati facciano parte dell'analisi, si utilizza una variante delle curve ROC, conosciuta come Free-Response Operating Characteristic (FROC) . Un esempio di curva FROC è illustrato in figura 22.
Come si può notare l'asse delle ascisse esprime il numero di falsi-positivi per immagine. Non avrebbe infatti senso esprimere tale valore come percentuale poiché, teoricamente, non ci sono limiti al numero di falsi-positivi che possono essere generati.
Le curve FROC sono lo strumento preferito per analizzare le prestazioni di un metodo automatico per la ricerca di lesioni in immagini digitali.
Una volta effettuata la citata valutazione delle prestazioni del metodo è possibile visualizzare e memorizzare i risultati ottenuti dal metodo stesso.
Le zone, contenenti i cluster di microcalcificazioni segnalati dagli algoritmi di rivelazione visti sopra, vengono visualizzate su uno schermo come cerchi colorati, con centro situato nel centro del cluster e raggio pari al raggio del cluster. Queste circonferenze sono sovrapposte all'immagine digitale originale. Le informazioni riguardanti i cluster di un'immagine possono essere quindi memorizzate in un file di testo, che viene richiamato ogni volta si voglia visualizzare il risultato della rivelazione.
La memorizzazione delle informazioni riguardanti le zone di interesse, quali, per esempio, la posizione e la estensione della zona stessa, può essere effettuata anche da un utente esperto (medico radiologo) , per mezzo dei seguenti dispositivi:
• un primo dispositivo che racchiude in una sola unità le funzioni di uno schermo a cristalli liquidi (LCD) e di una tavoletta grafica sensibile alla pressione e che consente all'utente, tramite una apposita penna, di disegnare direttamente sulla superficie dello schermo; tale primo dispositivo può essere abbinato ad • un secondo dispositivo atto a collegare la tavolettaschermo ad un computer che memorizza l'immagine medica con la posizione e l'estensione delle regioni di interesse .
Utilizzando questi strumenti, il medico può segnalare, congiuntamente o in alternativa al metodo di rivelazione automatica, eventuali zone di interesse non segnalate dal metodo stesso. È anche possibile che il medico decida di segnalare regioni interessanti in immagini non analizzate dal metodo.
Il procedimento per memorizzare la posizione e l'estensione delle zone di interesse è estremamente accurato, anche se semplice. Per prima cosa, il medico osserva l'immagine nella tavoletta-schermo e segnala il contorno della zona interessante usando una apposita penna. Queste informazioni vengono memorizzate in un file di testo legato all'immagine che si sta visualizzando.
Inoltre, è possibile richiamare e visualizzare queste informazioni unitamente a quelle riguardanti i cluster individuati dal metodo di rivelazione automatica.
Le informazioni sulle zone segnalate dal medico possono essere utilizzate sia per compiere un ulteriore addestramento del metodo di rivelazione automatica, sia come dati di ingresso per il metodo di classificazione di zone di interesse secondo il loro grado di malignità descritto qui di seguito {vedi oltre).
È possibile addestrare nuovamente il metodo automatico, tenendo conto di queste ultime zone segnalate, nel caso in cui vengano modificate le condizioni dell'apparato di acquisizione dell'immagine digitale oppure nel caso in cui si presentino tipologie di segnali interessanti che non erano presenti nell'insieme di segnali di addestramento precedentemente usato, oppure in qualsiasi caso si voglia fare un aggiornamento del training stesso. Il modo in cui si conduce l'addestramento è lo stesso già visto in precedenza .
Le ROI di cui si vuole conoscere il grado di malignità possono provenire sia dal metodo di rivelazione automatico, sia dal medico che segnala la presenza di queste zone grazie alla tavoletta-schermo nel modo appena descritto.
A causa dell'elevata eterogeneità delle forme di microcalcificazioni e del loro raggrupparsi in cluster, vi è una certa difficoltà nel definire le proprietà che differenziano i tumori benigni dai maligni e caratterizzano quindi il grado di malignità delle lesioni .
Ipotizzando di non conoscere a priori quali siano le proprietà migliori al fine della classificazione secondo il grado di malignità, il metodo di ricerca con cui si è scelto di affrontare il problema è di tipo induttivo.
Difatti, tramite la Texture Analysis si estraggono da ogni ROI tutte le caratteristiche definibili con questo studio della tessitura dell'immagine, e solo successivamente, osservando la loro distribuzione nel caso benigno e nel caso maligno, si selezionano quelle che separano maggiormente le due classi.
In questa fase, selezionare le proprietà di Texture equivale a ridurre le dimensioni del problema a quelle intrinseche rigettando la ridondanza di informazione. A tale scopo, si possono utilizzare tecniche di statistica classica, quali il test di Student e uno studio sulla correlazione lineare. Infine le caratteristiche selezionate verranno utilizzate come input di un classificatore SVM. Le prestazioni sono misurate in termini di "sensibilità" e "specificità", concetti già definiti in precedenza.
Lo schema generale del metodo automatico è riportato in figura 23.
Il primo passo del procedimento illustrato è una preelaborazione che consente di eliminare dalla ROI il background strutturato. In generale, la presenza di diversi tessuti è in grado di influenzare la composizione delle matrici di texture e di conseguenza il valore delle caratteristiche di tessitura. Per ridurre questo fattore di disturbo si è scelto di applicare una tecnica per la riduzione del rumore a bassa frequenza.
Il procedimento implica il calcolo delle medie dei valori dei livelli di grigio dei pixel appartenenti ai quattro rettangoli, box, ai rispettivi lati della ROI, come da figura 24. Il valore del livello di grigio stimato del background strutturato G(i,j), di un dato pixel (i,j) viene calcolato come:
∑i=1
dove g* è il livello di grigio medio del box k a lato della ROI e dk è la distanza che si trova fra il pixel ed il lato k della ROI. I quattro box vengono spostati, nella zona di immagine che si elabora, lungo la parte interna dei lati insieme al pixel da stimare. Calcolare G(i,j) come una media pesata lungo le distanze rende maggiormente influente la media del box più vicino rispetto a quello più lontano.
Studiando le immagini a disposizione, si constata che le ROI hanno dimensioni che possono andare dai 3 ai 30 mm. Per stabilire un valore fissato alle dimensioni dei box, costanti per ogni ROI, anche qualora esse siano molto piccole, si sceglie di maggiorare la dimensione della stessa ad almeno una volta e mezza l'originale, ponendo comunque come limite minimo una dimensione di 15 mm. Nella realizzazione preferita si stabilisce di usare box di 6x3 mm<z>. Si processa l'immagine sottraendone il background stimato, cioè si definisce il nuovo valore del livelli di grigio del pixel come:
dove I<r >è il nuovo valore di grigio del pixel ed J quello precedente.
Nella ROI così processata non sono state variate le informazioni sulle microcalcificazioni, ma si è appiattito lo sfondo rendendolo meno influente.
La seconda fase del procedimento illustrato in figura 23 riguarda la estrazione delle caratteristiche di tessitura.
La proprietà intrinseca di elemento di tessitura è ben nascosta nell'immagine, e la texture può essere descritta da modelli statistici relativi all'analisi dei singoli pixel. L'assunzione che si fa è che le informazioni di tessitura proprie di un'immagine sono interamente contenute nelle relazioni spaziali che i toni di grigio possiedono gli uni con gli altri. Più specificatamente si assume che il contenuto informativo proprio della texture sia adeguatamente definito da un insieme di matrici descriventi l'intercorrelazione spaziale dei livelli di grigio calcolate a varie angolazioni e distanze tra coppie di pixel vicini nell'immagine. Tutte le caratteristiche di tessitura deriveranno da queste matrici comunemente chiamate Spatial Gray-Level Dependence Matrices (SGLD), o anche matrici di co-occorrenza.
Per estrarre dall'immagine le informazioni sulle proprietà di tessitura, dobbiamo costruire le matrici SGLD sulla base del concetto dì elementi adiacenti o primi-vicini. Se si prende in considerazione un pixel qualsiasi dell'immagine, esclusi quelli alla periferia dell'immagine stessa, esso avrà attorno a sé otto pixel confinanti. Il pixel in esame avrà quindi otto primivicini che rispetto ad esso sono disposti lungo quattro direzioni spaziali & principali, quali orizzontali a 0°, verticali a 90°, lungo la diagonale a 45° ed infine lungo la diagonale a 135°. In questo caso si stanno esaminando i primi-vicini, cioè i pixel che distano fra loro una sola unità di misura d, ma si possono analizzare anche pixel a distanze più ampie prendendo in considerazione il secondo strato di pixel esterno a questo, cioè i secondivicini, e così via per d maggiori.
Assumendo che l'informazione di t exture sia legata al numero di volte in cui coppie di pixel vanno a disporsi in una certa configurazione reciproca spaziale, si definisce l'elemento della matrice SGLD P(i, j | d,9) , come la probabilità che la coppia di livelli di grigio i e j hanno di comparire all'interno dell'immagine a distanza d l'uno dall'altro ed orientati di & gradi.
Si può altresì notare che queste matrici sono simmetriche per definizione, cioè vale P(i,j | d,9) - P(j,t | d,9). Ciò avviene perché, nel calcolo dell'occorrenza della coppia i e j, ogni volta che la si rileva ad una certa disposizione spaziale, sinistradestra per esempio, sicuramente la si trova anche nell'altra, cioè destra-sinistra. In conclusione, se si lavora con G livelli di grigio, si hanno per ogni quanto di distanza d a cui si vogliono studiare le caratteristiche di tessitura, quattro matrici G*G con le proprietà di cui sopra.
Tornando all'assunzione che dalle matrici SGLD si possono ricavare le informazioni sulla texture, si definiscono qui di seguito le caratteristiche di tessitura utilizzate nel presente metodo di classificazione di ROI. Per rendere le matrici SGLD, e di conseguenza anche le caratteristiche estratte, confrontabili, si può operare una normalizzazione. Tale normalizzazione viene effettuata imponendo ad ogni matrice il vincolo: . In altre parole si calcola la somma R = i riassegna l'elemento di matrice dividendo lo per R.
Partendo dalle distribuzioni di probabilità
M
Queste sono le 17 caratteristiche che si estraggono dalle matrici SGLD. Elaborare queste matrici a distanza fissata d significa estrapolare caratteristiche che sono legate a proprietà che si ripetono all'interno dell' immagine con un passo pari a d pixel. Si è scelto di studiare le ROI con valori di d variabili dai 50 μιη fino a 1 mm, in modo da comprendere sia l'analisi delle singole microcalcificazioni, che dei cluster da esse formati. In questo modo si estraggono per ogni ROI un numero di caratteristiche di texture dell'ordine di diverse centinaia {circa 700). Per determinare quali di queste siano realmente significative al fine della classificazione, è necessario studiarle e selezionarle secondo il metodo illustrato nella figura 23 e descritto qui di seguito.
Il passo di selezione delle caratteristiche si basa sulla misura della loro capacità discriminatoria.
Esso può aiutarci a scartare quelle caratteristiche che non sono affatto utili al fine della discriminazione. A questo fine si sceglie di utilizzare il test di Student; applicando il concetto di errore standard, questo test ci fornisce una misura della significatività della differenza delle medie di due distribuzioni. In particolare, si è interessati a verificare se l'andamento delle due distribuzioni attorno alla media differisce sistematicamente o meno.
Nei casi più semplici si stimano distribuzioni con stessa varianza; nel presente metodo non si sa come si comportano le caratteristiche nei casi maligni e benigni, mentre sono proprio queste le distribuzioni di cui si vuole valutare la capacità discriminatoria, cioè la significatività della differenza fra le medie. Se si suppone che le varianze non siano le stesse, si possono studiare le distribuzioni delle caratteristiche nei casi maligni e benigni, calcolando per ciascuna di esse media e varianza sulla base di tutti i casi di addestramento che si hanno a disposizione.
La distribuzione di Student, nota come P(t \ y) , è la probabilità, per γ gradi di libertà che una certa statistica t possa essere più piccola di quella osservata se in effetti le medie fossero le stesse.
Si può cioè dire che due medie sono significativamente diverse se, per esempio, P(t \ χ) > 0.9 .
In altre parole, 1-P(t \ y) rappresenta il livello di significanza p a cui si sceglie di rigettare l'ipotesi che le due medie sono le stesse. Se si calcola il parametro t di Student per tutte le caratteristiche si può effettuarne una prima selezione basata sul livello di significanza .
Variare il livello di significanza equivale a selezionare un numero maggiore o minore di caratteristiche .
A questo punto, ci si propone di stimare la correlazione lineare esistente fra le caratteristiche sopravvissute a questa prima fase di selezione.
Il valore del coefficiente di correlazione lineare r varia fra -1 ed 1, per indicare, rispettivamente, una proporzionalità inversa o diretta. Quando si sa che esiste una correlazione lineare, r costituisce un metodo convenzionale per valutarne la forza. Ciò che si vuol fare ora è definire classi di caratteristiche con alta correlazione, in modo che tutte le caratteristiche appartenenti alla stessa classe abbiano tra loro valore di correlazione lineare maggiore o uguale ad una soglia fissata, dipendente dal livello di significanza.
Ordinando le caratteristiche si procede come segue*. • si definisce il primo gruppo, al quale appartiene la prima caratteristica;
• viene calcolata la correlazione lineare tra la caratteristica in esame e ciascuna delle caratteristiche già analizzate; se non si supera la soglia, questa caratteristica va a costituire un nuovo gruppo, altrimenti la si associa al gruppo a cui appartiene la caratteristica con cui ha coefficiente di correlazione massimo;
•si procede così iterativamente fino all'esaurimento delle stesse.
Compiendo alcune prove sul valore del livello di significanza, si è fissato per la configurazione preferita un valore ottimale pari a 0,1. Ciò che resta da fare è determinare un criterio per selezionare da ogni gruppo la caratteristica maggiormente in grado di rappresentare le proprietà del gruppo a cui appartiene.
La scelta fatta nella presente invenzione è quella di selezionare l'elemento del gruppo con più alta t di Student. Si estrae cosi da ogni gruppo l'elemento più rappresentativo. Si possono ora utilizzare queste caratteristiche come valori d' ingresso per un classificatore SVM realizzato nel modo descritto in precedenza .
In una possibile forma di attuazione della presente invenzione è possibile utilizzare un algoritmo genetico per ottimizzare la scelta dei parametri presenti nelle fasi di rivelazione e riduzione di falsi-positivi (figure 1, 2). In particolare si possono considerare, ai fini di questa ottimizzazione, i parametri riguardanti la forma e le dimensioni dei vari filtri utilizzati durante la rivelazione, il valore delle soglie per le fasi di sogliatura, test di gaussianità e hard thresholding sui coefficienti wavelet, il tipo di wavelet impiegata nell'analisi in multirisoluzione, il tipo di kernel, il valore di C<+ >e C<~ >usati nel classificatore SVM.
Inoltre, è possibile utilizzare un algoritmo genetico anche nella fase di classificazione di regioni di interesse secondo il loro grado di malignità per ottimizzare la scelta delle dimensioni dei box impiegati nella pre-elaborazione, il numero d di distanze nella fase di estrazione di caratteristiche, i livelli di significanza nella selezione delle caratteristiche, il tipo di kernel, il valore di C<+ >e C<~ >usati nel classificatore SVM.
L'algoritmo genetico utilizzato analizza individui composti da diversi geni; ognuno di questi geni rappresenta uno dei parametri sopracitati. L'obiettivo, in fase di rivelazione, è quello di scegliere la combinazione che dà il miglior compromesso tra numero di cluster veri e numero di falsi-positivi per immagine, mentre in fase di classificazione secondo il grado di malignità si cerca il miglior risultato in termini di "sensibilità" e "specificità".
L'algoritmo genetico implementato è mostrato in figura 25 ed è direttamente ispirato a quanto accade in natura, dove, confrontando una generazione con la successiva, si trovano varie tipologie di individui:
• individui nati dall'accoppiamento di genitori presenti nella generazione precedente;
• individui della generazione precedente invariati nel loro patrimonio genetico;
• individui della generazione precedente modificati nel loro patrimonio genetico da mutazioni casuali.
La realizzazione di questo tipo di sostituzione generazionale si basa su una applicazione delle operazioni genetiche agli individui della popolazione di partenza; tali operazioni sono riproduzione, cross-over e mutazione. Esse non si eseguono l'una immediatamente dopo l'altra, ma si creano diversi gruppi di nuovi nati, ognuno dei quali contiene elementi ottenuti dall'applicazione di una delle operazioni genetiche.
Si avranno quindi:
• individui ottenuti per cross-over;
• individui riprodotti direttamente;
• individui ottenuti per mutazione.
Per quanto riguarda il criterio con cui interrompere l'evoluzione della popolazione, sono state prese in considerazione varie possibilità, ma ci si è in particolare soffermati nell'analisi delle strategie che non comportano un numero fisso prestabilito di generazioni. Questa scelta è stata dettata soprattutto dalla scarsa conoscenza dell'andamento delle funzioni di fitness studiate nel caso della rivelazione in mammografia. Si è quindi deciso che la scelta migliore fosse far mostrare all'algoritmo genetico stesso, eseguendo varie evoluzioni, quante potevano essere le generazioni necessarie per un'analisi dello spazio di ricerca .
Sebbene la precedente trattazione sia stata incentrata essenzialmente sulla illustrazione di un metodo per la rivelazione automatica di gruppi di microcalcificazioni in un segnale digitale rappresentante almeno una immagine di almeno una porzione di tessuto mammario, resta inteso che la presente invenzione comprende anche una qualsiasi apparecchiatura atta ad implementare il metodo di cui sopra

Claims (1)

  1. Rivendicazioni 1.Metodo per la rivelazione automatica di microcalcif icazioni in un segnale digitale rappresentante almeno una porzione di tessuto mammario; metodo comprendente i seguenti passi; (a) rivelare almeno una potenziale microcalcificazione in detto segnale digitale; (b) calcolare un insieme di caratteristiche per detta almeno una potenziale microcalcificazione; ed infine (c) eliminare, o meno, detta almeno una potenziale microcalcificazione, sulla base delle caratteristiche calcolate utilizzando un classificatore Support Vector Machine (SVM). 2.Metodo come rivendicato alla rivendicazione 1, caratterizzato dal fatto di essere atto ad individuare gruppi dì microcalcificazioni non eliminate nella fase (c) e di essere atto a memorizzare ed indicare la posizione e l'estensione dei detti gruppi. 3.Metodo come rivendicato in una qualsiasi delle rivendicazioni precedenti, in cui nella fase (c), detto classificatore (SVM) pesa in modo diverso gli errori di tipo falso-negativo e di tipo falso-positivo (C<+>, c-). 4.Metodo come rivendicato in una qualsiasi delle rivendicazioni precedenti, in cui nella fase (c), si utilizza per detto classificatore (SVM) una strategia di apprendimento 'boot-strap'. 5.Metodo come rivendicato in una qualsiasi delle rivendicazioni 2-4, in cui i detti gruppi di microcalcificazioni sono classificati secondo il loro grado di malignità utilizzando caratteristiche di tessitura dei segnali digitali. 6.Metodo come rivendicato alla rivendicazione 5, in cui si utilizza detto classificatore (SVM) per classificare detti gruppi secondo il loro grado di malignità . 7.Metodo come rivendicato in una qualsiasi delle rivendicazioni precedenti, in cui si utilizza un algoritmo genetico per ottimizzare la scelta dei parametri utilizzati nelle fasi (a), (b) e (c). 8.Metodo come rivendicato in una qualsiasi delle rivendicazioni 2-7, in cui nella fase di memorizzazione citata si utilizza una tavolettaschermo come strumento per evidenziare e/o memorizzare zone di interesse presenti nei segnali digitali. 9.Metodo come rivendicato alla rivendicazione 8, in cui si utilizzano dette zone di interesse evidenziate tramite detta tavoletta-schermo per compiere un addestramento di detto classificatore (SVM). 10. Metodo come rivendicato alla rivendicazione 8, in cui si classificano dette zone di interesse evidenziate tramite detta tavoletta-schermo secondo il loro grado di malignità utilizzando caratteristiche di tessitura dei segnali digitali. 11. Metodo come rivendicato in una qualsiasi delle rivendicazioni precedenti atto ad essere implementato in una apparecchiatura di elaborazione ed analisi di immagini mammografiche. 12. Apparecchiatura atta ad implementare un metodo come rivendicato alle rivendicazioni 1-10.
IT2000BO000166A 2000-03-24 2000-03-24 Metodo, e relativa apparecchiatura, per la rilevazione automatica dimicrocalcificazioni in segnali digitali di tessuto mammario. IT1320956B1 (it)

Priority Applications (3)

Application Number Priority Date Filing Date Title
IT2000BO000166A IT1320956B1 (it) 2000-03-24 2000-03-24 Metodo, e relativa apparecchiatura, per la rilevazione automatica dimicrocalcificazioni in segnali digitali di tessuto mammario.
EP00128526A EP1136914A3 (en) 2000-03-24 2000-12-27 Method and apparatus for the automatic detection of microcalcifications in digital signals of mammary tissue
US09/775,216 US20010031076A1 (en) 2000-03-24 2001-02-01 Method and apparatus for the automatic detection of microcalcifications in digital signals of mammary tissue

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
IT2000BO000166A IT1320956B1 (it) 2000-03-24 2000-03-24 Metodo, e relativa apparecchiatura, per la rilevazione automatica dimicrocalcificazioni in segnali digitali di tessuto mammario.

Publications (2)

Publication Number Publication Date
ITBO20000166A1 true ITBO20000166A1 (it) 2001-09-24
IT1320956B1 IT1320956B1 (it) 2003-12-18

Family

ID=11438359

Family Applications (1)

Application Number Title Priority Date Filing Date
IT2000BO000166A IT1320956B1 (it) 2000-03-24 2000-03-24 Metodo, e relativa apparecchiatura, per la rilevazione automatica dimicrocalcificazioni in segnali digitali di tessuto mammario.

Country Status (3)

Country Link
US (1) US20010031076A1 (it)
EP (1) EP1136914A3 (it)
IT (1) IT1320956B1 (it)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6996549B2 (en) * 1998-05-01 2006-02-07 Health Discovery Corporation Computer-aided image analysis
KR20030032395A (ko) * 2001-10-24 2003-04-26 김명호 서포트 벡터 머신을 이용한 다중 에스엔피(snp)와질병의 상관관계 분석 방법
US7127096B2 (en) * 2001-11-20 2006-10-24 Accuimage Diagnostics Corp. Method and software for improving coronary calcium scoring consistency
US6961719B1 (en) 2002-01-07 2005-11-01 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Hybrid neural network and support vector machine method for optimization
US7454321B1 (en) 2002-01-07 2008-11-18 The United States Of America As Represented By The Administrator Of The National Aeronautics And Space Administration Robust, optimal subsonic airfoil shapes
US7203348B1 (en) * 2002-01-18 2007-04-10 R2 Technology, Inc. Method and apparatus for correction of mammograms for non-uniform breast thickness
US7123762B2 (en) * 2002-02-08 2006-10-17 University Of Chicago Method and system for risk-modulated diagnosis of disease
US20030204507A1 (en) * 2002-04-25 2003-10-30 Li Jonathan Qiang Classification of rare events with high reliability
US6999625B1 (en) * 2002-07-12 2006-02-14 The United States Of America As Represented By The Secretary Of The Navy Feature-based detection and context discriminate classification for digital images
US6999624B1 (en) * 2002-07-12 2006-02-14 The United States Of America As Represented By The Secretary Of The Navy Context discriminate classification for digital images
US6990239B1 (en) * 2002-07-16 2006-01-24 The United States Of America As Represented By The Secretary Of The Navy Feature-based detection and context discriminate classification for known image structures
US7149331B1 (en) * 2002-09-03 2006-12-12 Cedara Software Corp. Methods and software for improving thresholding of coronary calcium scoring
FR2854974B1 (fr) * 2003-05-14 2005-07-08 Ge Med Sys Global Tech Co Llc Procede d'amelioration de contraste/luminosite d'images radiographiques
EA011562B1 (ru) * 2004-07-27 2009-04-28 Дюрр Денталь Гмбх & Ко.Кг Способ и устройство для улучшения распознаваемости различных структур на изображениях, полученных в проходящих лучах
EP1815400A2 (en) * 2004-11-19 2007-08-08 Koninklijke Philips Electronics N.V. System and method for false positive reduction in computer-aided detection (cad) using a support vector machine (svm)
EP1815399B1 (en) * 2004-11-19 2010-08-04 Koninklijke Philips Electronics N.V. A stratification method for overcoming unbalanced case numbers in computer-aided lung nodule false positive reduction
US7680307B2 (en) * 2005-04-05 2010-03-16 Scimed Life Systems, Inc. Systems and methods for image segmentation with a multi-stage classifier
US7738683B2 (en) * 2005-07-22 2010-06-15 Carestream Health, Inc. Abnormality detection in medical images
WO2008017991A2 (en) * 2006-08-11 2008-02-14 Koninklijke Philips Electronics, N.V. Methods and apparatus to integrate systematic data scaling into genetic algorithm-based feature subset selection
US20090067700A1 (en) * 2007-09-10 2009-03-12 Riverain Medical Group, Llc Presentation of computer-aided detection/diagnosis (CAD) results
US20100202674A1 (en) * 2007-11-21 2010-08-12 Parascript Llc Voting in mammography processing
US20120053446A1 (en) * 2007-11-21 2012-03-01 Parascript Llc Voting in image processing
US20100158332A1 (en) * 2008-12-22 2010-06-24 Dan Rico Method and system of automated detection of lesions in medical images
KR20160071242A (ko) * 2014-12-11 2016-06-21 삼성전자주식회사 안구 움직임에 기반한 컴퓨터 보조 진단 장치 및 방법
US9449260B2 (en) * 2015-02-19 2016-09-20 Blackberry Limited Constructing and using support vector machines
US10898079B2 (en) * 2016-03-04 2021-01-26 University Of Manitoba Intravascular plaque detection in OCT images
DE102017203248B3 (de) * 2017-02-28 2018-03-22 Siemens Healthcare Gmbh Verfahren zum Bestimmen einer Biopsieposition, Verfahren zum Optimieren eines Positionsbestimmungsalgorithmus, Positionsbestimmungseinheit, bildgebende medizinische Vorrichtung, Computerprogrammprodukte und computerlesbare Speichermedien
CN108470194B (zh) * 2018-04-04 2020-10-13 北京环境特性研究所 一种特征筛选方法及装置
RU2697733C1 (ru) * 2019-06-10 2019-08-19 Общество с ограниченной ответственностью "Медицинские Скрининг Системы" Система обработки рентгенографических изображений и вывода результата пользователю

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5491627A (en) * 1993-05-13 1996-02-13 Arch Development Corporation Method and system for the detection of microcalcifications in digital mammograms
US5627907A (en) * 1994-12-01 1997-05-06 University Of Pittsburgh Computerized detection of masses and microcalcifications in digital mammograms
US5732697A (en) * 1995-11-22 1998-03-31 Arch Development Corporation Shift-invariant artificial neural network for computerized detection of clustered microcalcifications in mammography
US6134344A (en) * 1997-06-26 2000-10-17 Lucent Technologies Inc. Method and apparatus for improving the efficiency of support vector machines
US6058322A (en) * 1997-07-25 2000-05-02 Arch Development Corporation Methods for improving the accuracy in differential diagnosis on radiologic examinations
US5999639A (en) * 1997-09-04 1999-12-07 Qualia Computing, Inc. Method and system for automated detection of clustered microcalcifications from digital mammograms
WO1999009887A1 (en) * 1997-08-28 1999-03-04 Qualia Computing, Inc. Method and system for automated detection of clustered microcalcifications from digital mammograms
US6075878A (en) * 1997-11-28 2000-06-13 Arch Development Corporation Method for determining an optimally weighted wavelet transform based on supervised training for detection of microcalcifications in digital mammograms
US6128608A (en) * 1998-05-01 2000-10-03 Barnhill Technologies, Llc Enhancing knowledge discovery using multiple support vector machines
US6173034B1 (en) * 1999-01-25 2001-01-09 Advanced Optical Technologies, Inc. Method for improved breast x-ray imaging

Also Published As

Publication number Publication date
EP1136914A2 (en) 2001-09-26
US20010031076A1 (en) 2001-10-18
EP1136914A3 (en) 2002-06-26
IT1320956B1 (it) 2003-12-18

Similar Documents

Publication Publication Date Title
ITBO20000166A1 (it) Metodo , e relativa apparecchiatura , per la rilevazione automatica di microcalcificazioni in segnali digitali di tessuto mammario .
Abdelrahman et al. Convolutional neural networks for breast cancer detection in mammography: A survey
Sampat et al. Computer-aided detection and diagnosis in mammography
Jiang et al. Malignant and benign clustered microcalcifications: automated feature analysis and classification.
US7308126B2 (en) Use of computer-aided detection system outputs in clinical practice
US6278793B1 (en) Image quality based adaptive optimization of computer aided detection schemes
US6970587B1 (en) Use of computer-aided detection system outputs in clinical practice
US8175351B2 (en) Computer-aided detection and classification of suspicious masses in breast imagery
US8218850B2 (en) Breast tissue density measure
Mohanty et al. RETRACTED ARTICLE: An improved data mining technique for classification and detection of breast cancer from mammograms
ITRM20060213A1 (it) Metodo di elaborazione di immagini biomediche
KR20010023427A (ko) 디지털 유방 방사선 사진으로부터 클러스터상미세석회화의 자동 검출을 위한 방법 및 시스템
Costaridou Medical image analysis methods
JPH09185714A (ja) コンピュータ支援診断方法
JP2004283211A (ja) 画像判別装置、方法およびプログラム
US20120099771A1 (en) Computer aided detection of architectural distortion in mammography
Nakayama et al. Computer‐aided diagnosis scheme for histological classification of clustered microcalcifications on magnification mammograms
US11783476B2 (en) System and method for analyzing three-dimensional image data
Wei et al. Visual interpretability in computer-assisted diagnosis of thyroid nodules using ultrasound images
Beheshti et al. Classification of abnormalities in mammograms by new asymmetric fractal features
JP5048233B2 (ja) Cadシステムにおける解剖学的形状の検出のための方法及びシステム
Lee et al. Potential of computer-aided diagnosis to improve CT lung cancer screening
Oliver et al. Automatic diagnosis of masses by using level set segmentation and shape description
Saraswat et al. A Survey of Recent Studies Investigating the potential of Deep Learning Algorithms for Identifying and Categorizing Breast Cancer
EP4292538A1 (en) Breast ultrasound diagnosis method and system using weakly supervised deep-learning artificial intelligence