ES2914873T3 - Sugerencia de segunda lectura - Google Patents

Sugerencia de segunda lectura Download PDF

Info

Publication number
ES2914873T3
ES2914873T3 ES19744779T ES19744779T ES2914873T3 ES 2914873 T3 ES2914873 T3 ES 2914873T3 ES 19744779 T ES19744779 T ES 19744779T ES 19744779 T ES19744779 T ES 19744779T ES 2914873 T3 ES2914873 T3 ES 2914873T3
Authority
ES
Spain
Prior art keywords
medical
medical images
analysis
images
computer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES19744779T
Other languages
English (en)
Inventor
Peter Kecskemethy
Tobias Rijken
Edith Karpati
Michael O'neill
Andreas Heindl
Joseph Elliot Yearsley
Dimitrios Korkinof
Galvin Khara
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kheiron Medical Technologies Ltd
Original Assignee
Kheiron Medical Technologies Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from GB1809796.4A external-priority patent/GB2574659A/en
Priority claimed from GB1819329.2A external-priority patent/GB2579244A/en
Application filed by Kheiron Medical Technologies Ltd filed Critical Kheiron Medical Technologies Ltd
Application granted granted Critical
Publication of ES2914873T3 publication Critical patent/ES2914873T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/50Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications
    • A61B6/502Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment specially adapted for specific body parts; specially adapted for specific clinical applications for diagnosis of breast, i.e. mammography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/72Signal processing specially adapted for physiological signals or for diagnostic purposes
    • A61B5/7235Details of waveform analysis
    • A61B5/7264Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems
    • A61B5/7267Classification of physiological signals or data, e.g. using neural networks, statistical classifiers, expert systems or fuzzy systems involving training the classification device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5205Devices using data or image processing specially adapted for radiation diagnosis involving processing of raw data to produce diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5217Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data extracting a diagnostic or physiological parameter from medical diagnostic data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5211Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data
    • A61B6/5229Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image
    • A61B6/5235Devices using data or image processing specially adapted for radiation diagnosis involving processing of medical diagnostic data combining image data of a patient, e.g. combining a functional image with an anatomical image combining images from the same or different ionising radiation imaging techniques, e.g. PET and CT
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/143Segmentation; Edge detection involving probabilistic approaches, e.g. Markov random field [MRF] modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19147Obtaining sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/025Tomosynthesis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/08Detecting organic movements or changes, e.g. tumours, cysts, swellings
    • A61B8/0825Detecting organic movements or changes, e.g. tumours, cysts, swellings for diagnosis of the breast, e.g. mammography
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5223Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for extracting a diagnostic or physiological parameter from medical diagnostic data
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10081Computed x-ray tomography [CT]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • G06T2207/10088Magnetic resonance imaging [MRI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10132Ultrasound image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30068Mammography; Breast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30096Tumor; Lesion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/03Recognition of patterns in medical or anatomical images

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • General Physics & Mathematics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Artificial Intelligence (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • Multimedia (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Physiology (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Dentistry (AREA)
  • Probability & Statistics with Applications (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)

Abstract

Un método de análisis de imágenes médicas asistido por ordenador (510; 10), el método que comprende las etapas de: recibir una o más imágenes médicas (510; 10); usar uno o más modelos de aprendizaje automático entrenados (520) para analizar dichas una o más imágenes médicas (510; 10) para determinar una o más características; generar datos de salida en base a la una o más características determinadas; recibir los datos de entrada de un primer usuario en relación con características determinadas manualmente (530) de una o más imágenes médicas (510; 10); y determinar un grado de similitud (540) de la una o más características determinadas y las características determinadas manualmente (530); en donde si el grado de similitud (540) se encuentra más abajo de un umbral predeterminado, se produce una salida (550) para desencadenar un análisis adicional de la una o más imágenes médicas (510; 10), caracterizado porque el método indica que se realice el análisis adicional mediante un segundo usuario independiente (560).

Description

DESCRIPCIÓN
Sugerencia de segunda lectura
Campo
La presente invención se refiere a implementaciones de aprendizaje profundo para las imágenes médicas. Más particularmente, la presente invención se refiere a un método y sistema para sugerir si se debe obtener una segunda revisión después de que un primer usuario ha realizado una revisión/análisis manual de un conjunto de imágenes médicas de un cribado médico inicial.
Antecedentes
La mamografía es un método avanzado de escaneo del tejido mamario humano que hace uso de dosis bajas de rayos X para producir imágenes de la estructura interna de la mama humana. El cribado de estas imágenes, llamadas mamografías, ayuda a la detección temprana y al diagnóstico de anomalías y enfermedades mamarias. Con el fin de establecer un escaneo más preciso, las máquinas de mamografía generalmente tienen dos placas que comprimen la mama para separar el tejido y ayudar a los radiólogos a examinar la mamografía.
Se cree que la valoración por radiólogos humanos es el método más preciso de evaluación de imágenes y se refiere a la tarea que se realiza por un radiólogo, o un profesional similar, de inspeccionar los escaneos médicos, sección por sección, con el fin de producir un análisis completo. Sin embargo, al considerar que una mamografía es una representación de información tridimensional que se proyecta sobre un plano de imagen bidimensional, a menudo hay superposición de tejidos en las imágenes de escaneo médico 2D (mamografías) que se inspeccionan. Como resultado, los tejidos que aparecen superpuestos dentro de la imagen de la mama pueden reducir la visibilidad de anomalías malignas o, a veces, incluso simular la apariencia de una anomalía (falso positivo). Esto hace que la tarea de analizar una mamografía sea más compleja y puede causar dificultades cuando se trata de detectar anomalías de manera precisa y exacta.
En algunas situaciones, solo un único radiólogo puede revisar y diagnosticar el conjunto de imágenes que se producen a partir de cada conjunto de datos de imágenes de mamografía. Por lo tanto, es posible que a veces un único radiólogo no diagnostique con precisión a un paciente en base a su revisión de los datos de la imagen de la mamografía. Aunque a veces se prefiere usar dos radiólogos independientes para revisar los datos de la imagen de la mamografía de cada paciente independientemente, esto no siempre es posible logísticamente o económicamente.
Resumen de la invención
El documento US 2006 / 100507 describe un método de acuerdo con el preámbulo de la reivindicación independiente 1.
Los aspectos y/o modalidades buscan proporcionar un método y un sistema para sugerir que un segundo radiólogo revise uno o más casos/conjuntos de imágenes médicas en respuesta a la revisión del caso de imágenes médicas por un primer radiólogo, en base al uso de análisis asistido por ordenador (por ejemplo, mediante el uso de aprendizaje profundo) en cada caso/conjunto de imágenes médicas y la revisión del primer radiólogo.
De acuerdo con un primer aspecto, se proporciona un método asistido por ordenador de acuerdo con la reivindicación 1.
Los radiólogos no muestran una precisión constante debido a la naturaleza manual de la tarea, por ejemplo, al cometer errores debido a la superposición de tejidos mamarios en la mamografía y/o detalles demasiado finos para que el ojo humano los detecte. Al comparar la una o más características que se determinan manualmente con las características que se determinan por ordenador para los mismos datos, el método puede desencadenar una segunda revisión manual de los datos, por lo tanto, solo hace más seguro el enfoque de un único radiólogo al desencadenar una segunda revisión manual si hay un desajuste significativo entre el diagnóstico del usuario y el análisis asistido por ordenador de cada conjunto de imágenes médicas.
Opcionalmente, el método se realiza sustancialmente en tiempo real. Esto puede permitir el desencadenamiento de la segunda revisión manual inmediatamente, lo que permite que el método se integre con los flujos de trabajo médicos existentes más fácilmente, ya que no causa un retardo significativo.
Opcionalmente, el método puede desencadenar o recomendar una o más pruebas médicas adicionales que comprenden cualquiera o cualquier combinación de: un escaneo de tomografía computarizada (CT); un escaneo de ultrasonido; un escaneo de resonancia magnética (MRI); un escaneo de tomosíntesis; y/o una biopsia.
Puede sugerirse una prueba médica adicional en base al análisis del cribado preliminar. Como ejemplo, puede recomendarse instantáneamente una tomosíntesis más detallada si la mamografía inicial no es clara o las características se superponen o puede haber una lesión que merece la pena investigar. En algunos casos, el análisis de la imagen médica inicial puede no requerir ningún estudio o prueba médica adicional. Opcionalmente, los datos de salida también pueden indicar una densidad mamaria o un tipo de clasificación del tejido.
Opcionalmente, la una o más imágenes médicas comprenden una o más mamografías o escaneos con rayos X.
En la mayoría de los programas de cribado médico, los rayos X o la mamografía son el primer tipo de escaneo médico.
La etapa de análisis y determinación se realiza mediante el uso de uno o más modelos de aprendizaje automático entrenados.
Los modelos de aprendizaje automático entrenados pueden analizar las imágenes médicas mucho más rápido que un experto humano y, por lo tanto, aumentar el número de imágenes médicas que se analizan en general. La precisión es típicamente consistente cuando se usa un modelo de aprendizaje automático. Por lo tanto, un problema, por ejemplo, el crecimiento de un tumor canceroso, puede detectarse más rápidamente que esperar a que un experto humano se encuentre disponible y, por tanto, el tratamiento puede comenzar antes o puede solicitarse antes una prueba médica adicional. La identificación de regiones de interés, que pueden incluir lesiones, puede por lo tanto ayudar al cribado y a la valoración clínica del cáncer de mama, entre otros problemas médicos. El diagnóstico y el tratamiento tempranos pueden reducir el estrés psicológico de un paciente y también aumentar las posibilidades de supervivencia a largo plazo.
Opcionalmente, los modelos de aprendizaje automático entrenados comprenden redes neuronales convolucionales.
Las redes convolucionales son herramientas poderosas que se inspiran en procesos neuronales biológicos, que pueden entrenarse para producir jerarquías de características y son particularmente adecuadas para el reconocimiento de imágenes. Las capas convolucionales aplican una operación convolucional a una entrada y pasan los resultados a una capa siguiente. Con entrenamiento, las redes convolucionales pueden lograr una precisión de nivel experto o mayor con respecto a la segmentación y localización de regiones anatómicas y patológicas en imágenes médicas digitales tal como las mamografías.
Opcionalmente, la etapa de análisis y determinación comprende segmentar una o más regiones anatómicas. Opcionalmente, los datos de salida comprenden además datos superpuestos que indican un esquema de segmentación y/o máscaras de probabilidad que muestran una o más ubicaciones de una o más regiones segmentadas.
Proporcionar una segmentación clara y precisa de las regiones puede ser muy útil cuando se revisa una imagen médica, tal como una mamografía. Esto puede ser especialmente relevante si hay razones para sospechar que hay un problema médico con un paciente, por ejemplo, un área hinchada que es más grande de lo que era en los escaneos anteriores. Tales cambios pueden detectarse más fácilmente si las diferentes regiones se encuentran claramente segmentadas. Además, la información de segmentación también puede usarse para enriquecer los sistemas de comunicación de archivo de imágenes (PACS) que usan los departamentos de radiología en los hospitales. Con la inclusión de estos datos de segmentación en PACS, mejora ventajosamente los métodos futuros de señalización de casos similares, ya sea que los métodos sean semiautomáticos, totalmente automatizados o realizados manualmente.
Opcionalmente, la etapa de análisis y determinación comprende identificar el tipo de tejido y la categoría de densidad. Opcionalmente, el tipo requerido de una o más pruebas médicas adicionales depende de la categoría de densidad que se determina en base a la una o más imágenes médicas. Opcionalmente, esta etapa puede estimar conjuntamente el tipo de tejido y la categoría de densidad.
Clasificar correctamente el tipo de tejido y la categoría de densidad puede permitir que el método recomiende una prueba médica adicional adecuada o un estudio específico.
Opcionalmente, la etapa de análisis y determinación comprende identificar automáticamente una o más regiones anómalas en la imagen médica.
Opcionalmente, la etapa de análisis y determinación comprende identificar y distinguir entre una lesión maligna y/o una lesión benigna y/o una lesión típica.
Opcionalmente, los datos de salida comprenden además datos superpuestos que indican una máscara de probabilidad para la una o más lesiones.
Opcionalmente, la etapa de análisis y determinación comprende la identificación de la distorsión arquitectónica.
Opcionalmente, la una o más imágenes médicas y la una o más imágenes médicas adicionales comprenden el uso de archivos de imágenes digitales y comunicaciones en medicina, DICOM.
A medida que un archivo DICOM se usa convencionalmente para almacenar y compartir imágenes médicas, la conformidad con tal estándar puede permitir una distribución más fácil y el análisis futuro de las imágenes médicas y/o cualquier superposición u otros datos contribuyentes. La una o más máscaras binarias pueden almacenarse como parte de un archivo de imagen DICOM, añadirse a un archivo de imagen y/o almacenarse y/o representarse de cualquier otra manera de acuerdo con el estándar DICOM o porción del estándar.
De acuerdo con un aspecto adicional, se proporciona un sistema para analizar conjuntos de imágenes médicas en tiempo real sustancialmente, el sistema que comprende: un dispositivo de imágenes médicas; un sistema de comunicación de archivo de imágenes, PACS; un terminal de usuario operable para la entrada de metadatos de diagnóstico para cada conjunto de imágenes médicas; una unidad de procesamiento operable para analizar uno o más de cada conjunto de imágenes médicas en el PACS para determinar una o más características y determinar un grado de similitud de la una o más características determinadas y los metadatos de diagnóstico que se entran; y un visor de salida operable para mostrar un requisito de los datos de salida que se generan en base a la una o más características que se determinan, en donde los datos de salida son indicativos de un requisito para obtener una o más imágenes médicas adicionales o desencadenar un análisis adicional del conjunto de imágenes médicas si el grado de similitud se encuentra más abajo de un umbral predeterminado. Tal sistema puede instalarse en o cerca de los hospitales, o conectarse a hospitales a través de una red digital, para reducir los tiempos de espera para las imágenes médicas a analizar. Por lo tanto, los pacientes pueden ahorrarse el estrés de no conocer los resultados de un escaneo médico y recibir una decisión más rápidamente.
Opcionalmente, la unidad de procesamiento se integra con el dispositivo de imágenes médicas.
De esta manera, el escáner médico puede acoplarse con una unidad de procesamiento para analizar las imágenes médicas tan pronto como se escanean.
Opcionalmente, la unidad de procesamiento se ubica remotamente y es accesible a través de un canal de comunicaciones.
En esta configuración, la unidad de procesamiento puede desplegarse desde un sistema remoto en la nube sin necesidad de reemplazar o cambiar el equipo de escaneo existente.
De acuerdo con un aspecto adicional, se proporciona un sistema operable para realizar el método de acuerdo con cualquier otro aspecto.
De acuerdo con un aspecto adicional, se proporciona un programa de ordenador operable para realizar el método de acuerdo con cualquier otro aspecto.
A través el uso de un ordenador u otra tecnología digital, el examen de las imágenes médicas puede realizarse con mayor precisión, velocidad y/o fiabilidad que si se depende de un experto humano. Por lo tanto, puede revisarse un mayor número de imágenes médicas a la vez, de esta manera se reducen los atrasos de los expertos y se reducen aún más los errores que se comenten cuando se revisan realmente las propias imágenes médicas.
Descripción de los dibujos
Las modalidades se describirán ahora a manera de ejemplo solamente y con referencia a los dibujos acompañantes que tienen números de referencia similares, en los que:
La Figura 1 muestra un diagrama de flujo de una modalidad;
La Figura 2 representa un primer despliegue (por ejemplo, dentro de un dispositivo de escaneo médico);
La Figura 3 representa un segundo despliegue (por ejemplo, en las instalaciones de un centro médico);
La Figura 4 representa un tercer despliegue (por ejemplo, mediante el uso de un sistema en la nube);
La Figura 5 ilustra un método de una modalidad;
La Figura 6 ilustra un diagrama de flujo que muestra un esquema del método de una modalidad;
La Figura 7 ilustra la porción del diagrama de flujo de la Figura 6 que se centra en proporcionar una salida de malignidad en base a la imagen de entrada y la red neuronal de detección de malignidad preentrenada, lo que muestra opcionalmente el preprocesamiento que puede aplicarse a la imagen de entrada;
La Figura 8 ilustra la Máscara-RCNN de la modalidad de la Figura 6 con más detalle;
La Figura 9 ilustra la porción del diagrama de flujo de la Figura 6 que muestra el proceso de las operaciones media y máxima que se realizan por la modalidad; y
La Figura 10 ilustra cómo se determina la salida final de la modalidad de la Figura 6.
Descripción detallada
Con referencia a las Figuras 1 a 4, se describirá ahora una modalidad.
Como se ve en la Figura 1, después de realizar un escaneo médico de un paciente (tal como una mamografía) mediante el uso de un escáner de imágenes médicas 101, las imágenes escaneadas se recopilan en formato DICOM, que es un formato de archivo comúnmente usado para almacenar imágenes médicas. El método usa los datos preprocesados que se almacenan en un sistema de comunicación de archivo de imágenes (PACS) 102 que los departamentos de radiología usan en los hospitales. La salida de este método también enriquece la base de datos de PACS para mejorar las futuras aplicaciones de análisis de imágenes mamográficas. Los datos de la imagen se extraen del archivo DICOM y se genera una imagen.
La imagen se somete entonces a una etapa de preprocesamiento 103. La imagen se carga en un tensor 4D de tamaño [1, ancho, alto, 1]. La etapa de preprocesamiento puede comprender la ventana de los datos de la imagen hasta un nivel de ventana predeterminado. El nivel de ventana define el intervalo de valores de bits que se consideran en la imagen. Las imágenes médicas son convencionalmente imágenes de 16 bits, en donde cada píxel se representa como un entero de 16 bits que va de 0 a 216-1, es decir, [0, 1, 2, ..., 65 535]. El contenido de información es muy alto en estas imágenes, y generalmente comprende más información de la que el ojo humano es capaz de detectar. Un valor establecido para el nivel de ventana se incluye típicamente dentro del archivo DICOM.
En algunos casos, puede ser importante mantener la resolución de la imagen. A menudo, las restricciones de la unidad de procesamiento gráfico (GPU) convencional requieren que la imagen se divida en una pluralidad de parches con el fin de mantener la resolución. Cada parche puede proporcionarse entonces a una red convolucional completa (FCN). Cuanto más grande sea el parche, más contexto puede proporcionarse, pero puede perderse algo de precisión. Por ejemplo, en el caso de una imagen grande que comprende un pequeño tumor, si se le indica a la FCN que en algún lugar de este parche hay un tumor, la red necesitaría aprender cómo encontrarlo primero antes de poder clasificarlo. En esta modalidad se usan tamaños de parche de 300x300 píxeles, aunque pueden usarse tamaños de parche más grandes y más pequeños.
Puede incluirse una etapa de reescalado debido a las restricciones del hardware convencional mencionadas anteriormente. Las imágenes médicas se encuentran típicamente en la región de -3500x2500 píxeles. Una FCN 100 que se aplica a esta imagen no se ajusta en la memoria de la unidad de procesamiento gráfico (GPU) convencional. La imagen puede reescalarse a un tamaño más grande o más pequeño, o incluso no reescalarse en absoluto, y permitiría a la FCN ver una mayor resolución y podría captar detalles más finos. Sin embargo, es poco probable que esto se ajuste en la memoria de la GPU y podría causar que el método se vuelva considerablemente más lento. Al reescalar la imagen a un tamaño más pequeño, es más probable que sea capaz de ajustarse en una memoria GPU y permitir que los procesos se ejecuten a una velocidad más rápida. La FCN también puede generalizar mejor debido a un número más pequeño de parámetros de entrada.
El método puede usarse para identificar y detectar lesiones en las mamografías. Las lesiones que pueden segmentarse pueden comprender uno o más crecimientos cancerosos, masas, abscesos, laceraciones, calcificaciones y/u otras irregularidades dentro del tejido biológico.
Las imágenes se analizan al introducirlas a través de un modelo de aprendizaje automático entrenado, tal como una red neuronal convolucional. Esta modalidad utiliza técnicas de aprendizaje profundo para entrenar y desarrollar la red de convolución. El modelo se entrena en un conjunto de datos con estudios conocidos y, por tanto, establece directamente una relación entre las imágenes que se reciben y los estudios conocidos para estimar un estudio requerido. En particular, la salida 105 del modelo de aprendizaje automático es un vector binario, donde los índices representan diversos tipos de estudios. Por ejemplo, los estudios pueden ser cualquiera, o cualquier combinación de, sin necesidad de más acción, un escaneo de ultrasonido, un escaneo de tomosíntesis, un escaneo de MRI y/o tomar una biopsia.
El conjunto de datos usado para el entrenamiento de las redes neuronales puede contener también tipos de densidad o de tejido conocidos. En ese caso, puede tomarse un enfoque de aprendizaje multitarea para que el modelo también emita la densidad (A, B, C, D) o el tipo de tejido (1, 2, 3, 4, 5).
Hay diferentes tipos de patrones en el tejido mamario que afectan la detectabilidad de los cánceres de mama. Por lo tanto, es importante saber qué tipo de patrón se encuentra presente. Hay cinco patrones parenquimatosos de mamografía conocidos como "patrones de Tabar", que se llaman así por el profesor Laszlo Tabar, quien desarrolló esta clasificación.
Los patrones de Tabar (o tipos de clasificaciones) se basan en una correlación histológico-mamográfica con una técnica tridimensional, sub-macroscópica (corte grueso), y en la proporción relativa de cuatro "bloques de construcción" (densidades nodulares, densidades lineales, tejido fibroso homogéneo, tejido graso radiolúcido). Las cinco clasificaciones son las siguientes:
1. Proporción equilibrada de todos los componentes del tejido mamario con un ligero predominio del tejido fibroso 2. Predominio del tejido graso
3. Predominio de tejido graso con tejido fibroso residual retroareolar
4. Densidades predominantemente nodulares
5. Tejido predominantemente fibroso (mama densa)
Las clases 4 y 5 se consideran de alto riesgo, lo que significa que es difícil detectar cánceres en la mama con esos patrones, mientras que las clases 1, 2 y 3 se consideran de menor riesgo, ya que es más fácil detectar las regiones cancerosas.
Algunas terapias pueden alterar el patrón al aumentar la densidad del parénquima, como en la terapia de reemplazo hormonal (HRT), o reducirla como en las terapias con moduladores selectivos de los receptores de estrógenos (SERM).
De manera similar, las categorías de densidad mamaria se clasifican por los radiólogos mediante el uso del sistema BI-RADS. Una vez más, esta clasificación se usa para propósitos de control de calidad. Por ejemplo, es muy difícil detectar una anomalía en mamas densas. Hay cuatro categorías en el sistema BI-RADS:
A. Las mamas son casi totalmente grasas
B. Hay áreas dispersas de densidad fibroglandular
C. Las mamas son heterogéneamente densas, lo que puede ocultar pequeñas masas
D. Las mamas son extremadamente densas, lo que reduce la sensibilidad de la mamografía.
Es importante destacar que también se sabe que las densidades de las mamas y los patrones de los tejidos tienen una correlación mutua con el desarrollo del cáncer de mama.
En algunos casos, el método puede producir dos tipos de datos de salida. Mientras que los datos de salida pueden referirse a un estudio sugerido o pruebas médicas adicionales 105a, los datos de salida también pueden indicar la densidad o la clasificación del tejido 105b. Los datos de salida pueden indicar una salida binaria en cuanto al requisito para las pruebas adicionales. Opcionalmente, los datos de salida pueden incluir datos que se refieren a cómo se logró la salida binaria, que incluyen cualquiera de; el patrón de Tabar; los tipos de clasificación de los tejidos; la densidad mamaria; las densidades nodulares; las densidades lineales; el tejido fibroso homogéneo; el tejido graso radiolúcido; la categoría BI-RADS; una medida de características superpuestas dentro de las imágenes; la probabilidad y/o el índice de confianza.
La mamografía es una modalidad de imagen médica ampliamente usada para la detección del cáncer de mama. La mamografía hace uso de rayos X "suaves" para producir imágenes detalladas de la estructura interna de la mama humana; estas imágenes se llaman mamografías y este método se considera el estándar de oro en la detección temprana de anomalías mamarias que proporcionan un diagnóstico válido de un cáncer en una fase curable.
Desafortunadamente, el procedimiento de análisis de las mamografías es a menudo complejo. La densidad y el tipo de tejido de las mamas son muy variados y, a su vez, presentan una gran variedad de características visuales debido a la genética de las pacientes. Estos patrones visuales de fondo pueden ocultar los signos, a menudo minúsculos, de malignidades que pueden entonces pasarse por alto fácilmente por el ojo humano. Por lo tanto, los análisis de las mamografías a menudo conducen a resultados de diagnóstico falsos positivos o falsos negativos que pueden causar la omisión del tratamiento (en el caso de los falsos negativos), así como también consecuencias psicológicas y subóptimas no deseadas en el diagnóstico y el tratamiento posterior (en el caso de los falsos positivos).
La mayoría de los países desarrollados mantienen un programa de cribado para toda la población, que comprende un sistema integral para llamar a las mujeres de un determinado grupo de edad (incluso si no presentan síntomas) para que tengan un cribado de mama regular. Estos programas de cribado requieren protocolos muy estandarizados que deben seguirse por médicos especialistas con experiencia y entrenados que puedan analizar de manera fiable un gran número de mamografías de manera rutinaria. La mayoría de las directrices profesionales sugieren encarecidamente la lectura de cada mamografía por dos radiólogos igualmente expertos (también conocida como doble lectura). Hoy en día, cuando el número de radiólogos disponibles es insuficiente y disminuye, el requisito de la doble lectura es a menudo poco práctico o imposible.
Cuando se analizan las mamografías, la identificación fiable de las estructuras anatómicas es importante para la evaluación visual y especialmente para la valoración analítica de las características visuales en base a su ubicación anatómica y su relación con las estructuras anatómicas, lo que puede tener profundas implicaciones en los resultados diagnósticos finales. En el caso de que las estructuras anatómicas aparezcan distorsionadas también pueden indicar la presencia de posibles malignidades.
Los rayos X convencionales son una modalidad de imagen médica ampliamente usada para la detección de anomalías estructurales que se relacionan con las estructuras que contienen aire y los huesos, así como también aquellas enfermedades que tienen un impacto en ellos. Los rayos X convencionales son el método de imagen más usado y hace uso de rayos X "duros" para producir imágenes detalladas de la estructura interna de los pulmones y el esqueleto. Estas imágenes se llaman radiografías o simplemente rayos X.
Desafortunadamente, el procedimiento de análisis de los rayos X es a menudo complejo, especialmente cuando se analizan los rayos X de los pulmones con el fin de detectar enfermedades infecciosas (por ejemplo, TB) o cáncer de pulmón en etapa temprana.
Las modalidades de imágenes médicas en sección transversal se usan ampliamente para la detección de anomalías y enfermedades estructurales o funcionales que tienen un impacto estructural identificable visualmente en los órganos internos humanos. Generalmente, las imágenes muestran las estructuras internas en múltiples secciones transversales del cuerpo. Más abajo se describe la esencia de las técnicas de sección transversal más ampliamente usadas.
La tomografía computarizada (CT) es un método de imágenes ampliamente usado y hace uso de rayos X "duros" que se producen y detectan por un instrumento especialmente giratorio y los datos de atenuación resultantes (también conocidos como datos sin procesar) se presentan mediante un software analítico computarizado que produce imágenes detalladas de la estructura interna de los órganos internos. Los conjuntos de imágenes que se producen se llaman escaneos de CT que pueden constituir múltiples series con diferentes configuraciones y diferentes fases de agentes de contraste para presentar las estructuras anatómicas internas en secciones transversales perpendiculares al eje del cuerpo humano (o secciones sintetizadas en otros ángulos).
La imagen por resonancia magnética (MRI) es una técnica de diagnóstico avanzada que hace uso del efecto de los impactos del campo magnético en los movimientos de los protones, que son los elementos esenciales más pequeños de todos los tejidos vivos. En las máquinas de MRI, los detectores son antenas y las señales se analizan por un ordenador que crea imágenes detalladas de las estructuras internas en cualquier sección del cuerpo humano. La MRI puede añadir información funcional útil en base a la intensidad de la señal que se genera por los protones en movimiento.
Sin embargo, el procedimiento de análisis de cualquier tipo de imágenes en sección transversal a menudo es complejo, especialmente en el caso de una enfermedad oncológica, ya que los signos iniciales a menudo se encuentran ocultos y la apariencia de las áreas afectadas solo difiere mínimamente del normal.
Cuando se analizan los escaneos transversales, el diagnóstico se basa en la evaluación visual de las estructuras anatómicas. La valoración fiable, especialmente para la valoración analítica, de la apariencia visual en base a su ubicación anatómica y su relación con las estructuras anatómicas, puede tener profundas implicaciones en los resultados diagnósticos finales. En el caso de que las estructuras anatómicas aparezcan distorsionadas también pueden indicar la presencia de posibles malignidades.
Generalmente, en el caso de todos los métodos de diagnóstico radiológico (que incluyen la mamografía, los rayos X convencionales, la CT, la MRI), la identificación, localización (registro), la segmentación y la clasificación de las anomalías y/o los hallazgos son etapas importantes interconectadas en el flujo de trabajo de diagnóstico.
En el caso de los flujos de trabajo de diagnóstico ordinarios que se llevan a cabo por radiólogos humanos, estas etapas pueden realizarse sólo parcialmente o de manera subconsciente, pero en el caso de los diagnósticos y análisis basados en ordenador o asistidos por ordenador, las etapas necesitan a menudo realizarse de manera clara, concreta, descriptiva y precisa.
La localidad y la clasificación pueden definir e influir significativamente en los diagnósticos. Tanto la localidad como la clasificación pueden informarse mediante la segmentación en términos de la forma exacta y la extensión de las características visuales (es decir, el tamaño y la ubicación de los límites, la distancia de y la relación con otras características y/o la anatomía). La segmentación también puede proporcionar información importante con respecto al cambio en el estado de la enfermedad (por ejemplo, progresión o recesión).
Con referencia ahora a la Figura 5, se muestra un segundo método de sugerencia de lectura 500 de acuerdo con una modalidad.
Los datos de la imagen de la mamografía 510 se obtienen para cada paciente y se evalúan por un radiólogo según los procedimientos clínicos estándar. Una vez que el radiólogo ha completado la valoración/diagnóstico 530, los datos de la imagen de la mamografía 510 se entran a un modelo 520. El modelo 520 se dispone de acuerdo con una de las modalidades descritas en esta descripción, por ejemplo, de acuerdo con la modalidad descrita en relación con las Figuras 1 a 4 o la modalidad descrita de acuerdo con las Figuras 6 a 10. El modelo 520 emite una valoración de los datos de imagen de entrada 510, por ejemplo, al resaltar porciones de los datos de imagen 510 indicativos de interés o preocupación para los radiólogos. La valoración del radiólogo 530 y la salida del modelo 520 se comparan entonces 540 para determinar si se superponen/coinciden o no. Si no hay acuerdo entre la valoración del radiólogo 530 y la salida del modelo 520, entonces la salida 550 desencadena que se sugiera una segunda lectura 560, es decir, que un segundo radiólogo independiente revise los datos de la imagen 510 y realice un segundo diagnóstico independiente. Si la valoración del radiólogo 530 y la salida del modelo 520 coinciden o se superponen, entonces no es necesario tomar ninguna otra acción 570.
El modelo 520 puede ser un modelo o sistema de aprendizaje automático (ML), por ejemplo, una red neuronal convolucional.
Se puede determinar que la valoración del radiólogo 530 y la salida del modelo 520 coinciden o se superponen en base a un umbral de similitud.
Alternativamente, además, esta modalidad también puede tener otra entrada de información en el modelo 520, tal como la edad del paciente y el modelo 520 se configura para tomar esta otra información en cuenta.
Otra alternativa es que, en lugar de sugerir a un segundo radiólogo independiente que realice un segundo diagnóstico independiente, puede alertarse al radiólogo original y sugerirle que el radiólogo original realice una segunda revisión; o se realiza un diagnóstico asistido por ordenador en los datos de la imagen 510.
La Figura 6 representa una modalidad de ejemplo que se describirá ahora en más detalle a continuación con referencia a las Figuras 7 a 10 según sea adecuado.
Con referencia primero a la Figura 6, se muestra un método para recibir imágenes de mamografía de entrada 10 y generar una salida de malignidad, por ejemplo, una salida binaria de sí/no o una salida más detallada que muestra las regiones de interés junto con una salida binaria.
En un escaneo médico de una paciente (mamografía), las imágenes escaneadas se recopilan en formato DICOM, que es un formato de archivo comúnmente usado para almacenar imágenes médicas. El método usa datos preprocesados que se almacenan en un Sistema de comunicación de archivo de imágenes (PACS) que los departamentos de radiología usan en los hospitales. La salida de este método también enriquece la base de datos de PACs para mejorar las futuras aplicaciones de análisis de imágenes mamográficas.
En algunos casos, las imágenes pueden preprocesarse mediante el uso de una variedad de métodos, que incluyen, pero no se limitan a, la ventana, el remuestreo y la normalización. Las imágenes de entrada también pueden someterse a técnicas de adaptación de dominio y/o transferencia de estilo para mejorar aún más los resultados.
Las mamografías, preprocesados o no, se introducen entonces en un clasificador de red neuronal convolucional (CNN) 30 que se ha entrenado para analizar las imágenes y valorar si la imagen muestra una lesión maligna. En algunas modalidades, se usa más de una CNN entrenada para completar esta tarea. También pueden usarse los métodos convencionales de detección de lesiones malignas en una mamografía. Alternativamente, pueden usarse otras implementaciones de aprendizaje automático en lugar de una red neuronal convolucional.
Con el fin de que una CNN opere como un modelo de malignidad, la red necesita primero entrenarse. De manera similar a los métodos de preprocesamiento mencionados anteriormente, las imágenes de entrada para el propósito de entrenar la red pueden someterse a ventanas, remuestreo, normalización, etc., antes de que las imágenes se usen. En algunos casos, las imágenes usadas para entrenar la red o se proporcionan o tienen un tamaño de hasta 4000 x 4000 píxeles.
A medida que las imágenes se introducen a través de la CNN, se realizan un número de operaciones matemáticas apiladas. Al hacerlo, la CNN aplica tensores variables a la capa anterior de manera que se produce una puntuación de malignidad o no como resultado de estas operaciones. Luego se actualizan las variables en base al gradiente de la función de costo (entropía cruzada) que hace uso de la regla de la cadena para calcular las actualizaciones del gradiente a aplicar. De esta manera, pueden entrenarse múltiples CNN para usarlas con los aspectos/modalidades descritos.
Adicionalmente, el entrenamiento de las CNN puede incluir la concatenación de una imagen anterior que se toma de la misma vista de la mamografía y ejecutarla a través de las redes junto con la imagen actual que se introduce en la red. Esto permite el ajuste fino de las últimas capas de la CNN de manera que puedan dar cuenta de múltiples imágenes.
Una vez que se entrena el(los) modelo(s) de malignidad, la red y sus pesos se congelan. Luego se toma una de las salidas de la capa convolucional que luego se introduce en los cabezales de máscara desde una máscara RCNN 40. Una máscara RCNN ilustrativa se ilustra en la Figura 8. Estos cabezales incluyen un predictor de caja delimitadora 41, donde las cajas delimitadoras pueden usarse para recortar una parte de la imagen original.
Además de, o encima del parche recortado, se colocan un clasificador de malignidad 42 y unos cabezales de segmentación 43. Al igual que con el modelo de malignidad, con este sistema puede usarse cualquier caja delimitadora convencional, clasificador de malignidad o modelos de segmentación. En "Máscara r-cnn." Computer Vision (ICCV), 2017 IEEE International Conference on. IEEE, 2017, He, Kaiming, y otros describen una RCNN tradicional que puede usarse en al menos algunas modalidades, que se incorpora por referencia.
Hay diversos métodos de entrenamiento de las RCNN. En primer lugar, conectar el modelo de malignidad a la máscara RCNN, los cabezales de la máscara RCNN pueden entrenarse al mismo tiempo que el modelo de malignidad de la imagen completa. En segundo lugar, también es posible entrenar la máscara RCNN sin congelar la red del modelo de malignidad. Por último, los cabezales de la máscara RCNN pueden entrenarse con múltiples modelos de malignidad. Por lo tanto, el método de entrenamiento de los cabezales de la máscara RCNN no se restringe a un cierto tipo, lo que permite que el enfoque se adapte a usos específicos.
Una vez que se entrenan las redes neuronales, durante su uso o en el momento de la inferencia, el modelo de malignidad se congela en base a los datos de entrenamiento.
Como ejemplo, durante el tiempo de ejecución, el sistema de la modalidad recibe cuatro tipos de imágenes de mamografía: vista caudal craneal izquierda (L-CC) 51, vista caudal craneal derecha (R-CC) 53, medio lateral oblicua izquierda (L-MLO) 52 y medio lateral oblicua derecha (R-MLO) 54. Esta combinación de imágenes se conoce como un caso. Al pasar a través del modelo o modelos de malignidad, el sistema de la modalidad produce un caso completo de salidas. Estas salidas se promedian entonces para generar una única salida 60Y.
Como se ve en la Figura 9, 51 representa una puntuación promedio de todas las vistas caudales craneales izquierdas, 52 representa una puntuación promedio de todas las vistas medio laterales oblicuas izquierdas (L-MLO), 53 representa una puntuación promedio de todas las vistas caudales craneales derechas (R-CC) y 54 representa una puntuación promedio de todas las vistas medio laterales oblicuas derechas (R-MLO). Como se representa en 61a y 62a, el sistema de la modalidad calcula entonces una media de las respectivas vistas laterales izquierda 61 y vistas laterales derecha 62. Esto resulta en una salida de malignidad para cada lado. Se realiza entonces una operación máxima 63 para las salidas de malignidad promedio para cada lado.
Aunque no se representa en las Figuras, en la modalidad descrita, el método umbraliza entonces este resultado con un umbral predeterminado que da una puntuación binaria de malignidad o no 60Y.
Por último, con referencia a la Figura 10, la puntuación 60Y se usa para decidir si mostrar o no las segmentaciones de la máscara RCNN o las cajas delimitadoras 40X. De esta manera, en lugar de mostrar absolutamente todas las lesiones que se detectan solo por la máscara RCNN, lo que conduce a numerosos falsos positivos, los resultados de la salida de la máscara RCNN solo se muestran si la puntuación binaria de malignidad es positiva, es decir, indica malignidad. Cuando 60Y no indica que el caso sea maligno, las salidas de la máscara RCNN se ignoran y no se producen datos de localización como una salida del sistema.
En algunos casos, los resultados de Máscara RCNN pueden ensamblarse al interpolar entre coordenadas de cajas delimitadoras (de forma [N, M, x1, x2, y1, y2] donde N representa el número de modelos y M el número máximo de cajas delimitadoras) que tienen una intersección sobre unión (IOU) suficiente, que se encuentra predeterminada. Cualquier caja delimitadora que no tenga un IOU suficiente con los demás se elimina de la consideración. Con las cajas delimitadoras resultantes, las máscaras de segmentación sin procesar se promedian entonces antes de umbralizarlas con un umbral predeterminado, y también se promedian las puntuaciones de las lesiones para todas las cajas delimitadores suficientes.
Estas operaciones resultan en un conjunto final de cajas delimitadoras de forma [1, M, x1, x2, y1, y2] junto con una máscara de segmentación de forma [1, H, W] y puntuaciones de lesión de forma [1, M]. Una mejor manera es usar el agrupamiento de cajas ponderadas (WBC) que se describe por Paul F. Jaeger y otros en "Retina U-Net: Embarrassingly Simple Exploitation of Segmentation Supervision for Medical Object Detection" (https://arxiv.org/pdf/1811.08661.pdf), que se incorpora por referencia.
Como se mencionó anteriormente, la doble lectura es el estándar de oro en el cribado del cáncer de mama con mamografía. En este escenario, dos radiólogos informarán sobre un caso. El arbitraje ocurrirá cuando los dos lectores no estén de acuerdo sobre si volver a llamar a un paciente para más pruebas de cribado.
En la presente modalidad, el sistema descrito es capaz de operar como un segundo lector independiente, por lo que puede valorar si el diagnóstico de un primer radiólogo ha identificado todas las posibles irregularidades, anomalías y/o características malignas que se detectan en un conjunto de imágenes médicas de un paciente cuando se le proporciona el diagnóstico del primer radiólogo y opcionalmente alguna información adicional sobre cada paciente tal como la edad (entre otros datos). En el pasado, los sistemas de diagnóstico asistidos por ordenador no eran capaces de actuar como tales debido a una alta tasa de falsos positivos. De manera similar a un radiólogo humano, el sistema descrito de la modalidad puede tener una baja tasa de falsos positivos, lo que significa que puede usarse al menos de las dos maneras siguientes:
1. Como un segundo lector verdaderamente independiente: un primer radiólogo (humano) observa el caso y el presente sistema valora el caso independientemente. Si los dos no coinciden, el sistema de la modalidad muestra los esquemas de las lesiones de interés para que los considere el radiólogo humano, y si coinciden, el radiólogo no ve las salidas del sistema; o
2. Como un segundo lector no independiente donde el radiólogo humano y el sistema de la modalidad analizan ambos el caso - en que el radiólogo humano se soporta por el sistema de la modalidad. El radiólogo puede hacer clic para ver los resultados que se generan por el sistema de la modalidad cuando lo desee.
3. Una herramienta de verificación una vez que un primer radiólogo ha realizado una revisión manual y un diagnóstico de un conjunto de imágenes para un paciente, siempre y cuando a la herramienta se le proporcione tanto el conjunto de imágenes como la información de diagnóstico del radiólogo. Si el diagnóstico difiere de lo que la herramienta esperaría que un radiólogo diagnosticara en el conjunto de imágenes (y opcionalmente en base a los datos adicionales, tal como por ejemplo la edad del paciente), entonces la herramienta puede sugerir que un segundo radiólogo realice una revisión independiente del conjunto de imágenes y haga un segundo diagnóstico.
Muchos enfoques que imitan las técnicas usadas por los radiólogos humanos pueden incorporarse en el sistema en algunas modalidades, tal como el uso de una imagen anterior como referencia para buscar cualquier cambio desde el último escaneo y también un operador medio y luego máximo para imitar la manera en que los radiólogos humanos compensan volver a llamar un caso.
El aprendizaje automático es el campo de estudio donde un ordenador u ordenadores aprenden a realizar clases de tareas mediante el uso de la retroalimentación que se genera a partir de la experiencia o los datos recogidos que el proceso de aprendizaje automático adquiere durante la realización de dichas tareas por el ordenador.
Típicamente, el aprendizaje automático puede clasificarse en sentido amplio como enfoques supervisados y no supervisados, aunque hay enfoques particulares, tal como el aprendizaje por refuerzo y el aprendizaje semisupervisado, que tienen reglas, técnicas y/o enfoques especiales. El aprendizaje automático supervisado se ocupa de que un ordenador aprenda una o más reglas o funciones para mapear entre las entradas de ejemplo y las salidas deseadas según lo predeterminado por un operador o programador, generalmente donde se etiqueta un conjunto de datos que contiene las entradas.
El aprendizaje no supervisado se ocupa de determinar una estructura para los datos de entrada, por ejemplo, cuando se realiza el reconocimiento de patrones y, típicamente, usa conjuntos de datos sin etiquetar. El aprendizaje por refuerzo se ocupa de permitir que un ordenador u ordenadores interactúen con un entorno dinámico, por ejemplo, al jugar a un juego o conducir un vehículo.
Son posibles diversos híbridos de estas categorías, tal como el aprendizaje automático "semisupervisado", donde un conjunto de datos de entrenamiento solo se ha etiquetado parcialmente. Para el aprendizaje automático no supervisado, hay un intervalo de posibles aplicaciones, tal como, por ejemplo, la aplicación de técnicas de visión por ordenador al procesamiento de imágenes o la mejora de videos. El aprendizaje automático no supervisado se aplica típicamente para resolver problemas donde una estructura de datos desconocida puede encontrarse presente en los datos. Como los datos no se encuentran etiquetados, se requiere que el proceso de aprendizaje automático opere para identificar relaciones implícitas entre los datos, por ejemplo, al derivar una métrica de agrupación en base a la información que se deriva internamente. Por ejemplo, puede usarse una técnica de aprendizaje no supervisado para reducir la dimensionalidad de un conjunto de datos e intentar identificar y modelar las relaciones entre los grupos en el conjunto de datos y, por ejemplo, generar medidas de pertenencia a grupos o identificar centros o nodos en o entre grupos (por ejemplo, mediante el uso de una técnica conocida como análisis de red de correlación ponderada, que puede aplicarse a conjuntos de datos de alta dimensión, o mediante el uso de la agrupación de k-medias para agrupar datos por una medida de la distancia euclidiana entre cada dato).
El aprendizaje semisupervisado se aplica típicamente para resolver problemas donde hay un conjunto de datos parcialmente etiquetados, por ejemplo, donde solo se etiqueta un subconjunto de los datos. El aprendizaje automático semisupervisado hace uso de etiquetas y funciones objetivas que se proporcionan externamente, así como también cualquier relación de datos implícita. Cuando se configura inicialmente un sistema de aprendizaje automático, particularmente cuando se usa un enfoque de aprendizaje automático supervisado, el algoritmo de aprendizaje automático puede proporcionarse con algunos datos de entrenamiento o un conjunto de ejemplos de entrenamiento, en los que cada ejemplo es típicamente un par de una señal/vector de entrada y un valor de salida deseado, etiqueta (o clasificación) o señal. El algoritmo de aprendizaje automático analiza los datos de entrenamiento y produce una función generalizada que puede usarse con conjuntos de datos no vistos para producir valores de salida deseados o señales para los vectores/señales de entrada no vistos. El usuario necesita decidir qué tipo de datos se usarán como los datos de entrenamiento y preparar un conjunto de datos representativos del mundo real. Sin embargo, el usuario debe asegurarse de que los datos de entrenamiento contienen suficiente información para predecir con precisión los valores de salida deseados sin proporcionar demasiadas características (lo que puede resultar en que se consideren demasiadas dimensiones por el proceso de aprendizaje automático durante el entrenamiento y también podría significar que el proceso de aprendizaje automático no converge a buenas soluciones para todo o para ejemplos específicos). El usuario también debe determinar la estructura deseada de la función que se aprende o generaliza, por ejemplo, si usar máquinas de vectores de soporte o árboles de decisión.
El uso de enfoques de aprendizaje automático no supervisados o semisupervisados se usan a veces cuando los datos etiquetados no se encuentran disponibles fácilmente, o cuando el sistema genera nuevos datos etiquetados a partir de datos desconocidos dadas algunas etiquetas de semilla iniciales.
El aprendizaje automático puede realizarse a través del uso de uno o más de: un algoritmo jerárquico no lineal; redes neuronales; redes neuronales convolucionales; redes neuronales recurrente; redes de memoria a largo y corto plazo; redes convolucionales multidimensional; una red de memoria; una red totalmente convolucional o una red recurrente cerrada lo que permite un enfoque flexible cuando se genera el bloque de datos visuales predicho. El uso de un algoritmo con una unidad de memoria tal como una red de memoria a largo y corto plazo (LSTM), una red de memoria o una red recurrente cerrada puede mantener el estado de los bloques predichos de los procesos de compensación de movimiento que se realizan en el mismo fotograma de entrada original. El uso de estas redes puede mejorar la eficiencia computacional y también mejorar la consistencia temporal en el proceso de compensación de movimiento a lo largo de un número de fotogramas, ya que el algoritmo mantiene algún tipo de estado o memoria de los cambios en el movimiento. Esto puede resultar adicionalmente en una reducción de las tasas de error.
El desarrollo de un sistema de aprendizaje automático típicamente consta de dos etapas: (1) el entrenamiento y (2) la producción. Durante el entrenamiento, los parámetros del modelo de aprendizaje automático se cambian iterativamente para optimizar un objetivo de aprendizaje particular, conocido como la función objetivo o la pérdida. Una vez que se entrena el modelo, puede usarse en producción, donde el modelo toma una entrada y produce una salida mediante el uso de los parámetros entrenados.
Durante la etapa de entrenamiento de las redes neuronales, se proporcionan entradas verificadas y, por lo tanto, es posible comparar la salida que se calcula de la red neuronal con la red correcta si es necesario. Puede establecerse un término de error o una función de pérdida para cada nodo en la red neuronal, y ajustar los pesos para que las futuras salidas se acerquen más a un resultado esperado. Las técnicas de retropropagación también pueden usarse en el programa de entrenamiento de la o cada red neuronal.
El modelo puede entrenarse mediante el uso de retropropagación y el paso hacia adelante a través de la red. La función de pérdida es un objetivo que puede minimizarse, es una medida entre el valor objetivo y la salida del modelo. Puede usarse la pérdida de entropía cruzada. La pérdida de entropía cruzada se define como
Figure imgf000011_0001
donde C es el número de clases, y e {0,1}es el indicador binario para la clase c, y s es la puntuación de la clase c. En la configuración de aprendizaje multitarea, la pérdida constará de múltiples partes. Un término de pérdida para cada tarea.
L(x) — AjLj + 2^^ 2
Donde L1, L2 son los términos de pérdida para dos tareas diferentes y A1, A2 son términos de ponderación.
Cualquier característica del sistema como se describe en la presente descripción también puede proporcionarse como características del método, y viceversa. Como se usa en la presente descripción, los medios más características de la función pueden expresarse alternativamente en términos de su estructura correspondiente.
Cualquier característica en un aspecto puede aplicarse a otros aspectos, en cualquier combinación apropiada. En particular, los aspectos del método pueden aplicarse a los aspectos del sistema, y viceversa. Además, cualquiera, algunas y/o todas las características de un aspecto pueden aplicarse a cualquiera, algunas y/o todas las características en cualquier otro aspecto, en cualquier combinación adecuada.
También debe apreciarse que las combinaciones particulares de las diversas características descritas y definidas en cualquier aspecto de la invención pueden implementarse y/o suministrarse y/o usarse independientemente, en la medida en que caigan dentro del alcance de las reivindicaciones anexas.

Claims (15)

REIVINDICACIONES
1. Un método de análisis de imágenes médicas asistido por ordenador (510; 10), el método que comprende las etapas de:
recibir una o más imágenes médicas (510; 10);
usar uno o más modelos de aprendizaje automático entrenados (520) para analizar dichas una o más imágenes médicas (510; 10) para determinar una o más características;
generar datos de salida en base a la una o más características determinadas;
recibir los datos de entrada de un primer usuario en relación con características determinadas manualmente (530) de una o más imágenes médicas (510; 10); y
determinar un grado de similitud (540) de la una o más características determinadas y las características determinadas manualmente (530);
en donde si el grado de similitud (540) se encuentra más abajo de un umbral predeterminado, se produce una salida (550) para desencadenar un análisis adicional de la una o más imágenes médicas (510; 10), caracterizado porque el método indica que se realice el análisis adicional mediante un
segundo usuario independiente (560).
2. El método de cualquier reivindicación anterior, en donde el análisis adicional comprende un análisis adicional mediante un sistema de diagnóstico asistido por ordenador.
3. El método de cualquier reivindicación anterior, en donde el análisis adicional comprende cualquiera o cualquier combinación de: un escaneo de tomografía computarizada (CT); un escaneo de ultrasonido; un escaneo de resonancia magnética (MRI); un escaneo de tomosíntesis; y/o una biopsia.
4. El método de cualquier reivindicación anterior, en donde la una o más imágenes médicas (510) comprenden uno o más escaneos mamográficos o de rayos X.
5. El método de cualquier reivindicación anterior, en donde el uno o más modelos de aprendizaje automático entrenados (104; 520; 30) comprenden redes neuronales convolucionales.
6. El método de cualquier reivindicación anterior, en donde la etapa de análisis y determinación comprende segmentar una o más regiones anatómicas.
7. El método de cualquier reivindicación anterior, en donde los datos de salida (550) comprenden además datos superpuestos que indican un esquema de segmentación y/o máscaras de probabilidad que muestran una o más ubicaciones de una o más regiones segmentadas.
8. El método de cualquier reivindicación anterior, en donde la etapa de análisis y determinación comprende identificar el tipo de tejido y/o la categoría de densidad (105b) y/o identificar la distorsión arquitectónica.
9. El método de la reivindicación 3 y 8, en donde el análisis adicional comprende una o más pruebas médicas adicionales (105a) dependientes de la categoría de densidad (105b) que se determina en base a la una o más imágenes médicas (510; 10).
10. El método de cualquier reivindicación anterior, en donde la etapa de análisis y determinación comprende identificar automáticamente una o más regiones anómalas en la imagen médica (510; 10).
11. El método de cualquier reivindicación anterior, en donde la etapa de análisis y determinación comprende identificar y distinguir entre una lesión maligna y/o una lesión benigna y/o una lesión típica.
12. El método de la reivindicación 11, en donde los datos de salida (550) comprenden además datos superpuestos que indican una máscara de probabilidad para una o más lesiones.
13. Un sistema para analizar conjuntos de imágenes médicas (510; 10), el sistema que comprende un ordenador que se configura para llevar a cabo el método de una cualquiera de las reivindicaciones 1 a 12.
14. El sistema de acuerdo con la reivindicación 13, que comprende además:
un dispositivo de imágenes médicas (101);
un sistema de comunicación de archivo de imágenes, PACS (102);
un terminal de usuario operable para la entrada de metadatos de diagnóstico para cada conjunto de imágenes médicas (510; 10);
una unidad de procesamiento operable para analizar uno o más de cada conjunto de imágenes médicas (510; 10) en el PACS (102); y
un visor de salida (202) operable para mostrar un requisito para o desencadenar un análisis adicional del conjunto de imágenes médicas (510; 10) por un segundo usuario independiente.
15. Un producto de programa de ordenador que comprende instrucciones que, cuando el programa se ejecuta por un ordenador, hacen que el ordenador lleve a cabo el método de acuerdo con una cualquiera de las reivindicaciones 1 a 12.
ES19744779T 2018-06-14 2019-06-14 Sugerencia de segunda lectura Active ES2914873T3 (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
GB1809796.4A GB2574659A (en) 2018-06-14 2018-06-14 Immediate workup
GB1819329.2A GB2579244A (en) 2018-11-27 2018-11-27 Second reader
GB201900212 2019-01-07
PCT/GB2019/051668 WO2019239155A1 (en) 2018-06-14 2019-06-14 Second reader suggestion

Publications (1)

Publication Number Publication Date
ES2914873T3 true ES2914873T3 (es) 2022-06-17

Family

ID=67439247

Family Applications (3)

Application Number Title Priority Date Filing Date
ES19744777T Active ES2914387T3 (es) 2018-06-14 2019-06-14 Estudio inmediato
ES19744778T Active ES2914415T3 (es) 2018-06-14 2019-06-14 Segundo lector
ES19744779T Active ES2914873T3 (es) 2018-06-14 2019-06-14 Sugerencia de segunda lectura

Family Applications Before (2)

Application Number Title Priority Date Filing Date
ES19744777T Active ES2914387T3 (es) 2018-06-14 2019-06-14 Estudio inmediato
ES19744778T Active ES2914415T3 (es) 2018-06-14 2019-06-14 Segundo lector

Country Status (10)

Country Link
US (3) US11488306B2 (es)
EP (3) EP3806744B1 (es)
JP (3) JP2021527478A (es)
AU (3) AU2019285393B2 (es)
CA (3) CA3102170A1 (es)
DK (3) DK3806744T3 (es)
ES (3) ES2914387T3 (es)
HU (2) HUE058907T2 (es)
SI (3) SI3806744T1 (es)
WO (3) WO2019239154A1 (es)

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB201705911D0 (en) 2017-04-12 2017-05-24 Kheiron Medical Tech Ltd Abstracts
EP3806744B1 (en) 2018-06-14 2022-02-16 Kheiron Medical Technologies Ltd Immediate workup
JP7234378B2 (ja) * 2018-09-07 2023-03-07 トヨタ モーター ヨーロッパ 回転仮説を決定することによって画像を処理する方法及びシステム
CN110136829A (zh) * 2019-05-16 2019-08-16 腾讯科技(深圳)有限公司 乳腺钼靶图像的辅助诊断方法、装置、***及介质
US20200395123A1 (en) * 2019-06-16 2020-12-17 International Business Machines Corporation Systems and methods for predicting likelihood of malignancy in a target tissue
JP7415787B2 (ja) * 2020-05-15 2024-01-17 コニカミノルタ株式会社 医用画像システム
WO2022112731A1 (en) * 2020-11-26 2022-06-02 Kheiron Medical Technologies Ltd Decision for double reader
EP4033497A1 (en) 2021-01-25 2022-07-27 Aigea Medical S.r.l. Training procedure and system for artificial intelligence intended for the analysis of mammographic data for the identification or exclusion of the presence of breast cancer
US20230118546A1 (en) * 2021-10-19 2023-04-20 PaxeraHealth Corp High-definition labeling system for medical imaging AI algorithms
US20230352172A1 (en) * 2022-04-27 2023-11-02 MX Healthcare GmbH System and method for identifying breast cancer
WO2024123311A1 (en) * 2022-12-06 2024-06-13 Google Llc Mammography device outputs for broad system compatibility

Family Cites Families (73)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06251038A (ja) * 1993-03-01 1994-09-09 Toshiba Corp 医用診断支援システム
US6075879A (en) 1993-09-29 2000-06-13 R2 Technology, Inc. Method and system for computer-aided lesion detection using information from multiple images
EP0719435A1 (en) 1994-07-14 1996-07-03 Koninklijke Philips Electronics N.V. Mass detection in digital x-ray images using multiple threshold levels to discriminate spots
CA2232164A1 (en) 1995-09-19 1997-03-27 Morphometrix Technologies Inc. A neural network assisted multi-spectral segmentation system
US6058322A (en) * 1997-07-25 2000-05-02 Arch Development Corporation Methods for improving the accuracy in differential diagnosis on radiologic examinations
US5999639A (en) * 1997-09-04 1999-12-07 Qualia Computing, Inc. Method and system for automated detection of clustered microcalcifications from digital mammograms
US6901156B2 (en) * 2000-02-04 2005-05-31 Arch Development Corporation Method, system and computer readable medium for an intelligent search workstation for computer assisted interpretation of medical images
US6574304B1 (en) 2002-09-13 2003-06-03 Ge Medical Systems Global Technology Company, Llc Computer aided acquisition of medical images
EP1554682A1 (en) 2002-09-24 2005-07-20 Eastman Kodak Company Method and system for computer aided detection (cad) cued reading of medical images
US7418119B2 (en) * 2002-10-31 2008-08-26 Siemens Computer Aided Diagnosis Ltd. Display for computer-aided evaluation of medical images and for establishing clinical recommendation therefrom
US7203350B2 (en) * 2002-10-31 2007-04-10 Siemens Computer Aided Diagnosis Ltd. Display for computer-aided diagnosis of mammograms
US7490085B2 (en) 2002-12-18 2009-02-10 Ge Medical Systems Global Technology Company, Llc Computer-assisted data processing system and method incorporating automated learning
US20040228509A1 (en) 2003-05-15 2004-11-18 Beth Israel Deaconess Medical Center, Inc. Automatic spacial identification of tissue implanted linear sources using medical imaging
US7640051B2 (en) 2003-06-25 2009-12-29 Siemens Medical Solutions Usa, Inc. Systems and methods for automated diagnosis and decision support for breast imaging
US7529394B2 (en) 2003-06-27 2009-05-05 Siemens Medical Solutions Usa, Inc. CAD (computer-aided decision) support for medical imaging using machine learning to adapt CAD process with knowledge collected during routine use of CAD system
US20050113651A1 (en) 2003-11-26 2005-05-26 Confirma, Inc. Apparatus and method for surgical planning and treatment monitoring
DE102004051401A1 (de) 2004-10-21 2006-05-24 Siemens Ag Verfahren zur Befundung in der dreidimensionalen Bildgebung, insbesondere in der Mammographie
US7646902B2 (en) 2005-02-08 2010-01-12 Regents Of The University Of Michigan Computerized detection of breast cancer on digital tomosynthesis mammograms
JP2006325638A (ja) * 2005-05-23 2006-12-07 Konica Minolta Medical & Graphic Inc 異常陰影候補の検出方法及び医用画像処理システム
CN101203170B (zh) 2005-06-02 2015-11-25 赛利恩影像股份有限公司 计算机辅助检测***
US7809175B2 (en) 2005-07-01 2010-10-05 Hologic, Inc. Displaying and navigating computer-aided detection results on a review workstation
FR2897182A1 (fr) 2006-02-09 2007-08-10 Gen Electric Procede de traitement d'images de projection en tomosynthese pour une detection de signes radiologiques
GB0602739D0 (en) * 2006-02-10 2006-03-22 Ccbr As Breast tissue density measure
ITRM20060213A1 (it) 2006-04-13 2007-10-14 Univ Palermo Metodo di elaborazione di immagini biomediche
US8238637B2 (en) 2006-10-25 2012-08-07 Siemens Computer Aided Diagnosis Ltd. Computer-aided diagnosis of malignancies of suspect regions and false positives in images
US7903861B2 (en) 2006-12-28 2011-03-08 Carestream Health, Inc. Method for classifying breast tissue density using computed image features
US8203338B2 (en) * 2007-08-06 2012-06-19 Carestream Health, Inc. Linear structure verification in medical applications
JP2009082182A (ja) * 2007-09-27 2009-04-23 Fujifilm Corp 検査作業支援装置及び方法、並びに検査作業支援システム
JP5264136B2 (ja) 2007-09-27 2013-08-14 キヤノン株式会社 医用診断支援装置及びその制御方法、ならびにコンピュータプログラム及び記憶媒体
JP5100285B2 (ja) 2007-09-28 2012-12-19 キヤノン株式会社 医用診断支援装置およびその制御方法、プログラム、記憶媒体
US7942829B2 (en) * 2007-11-06 2011-05-17 Eigen, Inc. Biopsy planning and display apparatus
US20100135562A1 (en) * 2008-11-28 2010-06-03 Siemens Computer Aided Diagnosis Ltd. Computer-aided detection with enhanced workflow
US20100158332A1 (en) * 2008-12-22 2010-06-24 Dan Rico Method and system of automated detection of lesions in medical images
US8687860B2 (en) * 2009-11-24 2014-04-01 Penrad Technologies, Inc. Mammography statistical diagnostic profiler and prediction system
US8064677B2 (en) 2009-11-25 2011-11-22 Fujifilm Corporation Systems and methods for measurement of objects of interest in medical images
US8582858B2 (en) 2009-12-17 2013-11-12 The Regents Of The University Of California Method and apparatus for quantitative analysis of breast density morphology based on MRI
US20120099771A1 (en) * 2010-10-20 2012-04-26 Lao Zhiqiang Computer aided detection of architectural distortion in mammography
JP5875285B2 (ja) * 2011-08-16 2016-03-02 キヤノン株式会社 医療診断支援装置、情報処理方法及びプログラム
EP2747640A4 (en) * 2011-08-22 2015-04-29 Joel Ironstone METHOD AND SYSTEM FOR DISEASE RISK MANAGEMENT
JP5945803B2 (ja) 2012-03-07 2016-07-05 東芝メディカルシステムズ株式会社 医用画像読影システム
US8891841B2 (en) 2012-06-04 2014-11-18 Verizon Patent And Licensing Inc. Mobile dermatology collection and analysis system
TWI483711B (zh) 2012-07-10 2015-05-11 Univ Nat Taiwan Tumor detection system and method of breast ultrasound image
US9047664B2 (en) 2013-05-31 2015-06-02 Kathryn Pearson Peyton Apparatus and method for utilizing mammogram images for verification
US9741116B2 (en) 2013-08-29 2017-08-22 Mayo Foundation For Medical Education And Research System and method for boundary classification and automatic polyp detection
EP3072082A4 (en) 2013-11-19 2017-09-13 Vucomp, Inc. Obtaining breast density measurements and classifications
DE102014208411A1 (de) * 2014-05-06 2015-11-12 Siemens Aktiengesellschaft Auswertung eines während einer Mammographie erzeugten Röntgenbildes einer Brust
WO2016057960A1 (en) 2014-10-10 2016-04-14 Radish Medical Solutions, Inc. Apparatus, system and method for cloud based diagnostics and image archiving and retrieval
US9550912B2 (en) 2014-12-19 2017-01-24 Hexion Inc Curing agent for epoxy coatings
US9519966B2 (en) 2015-04-22 2016-12-13 King Fahd University Of Petroleum And Minerals Method, system and computer program product for breast density classification using parts-based local features
US9922433B2 (en) 2015-05-29 2018-03-20 Moira F. Schieke Method and system for identifying biomarkers using a probability map
US10311566B2 (en) 2015-06-12 2019-06-04 International Business Machines Corporation Methods and systems for automatically determining image characteristics serving as a basis for a diagnosis associated with an image study type
US11200664B2 (en) * 2015-12-18 2021-12-14 The Regents Of The University Of California Interpretation and quantification of emergency features on head computed tomography
US10339650B2 (en) 2016-01-07 2019-07-02 Koios Medical, Inc. Method and means of CAD system personalization to reduce intraoperator and interoperator variation
CN106096491B (zh) 2016-02-04 2022-04-12 上海市第一人民医院 一种眼底彩色照相图像中微动脉瘤自动化识别方法
CN105931226A (zh) 2016-04-14 2016-09-07 南京信息工程大学 基于深度学习的自适应椭圆拟合细胞自动检测分割方法
CN106204587B (zh) 2016-05-27 2019-01-08 浙江德尚韵兴图像科技有限公司 基于深度卷积神经网络和区域竞争模型的多器官分割方法
WO2017210690A1 (en) 2016-06-03 2017-12-07 Lu Le Spatial aggregation of holistically-nested convolutional neural networks for automated organ localization and segmentation in 3d medical scans
US9589374B1 (en) 2016-08-01 2017-03-07 12 Sigma Technologies Computer-aided diagnosis system for medical images using deep convolutional neural networks
CN109791804B (zh) * 2016-08-11 2024-03-01 科伊奥斯医药股份有限公司 对cad***个性化以提供cad***推荐的置信水平指示的方法和部件
US10417788B2 (en) * 2016-09-21 2019-09-17 Realize, Inc. Anomaly detection in volumetric medical images using sequential convolutional and recurrent neural networks
JP2018061771A (ja) * 2016-10-14 2018-04-19 株式会社日立製作所 画像処理装置、及び画像処理方法
US20180129900A1 (en) 2016-11-04 2018-05-10 Siemens Healthcare Gmbh Anonymous and Secure Classification Using a Deep Learning Network
US11449985B2 (en) 2016-12-02 2022-09-20 Regents Of The University Of Minnesota Computer vision for cancerous tissue recognition
JP2020510463A (ja) 2017-01-27 2020-04-09 アーテリーズ インコーポレイテッド 全層畳み込みネットワークを利用する自動化されたセグメンテーション
GB201705876D0 (en) 2017-04-11 2017-05-24 Kheiron Medical Tech Ltd Recist
GB201705911D0 (en) 2017-04-12 2017-05-24 Kheiron Medical Tech Ltd Abstracts
US10223610B1 (en) * 2017-10-15 2019-03-05 International Business Machines Corporation System and method for detection and classification of findings in images
US10916341B2 (en) 2017-12-15 2021-02-09 International Business Machines Corporation Automated report generation based on cognitive classification of medical images
EP3784139A4 (en) 2018-04-27 2021-12-29 Delphinus Medical Technologies, Inc. System and method for feature extraction and classification on ultrasound tomography images
WO2019215606A1 (en) * 2018-05-07 2019-11-14 Zebra Medical Vision Ltd. Systems and methods for pre-processing anatomical images for feeding into a classification neural network
US10706545B2 (en) 2018-05-07 2020-07-07 Zebra Medical Vision Ltd. Systems and methods for analysis of anatomical images
GB2579244A (en) 2018-11-27 2020-06-17 Kheiron Medical Tech Ltd Second reader
EP3806744B1 (en) 2018-06-14 2022-02-16 Kheiron Medical Technologies Ltd Immediate workup

Also Published As

Publication number Publication date
WO2019239155A1 (en) 2019-12-19
EP3806745B1 (en) 2022-02-16
DK3806746T3 (da) 2022-05-23
US11455723B2 (en) 2022-09-27
EP3806744A1 (en) 2021-04-21
JP2021527478A (ja) 2021-10-14
JP2021527472A (ja) 2021-10-14
SI3806746T1 (sl) 2022-07-29
WO2019239153A1 (en) 2019-12-19
AU2019285392A1 (en) 2021-01-07
ES2914415T3 (es) 2022-06-10
HUE058907T2 (hu) 2022-09-28
SI3806744T1 (sl) 2022-07-29
ES2914387T3 (es) 2022-06-10
EP3806744B1 (en) 2022-02-16
US11488306B2 (en) 2022-11-01
CA3102174C (en) 2022-07-19
US20210312618A1 (en) 2021-10-07
DK3806744T3 (da) 2022-05-23
US20210248744A1 (en) 2021-08-12
AU2019285394A1 (en) 2021-01-07
JP2021527473A (ja) 2021-10-14
AU2019285393A1 (en) 2021-01-07
CA3102173A1 (en) 2019-12-19
DK3806745T3 (da) 2022-05-23
AU2019285393B2 (en) 2022-12-08
CA3102174A1 (en) 2019-12-19
EP3806746B1 (en) 2022-03-02
EP3806746A1 (en) 2021-04-21
WO2019239154A1 (en) 2019-12-19
US11410307B2 (en) 2022-08-09
AU2019285393A9 (en) 2023-02-02
SI3806745T1 (sl) 2022-07-29
HUE058687T2 (hu) 2022-09-28
CA3102170A1 (en) 2019-12-19
US20210313043A1 (en) 2021-10-07
EP3806745A1 (en) 2021-04-21

Similar Documents

Publication Publication Date Title
ES2914873T3 (es) Sugerencia de segunda lectura
US11127137B2 (en) Malignancy assessment for tumors
CN109583440B (zh) 结合影像识别与报告编辑的医学影像辅助诊断方法及***
US10593035B2 (en) Image-based automated measurement model to predict pelvic organ prolapse
US7058210B2 (en) Method and system for lung disease detection
US7529394B2 (en) CAD (computer-aided decision) support for medical imaging using machine learning to adapt CAD process with knowledge collected during routine use of CAD system
CN108428233B (zh) 基于知识的自动图像分割
Yoon et al. Medical image analysis using artificial intelligence
US11854190B2 (en) Similarity determination apparatus, similarity determination method, and similarity determination program
EP4002387A1 (en) Cad device and method for analysing medical images
Lin et al. Using deep learning in ultrasound imaging of bicipital peritendinous effusion to grade inflammation severity
Giv et al. Lung segmentation using active shape model to detect the disease from chest radiography
WO2022112731A1 (en) Decision for double reader
KR102360615B1 (ko) 내시경 영상에 대한 복수의 의료 영상 판독 알고리듬들을 이용하는 의료 영상 판독 지원 장치 및 방법
CN113450306A (zh) 提供骨折检测工具的方法
Ramos Analysis of medical images to support decision-making in the musculoskeletal field
GB2574659A (en) Immediate workup
Mori et al. Applied Technologies and Systems
CN115249234A (zh) 一种基于深度学习的骨转移瘤辅助定位方法
Qureshi Computer aided assessment of CT scans of traumatic brain injury patients