ES2716837T3 - Detección automática de implantes a partir de artefactos de imagen - Google Patents

Detección automática de implantes a partir de artefactos de imagen Download PDF

Info

Publication number
ES2716837T3
ES2716837T3 ES13704285T ES13704285T ES2716837T3 ES 2716837 T3 ES2716837 T3 ES 2716837T3 ES 13704285 T ES13704285 T ES 13704285T ES 13704285 T ES13704285 T ES 13704285T ES 2716837 T3 ES2716837 T3 ES 2716837T3
Authority
ES
Spain
Prior art keywords
implant
image
candidate
patient
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
ES13704285T
Other languages
English (en)
Inventor
Patrick A Helm
Shuanghe Shi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Medtronic Navigation Inc
Original Assignee
Medtronic Navigation Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Medtronic Navigation Inc filed Critical Medtronic Navigation Inc
Application granted granted Critical
Publication of ES2716837T3 publication Critical patent/ES2716837T3/es
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/50ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for simulation or modelling of medical disorders
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/02Arrangements for diagnosis sequentially in different planes; Stereoscopic radiation diagnosis
    • A61B6/03Computed tomography [CT]
    • A61B6/032Transmission computed tomography [CT]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/12Arrangements for detecting or locating foreign bodies
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/52Devices using data or image processing specially adapted for radiation diagnosis
    • A61B6/5258Devices using data or image processing specially adapted for radiation diagnosis involving detection or reduction of artifacts or noise
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/003Reconstruction from projections, e.g. tomography
    • G06T11/008Specific post-processing after tomographic reconstruction, e.g. voxelisation, metal artifact correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • G06T7/0014Biomedical image inspection using an image reference approach
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/44Constructional features of apparatus for radiation diagnosis
    • A61B6/4405Constructional features of apparatus for radiation diagnosis the apparatus being movable or portable, e.g. handheld or mounted on a trolley
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10072Tomographic images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10116X-ray image
    • G06T2207/10124Digitally reconstructed radiograph [DRR]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20092Interactive image processing based on input by user
    • G06T2207/20104Interactive definition of region of interest [ROI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30052Implant; Prosthesis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Theoretical Computer Science (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Radiology & Medical Imaging (AREA)
  • Biomedical Technology (AREA)
  • Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Optics & Photonics (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Quality & Reliability (AREA)
  • Pulmonology (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Architecture (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Software Systems (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Description

DESCRIPCIÓN
Detección automática de implantes a partir de artefactos de imagen
Campo
La presente divulgación se refiere a la detección y corrección de artefactos causados por imágenes de rayos X relacionadas con implantes.
Antecedentes
Esta sección proporciona información de antecedentes relacionada con la presente divulgación que no es necesariamente técnica anterior.
Un sujeto, tal como un paciente humano, puede seleccionar o ser requerido a someterse a un procedimiento quirúrgico para corregir o aumentar una anatomía del paciente. El aumento de la anatomía puede incluir varios procedimientos, como el movimiento o el aumento del hueso, la inserción de dispositivos implantables u otros procedimientos apropiados. Un cirujano puede realizar el procedimiento en el sujeto con imágenes del paciente que pueden adquirirse utilizando sistemas de imágenes como el sistema de imágenes por resonancia magnética (IRM), sistema de tomografía computarizada (CT), fluoroscopia (por ejemplo, sistemas de imágenes C-Arm) u otros sistemas de imágenes apropiados.
Las imágenes de un paciente pueden ayudar al cirujano a realizar un procedimiento, incluida la planificación del procedimiento y la realización de este. Un cirujano puede seleccionar una imagen bidimensional o una representación tridimensional de la imagen del paciente. Las imágenes pueden ayudar al cirujano a realizar un procedimiento con una técnica menos invasiva al permitirle al cirujano ver la anatomía del paciente sin extraer el tejido suprayacente (incluido el tejido dérmico y muscular) al realizar un procedimiento.
STAYMAN JW ET AL, "Reconstrucción por TAC basada en probabilidad de objetos que contienen componentes conocidos", 11a REUNIÓN INTERNACIONAL EN RECONSTRUCCIÓN DE IMAGEN TOTALMENTE EN 3D EN RADIOLOGÍA Y MEDICINA NUCLEAR, Potsdam, Alemania, XP002696373 describe un marco para estimar simultáneamente la posición y la orientación de un componente conocido y el volumen circundante.
En US8023767, una técnica de corrección de artefactos metálicos en 3D corrige los artefactos de rayas generados por implantes de titanio u otros objetos similares. Se utiliza un sistema de tomografía computarizada de haz cónico para proporcionar imágenes en 3D. La información a priori (como la información de forma y el valor de CT) de los sub-objetos de alta densidad se adquiere y se utiliza para la corrección de artefactos posteriores. Se aplica un proceso de optimización con iteraciones para minimizar el error y obtener imágenes de reconstrucción precisas del objeto.
Resumen
Esta sección proporciona un resumen general de la divulgación y no es una divulgación completa de su alcance completo o de todas sus características.
Las presentes enseñanzas proporcionan un método implementado por computadora para la detección de implantes que incluye recibir una imagen tridimensional (3D) de una porción de la anatomía de un paciente a partir de proyecciones de tomografía computarizada (CT) del paciente en un sistema informático de procesamiento de imágenes. Un grupo de voxels que forman un candidato a implante se identifica en un corte de CT de la imagen en 3D y el candidato a implante identificado se compara con artefactos de implantes de una base de datos de implantes almacenada en una memoria del sistema informático. Se selecciona un implante de mejor ajuste de la base de datos de implantes, el método comprende además la selección de la orientación y la ubicación del implante de mejor ajuste en relación con la porción de anatomía en el corte de CT, y una imagen gráfica del implante de mejor ajuste se superpone en el candidato a implante del corte de CT en una pantalla del sistema informático.
En otra realización, el método incluye construir una imagen tridimensional (3D) de una porción de la anatomía de un paciente a partir de proyecciones de tomografía (CT) computarizada del paciente en un sistema informático de procesamiento de imágenes, mostrar la imagen 3D en una pantalla del sistema de computación e identificar un grupo de voxels que forman un candidato a implante en un corte de CT de la imagen 3D. El método incluye solicitar la entrada del usuario si un candidato a implante no se identifica automáticamente, seleccionando uno de un candidato a implante identificado automáticamente y un candidato a implante identificado por el usuario y comparando el candidato a implante con artefactos de implantes de una base de datos de implantes almacenada en una memoria del sistema informático. Se selecciona el implante de mejor ajuste de la base de datos de implantes, el método comprende además la selección de la orientación y la ubicación del implante de mejor ajuste en relación con la porción de anatomía en el corte de CT, y una imagen gráfica del implante de mejor ajuste se superpone en el candidato a implante del corte de CT en una pantalla del sistema informático. La imagen gráfica del implante de mejor ajuste es editada por la entrada del usuario.
Las presentes enseñanzas también proporcionan un sistema de procesamiento de imágenes para detectar un implante. El sistema incluye un procesador de computadora que incluye almacenamiento de memoria y un módulo de software de procesamiento de imágenes, una base de datos de implantes accesible por el procesador, una pantalla y un dispositivo de entrada. El procesador está configurado para ejecutar el método de la reivindicación 1. Las presentes enseñanzas proporcionan además la selección del implante de mejor ajuste utilizando un método de optimización por mínimos cuadrados, ponderado, iterativo u otro. También se puede aplicar el análisis de confiabilidad. El implante superpuesto se colorea con una transparencia y contraste seleccionados con la entrada opcional del usuario a través de un dispositivo de entrada del sistema de computación.
Otras áreas de aplicabilidad se harán evidentes a partir de la descripción proporcionada en este documento. La descripción y los ejemplos específicos en este resumen están destinados solo para fines de ilustración y no pretenden limitar el alcance de la presente divulgación.
Dibujos
Los dibujos descritos aquí son solo para fines ilustrativos de realizaciones seleccionadas y no todas las implementaciones posibles, y no pretenden limitar el alcance de la presente divulgación.
La figura 1 es una vista del entorno de un sistema de imagen ejemplar;
La figura 2 es un sistema informático ejemplar en uso con el sistema de formación de imágenes de la figura 1; La figura 3 es una vista del entorno de tornillos pediculares ejemplares;
La figura 4 es una vista del entorno de un implante de fijación espinal ejemplar que incluye tornillos pediculares; La figura 5A es un primer corte de imagen de escaneo que ilustra un artefacto causado por un implante;
La figura 5B es un segundo escaneo de imagen de exploración que ilustra un artefacto causado por el implante de la figura 5A;
La figura 5C es un segundo escaneo de imagen de exploración que ilustra un artefacto causado por el implante de la figura 5A;
La figura 5D es un segundo escaneo de imagen de exploración que ilustra un artefacto causado por el implante de la figura 5A;
La figura 5E es un segundo corte de imagen de exploración que ilustra un artefacto causado por el implante de la figura 5A;
La figura 5F es un segundo escaneo de imagen de exploración que ilustra un artefacto causado por el implante de la figura 5A;
La figura 6 es un escaneo de imagen de exploración que ilustra una corrección de un artefacto causado por un implante de acuerdo con las presentes enseñanzas;
La figura 7 es un diagrama de flujo de un método ejemplar según las presentes enseñanzas; y
La figura 8 es un diagrama de flujo de un método interactivo ejemplar de acuerdo con las presentes enseñanzas. Los números de referencia correspondientes indican partes correspondientes en las distintas vistas de los dibujos. Descripción detallada
La siguiente descripción es meramente de naturaleza ejemplar. Debe entenderse que, a lo largo de los dibujos, los números de referencia correspondientes indican partes y características similares o correspondientes. Como se indicó anteriormente, las presentes enseñanzas se dirigen hacia un sistema de imágenes, como un sistema de imágenes O-Arm® disponible comercialmente en Medtronic Navigation, Inc., Louisville, CO, Estados Unidos. Debe observarse, sin embargo, que las presentes enseñanzas podrían ser aplicables a cualquier dispositivo de imágenes apropiado, tal como un dispositivo de imágenes de brazo en C. Además, como se usa en este documento, el término "módulo" puede referirse a un medio legible por computadora al que se puede acceder mediante un dispositivo informático, un circuito integrado de aplicación específica (ASIC), un circuito electrónico, un procesador (compartido, dedicado o grupal) y una memoria que ejecuta uno o más programas de software o firmware, un circuito lógico de combinación y/u otro software, programas de firmware o componentes adecuados que brindan la funcionalidad descrita.
Las presentes enseñanzas se dirigen a un método para corregir artefactos causados por hardware, como tornillos u otros implantes, en partes de la anatomía de un sujeto que se está realizando una imagen mediante métodos de escaneo que utilizan fuentes de rayos X. Dichos implantes tienden a ocultar la anatomía subyacente de las imágenes tridimensionales (3D) reconstruidas y dificultan la evaluación crítica de una afección (como un defecto u otra patología) o la terapia administrada, incluida la evaluación de la colocación de los implantes.
Los artefactos de los implantes plantean un problema, por ejemplo, en la tomografía computarizada (CT) de rayos X, incluida la de haz cónico CT (CBCT) y en otros métodos de imágenes que utilizan una fuente de rayos X. Los artefactos de los implantes surgen debido a que el coeficiente de atenuación de los materiales utilizados para los implantes, como, por ejemplo, metales, aleaciones metálicas, cerámicas, etc., es más alto que el coeficiente de atenuación de los huesos y tejidos blandos en el rango de las intensidades de rayos X que se utilizan en estas imágenes de CT. Los detectores de panel plano que se usan para capturar las imágenes también pueden causar dispersión que conduce a artefactos en las ubicaciones de los implantes. Varios métodos de reducción de artefactos metálicos se basan en algoritmos computacionalmente complejos para eliminar los artefactos, utilizar métodos de interpolación para llenar los huecos y la reproyección de las imágenes durante la reconstrucción de imágenes en 3D. Tales métodos son a menudo difíciles de implementar en el entorno de imagen de diagnóstico/operativo.
Las presentes enseñanzas proporcionan un método para identificar un implante asociado con un artefacto en uno o más cortes de CT (secciones planares axiales de la imagen 3D) después de la reconstrucción de la imagen 3D desde una base de datos de comparación utilizando un método de mejor ajuste y/o confiabilidad. Después de seleccionar el implante de mejor ajuste de la base de datos, se superpone una imagen del implante seleccionado en el artefacto correspondiente. Esta corrección se realiza después del procesamiento de las imágenes de CT para la reconstrucción 3D. La corrección se realiza en los cortes de CT reconstruidos como una operación de post­ procesamiento. En otras palabras, el procesamiento de las imágenes se separa del procedimiento de exploración de diagnóstico intraoperatorio o en tiempo real, aunque se puede hacer en la misma computadora/procesador utilizado en el sistema 10 de imágenes inmediatamente después de la exploración o en una computadora/procesador diferente en un momento posterior.
Brevemente, la figura 1 ilustra varios componentes de un sistema 10 de imágenes de CBCT ejemplar que incluye una fuente 36 de rayos X y un detector 33 de panel plano. La figura 2 ilustra un sistema informático para el procesamiento de imágenes que puede ser parte del sistema 10 de imágenes, o un sistema separado que puede comunicarse con una computadora o módulos de procesamiento del sistema de imágenes. Las figuras 3 y 4 ilustran ejemplos de implantes metálicos asociados con la columna vertebral. Aunque el método se describirá utilizando implantes de columna vertebral, como los tornillos pediculares, las enseñanzas actuales son aplicables y abarcan a cualquier implante capaz de crear artefactos de rayos X, Incluyendo, por ejemplo, implantes para cadera, rodilla, hombro, tobillo, rodilla y otras articulaciones. La presente enseñanza también puede abarcar otros dispositivos terapéuticos implantables, como dispositivos de estimulación cardíaca, desfibrilación y resincronización, u otros dispositivos implantables que administran terapia, incluida la terapia por señales eléctricas o pulsos. Las figuras 5A a 5F ilustran cortes de CT de ejemplo que muestran artefactos asociados con tornillos pediculares. La figura 6 ilustra un corte de CT con una imagen del implante identificado superpuesta en la imagen del artefacto. La figura 7 es un diagrama de flujo ejemplar de un método de acuerdo con las presentes enseñanzas.
Con referencia a la figura 1, un usuario 12, como un profesional médico, clínico u otro asistente, puede realizar un procedimiento en un sujeto, como un paciente 14 humano. Al realizar el procedimiento, el usuario 12 puede usar un sistema 10 de imágenes para adquirir datos de imagen del paciente 14 para realizar un procedimiento. Los datos de imagen adquiridos del paciente 14 pueden incluir proyecciones bidimensionales (2D) adquiridas con un sistema de imágenes de rayos X, incluidos los descritos en este documento. Se entenderá, sin embargo, que también se pueden generar proyecciones 2D avanzadas de un modelo volumétrico, también como se describe en este documento.
En un ejemplo, se puede generar un modelo utilizando los datos de imagen adquiridos. El modelo puede ser un modelo volumétrico tridimensional (3D) generado en base a los datos de imagen adquiridos utilizando diversas técnicas, incluidas las técnicas de algebraica iterativa y generar datos de imagen visualizables en una pantalla, referenciados como datos 18 de imagen mostrados. Los datos 18 de imagen mostrados pueden mostrarse en un dispositivo 20 de visualización, y adicionalmente, pueden mostrarse en un dispositivo 32a de visualización asociado con un sistema 32 informático de imágenes. Los datos 18 de imagen mostrados pueden ser una imagen 2D, una imagen 3D, o un cambio de tiempo de imagen en cuatro dimensiones. Los datos 18 de imagen mostrados también pueden incluir los datos de imagen adquiridos, los datos de imagen generados, ambos, o una combinación de ambos tipos de datos de imagen.
Se entenderá que los datos de imagen adquiridos del paciente 14 pueden adquirirse como proyecciones 2D, por ejemplo, con un sistema de imágenes de rayos X. Las proyecciones 2D se pueden utilizar para reconstruir los datos de imagen volumétrica 3D del paciente 14. Además, se pueden generar proyecciones 2D teóricas o avanzadas a partir de los datos de imagen volumétrica 3D. Por consiguiente, se entenderá que los datos de imagen pueden ser una o ambas proyecciones 2D o modelos volumétricos 3D.
El dispositivo 20 de visualización puede ser parte de un sistema 22 informático, que puede ser el mismo que el sistema 100 informático de procesamiento de imágenes mostrado en la figura 2. El sistema 22 informático puede incluir una variedad de medios legibles por ordenador. Los medios legibles por computadora pueden ser cualquier medio disponible al que pueda acceder el sistema 22 informático y puede incluir tanto medios volátiles como no volátiles, y medios extraíbles y no extraíbles. Los medios legibles por computadora pueden incluir, por ejemplo, medios de almacenamiento informático y medios de comunicación. Los medios de almacenamiento incluyen, pero no están limitados a, RAM, ROM, EEPROM, memoria flash u otra tecnología de memoria, CD-ROM, Disco Versátil Digital (DVD) u otro almacenamiento en disco óptico, casetes magnéticos, cinta magnética, almacenamiento en disco magnético u otros dispositivos de almacenamiento magnético, o cualquier otro medio que pueda usarse para almacenar instrucciones, software, estructuras de datos, módulos de programas y otros datos, a los que se puede acceder desde el sistema 22 informático. Se puede acceder a los medios legibles por computadora directamente o a través de una red como Internet.
En un ejemplo, el sistema 22 informático puede incluir un dispositivo 24 de entrada, como un teclado, y uno o más procesadores 26 (el uno o más procesadores pueden incluir procesadores centrales de procesamiento múltiple, microprocesadores, etc.) que pueden incorporarse con el sistema 22 informático. El dispositivo 24 de entrada puede incluir cualquier dispositivo adecuado para permitir a un usuario interactuar con el sistema 22 informático, como un panel táctil, lápiz táctil, pantalla táctil, teclado, ratón, palanca de mando, rueda de desplazamiento, ratón inalámbrico, control audible o una combinación de ellos. Además, mientras que el sistema 22 informático se describe e ilustra en este documento como que comprende el dispositivo 24 de entrada separado del dispositivo 20 de visualización, el sistema 22 informático podría comprender un touchpad o dispositivo informático de tableta, y además, el sistema 22 informático podría integrarse dentro o ser parte del sistema 32 informático de imágenes asociado con el sistema 10 de imágenes o el sistema 100 informático de procesamiento de imágenes mostrado en la figura 2. Se puede proporcionar una conexión 28 cableada o inalámbrica entre el sistema 22 informático y el dispositivo 20 de visualización para que la comunicación de datos permita que el dispositivo 20 de visualización ilustre los datos de imagen 18.
El sistema 10 de imágenes, incluido el sistema de imágenes O-Arm®, u otros sistemas de imágenes apropiados en uso durante un procedimiento seleccionado también se describen en la Solicitud de Patente de Estados Unidos No.
12/465,206, titulada " Sistema y método para el registro automático entre una imagen y un sujeto", presentado el 13 de mayo de 2009, Publicación de los Estados Unidos. No. 2010-0290690. Se puede encontrar una descripción adicional sobre el sistema de imágenes O-Arm u otros sistemas de imágenes apropiados en las patentes de Estados Unidos Números 7,188,998, 7,108,421, 7,106,825, 7,001,045 y 6,940,941.
Con referencia a la figura 1, el sistema 10 de imágenes puede incluir un carro 30 móvil que incluye el sistema 32 de computación de imágenes y un pórtico 34 de imágenes con una fuente 36, un colimador 37, un detector 33 de panel plano (u otro tipo de detector) y un rotor 35. Con referencia a la figura 1, el carro 30 móvil se puede mover de un quirófano o sala a otro y el pórtico 34 se puede mover con relación al carro 30 móvil, como se explica más adelante en este documento. Esto permite que el sistema 10 de imágenes sea móvil, de modo que pueda ser utilizado en múltiples ubicaciones y con múltiples procedimientos sin requerir un gasto de capital o espacio dedicado a un sistema de imágenes fijo.
Con referencia continua a la figura 1, el pórtico 34 puede definir un isocentro del sistema 10 de imágenes. A este respecto, una línea central C1 a través del pórtico 34 puede definir un isocentro o centro del sistema 10 de imágenes. En general, el paciente 14 puede colocarse a lo largo de la línea central C1 del pórtico 34, de modo que un eje longitudinal del paciente 14 puede alinearse con el isocentro del sistema 10 de imágenes.
Con referencia a la figura 2, se proporciona un diagrama que ilustra una realización ejemplar de un sistema 100 informático de procesamiento de imágenes que puede incluir el sistema 32 informático de imágenes o el sistema 22 informático, o puede ser un sistema informático separado. El sistema 100 informático de formación de imágenes puede incluir una variedad de medios legibles por ordenador. Los medios legibles por computadora pueden ser cualquier medio disponible al que pueda acceder el sistema 100 informático de imágenes e incluye medios volátiles y no volátiles, y medios extraíbles y no extraíbles. A modo de ejemplo, y no de limitación, los medios legibles por computadora pueden comprender medios de almacenamiento informáticos y medios de comunicación. Los medios de almacenamiento incluyen, pero no están limitados a, RAM, ROM, EEPROM, memoria flash u otra tecnología de memoria, CD-ROM, Disco Versátil Digital (DVD) u otro almacenamiento en disco óptico, casetes magnéticos, cinta magnética, almacenamiento en disco magnético u otros dispositivos de almacenamiento magnético, o cualquier otro medio que se pueda usar para almacenar instrucciones, software, estructuras de datos, módulos de programa y otros datos a los que se puede acceder mediante el sistema 32 de procesamiento de imágenes. Se puede acceder a los medios legibles por computadora directamente o a través de una red como Internet.
En un ejemplo, el sistema 100 informático de procesamiento de imágenes comprende un dispositivo 102 de visualización y una unidad 104 de sistema. Como se ilustra, el dispositivo 104 de visualización puede comprender una pantalla de video de computadora o monitor. El sistema 100 informático de procesamiento de imágenes también puede incluir al menos un dispositivo 106 de entrada. La unidad 104 del sistema puede incluir, como se muestra en una vista despiezada, un procesador 108 y una memoria 110, que pueden incluir software con un módulo de procesamiento de imágenes (software) 112, una base 114 de datos de implantes y otros datos 116, como se muestra en la figura 2.
En este ejemplo, el al menos un dispositivo 106 de entrada comprende un teclado. Sin embargo, debe entenderse que el al menos un dispositivo 106 de entrada puede comprender cualquier dispositivo adecuado para permitir a un usuario interactuar con el sistema 100 informático de procesamiento de imágenes, como un panel táctil, un lápiz táctil, una pantalla táctil, un teclado, ratón, palanca de mando, rueda de desplazamiento, ratón inalámbrico, control audible o una combinación de ellos. Además, si bien el sistema 100 informático de procesamiento de imágenes se describe e ilustra aquí como que comprende la unidad 104 del sistema con el dispositivo 102 de visualización, el sistema 100 informático de procesamiento de imágenes podría comprender un dispositivo informático de tableta táctil o un dispositivo 20 de visualización de uso.
Brevemente, con referencia a la figura 1, la fuente 36 puede emitir rayos X a través del paciente 14 para que la detecte el detector 33 de panel plano. La fuente 36 puede emitir los rayos X en un haz cónico y puede tener una forma adicional. por un colimador 37 opcional para detección por el detector 33 de panel plano. Un colimador 37 ejemplar está disponible comercialmente como el colimador de campo cuadrado compacto vendido por Collimare Engineering de Wheat Ridge, CO, Estados Unidos e incluido con el sistema de imágenes O-Arm® vendido por Medtronic Navigation, Inc. de Louisville, CO, Estados Unidos. Brevemente, el colimador 37 puede incluir una o más hojas, que pueden controlarse para dar forma a los rayos X emitidos por la fuente 36. Como se explicará, el colimador 37 se puede usar para dar forma a los rayos X emitidos por la fuente 36 en un haz que se corresponde con la forma del detector 33 de panel plano. La fuente 36, el colimador 37 y el detector 33 de panel plano se pueden acoplar al rotor 35.
En general, el detector 33 de panel plano se puede acoplar al rotor 35 para que sea diametralmente opuesto a la fuente 36 y al colimador 37 dentro del pórtico 34. El detector 33 de panel plano puede moverse rotativamente en un movimiento de 360° alrededor del paciente 14 generalmente en las direcciones de la flecha E, y la fuente 36 y el colimador 37 se pueden mover en concierto con el detector 33 de panel plano, de manera que la fuente 36 y el colimador 37 permanezcan generalmente a 180° de distancia y opuestos al detector 33 de panel plano.
El pórtico 34 puede balancearse u oscilar isométricamente (en este documento, también denominado iso-balanceo en general en la dirección de la flecha A, en relación con el paciente 14, que puede colocarse en un soporte para pacientes o en la mesa 15. El pórtico 34 también puede inclinarse con relación al paciente 14, como se ilustra con las flechas B, desplazarse longitudinalmente a lo largo de la línea C en relación con el paciente 14 y el carro 30 móvil, puede moverse hacia arriba y hacia abajo en general a lo largo de la línea D en relación con el carro 30 móvil y transversalmente hacia el paciente 14, y moverse perpendicularmente en general en la dirección de la flecha F en relación con el paciente 14 para permitir el posicionamiento de la fuente 36, el colimador 37 y el detector 33 de panel plano en relación con el paciente 14.
El sistema 10 de imágenes puede controlarse con precisión mediante el sistema 32 de procesamiento de imágenes para mover la fuente 36, el colimador 37 y el detector 33 de panel plano con respecto al paciente 14 para generar datos de imagen precisos del paciente 14. Además, el sistema 10 de imágenes se puede conectar con el procesador 26 a través de la conexión 31, que puede incluir una conexión por cable o inalámbrica o una transferencia de medios físicos desde el sistema 10 de imágenes al procesador 26. Por lo tanto, los datos de imagen recopilados con el sistema 10 de imágenes también pueden transferirse desde el sistema 32 de computación de procesamiento de imágenes (o 100) al sistema 22 de computación (o 100) para navegación, visualización, reconstrucción, post­ procesamiento, etc.
Brevemente, con referencia continua a la figura 1, de acuerdo con varias realizaciones, el sistema 10 de imágenes se puede utilizar con un procedimiento no navegado o navegado. En un procedimiento de navegación, se puede usar un localizador, que incluye uno o ambos de un localizador 60 óptico y un localizador 62 electromagnético para generar un campo o recibir o enviar una señal dentro de un dominio de navegación en relación con el paciente 14. Si se desea, los componentes asociados con la realización de un procedimiento de navegación podrían integrarse dentro del sistema 10 de imágenes. El espacio navegado o el dominio de navegación relativo al paciente 14 puede registrarse en los datos 18 de imagen para permitir el registro de un espacio de navegación definido dentro del dominio de navegación y un espacio de imagen definido por los datos 18 de imagen. Se puede conectar un rastreador de pacientes o un marco 64 de referencia dinámico al paciente 14 para permitir un registro dinámico y el mantenimiento del registro del paciente 14 a los datos 18 de imagen.
Un instrumento 66 puede seguirse en relación con el paciente 14 para permitir un procedimiento de navegación. El instrumento 66 puede incluir un dispositivo 68 de seguimiento óptico y/o un dispositivo 70 de seguimiento electromagnético para permitir el seguimiento del instrumento 66 con uno o ambos del localizador 60 óptico o el localizador 62 electromagnético. El instrumento 66 puede incluir una línea 72 de comunicación con un dispositivo 74 de interfaz de navegación, que puede comunicarse con el localizador 62 electromagnético y/o el localizador 60 óptico. Usando las líneas 72, 78 de comunicación respectivamente, el dispositivo 74 de interfaz de navegación puede entonces comunicarse con el procesador 26 con una línea 80 de comunicación. Se entenderá que cualquiera de las conexiones o líneas 28, 31, 76, 78 u 80 de comunicación puede ser cableada, inalámbrica, transmisión o movimiento de medios físicos, o cualquier otra comunicación apropiada. Sin embargo, se pueden proporcionar los sistemas de comunicación apropiados con los localizadores respectivos para permitir el seguimiento del instrumento 66 en relación con el paciente 14 para permitir una ilustración de la ubicación rastreada del instrumento 66 en relación con los datos 18 de imagen para realizar un procedimiento.
Se entenderá que el instrumento 66 puede ser un instrumento de intervención y/o un implante. Los implantes pueden incluir un stent ventricular o vascular, un implante espinal, un stent neurológico o similar. El instrumento 66 puede ser un instrumento de intervención tal como un estimulador neurológico o cerebral profundo, un dispositivo de ablación u otro instrumento apropiado. El seguimiento del instrumento 66 permite ver la ubicación del instrumento 66 en relación con el paciente 14 con el uso de los datos 18 de imagen registrados y sin la visualización directa del instrumento 66 dentro del paciente 14. Por ejemplo, el instrumento 66 podría ilustrarse gráficamente como un icono superpuesto sobre los datos de imagen 18.
Además, el sistema 10 de imágenes puede incluir un dispositivo de rastreo, tal como un dispositivo 82 de rastreo óptico o un dispositivo 84 de rastreo electromagnético para ser rastreado con un respectivo localizador óptico 60 o el localizador electromagnético 62. El dispositivo 82, 84 de seguimiento puede asociarse directamente con la fuente 36, el detector 33 de panel plano, el rotor 35, el pórtico 34, u otra parte apropiada del sistema 10 de imágenes para determinar la ubicación o posición de la fuente 36, el detector 33 de panel plano, el rotor 35 y/o el pórtico 34 en relación con un marco de referencia seleccionado. Como se ilustra, el dispositivo 82, 84 de seguimiento se puede colocar en el exterior de la carcasa del pórtico 34. En consecuencia, el sistema 10 de imágenes se puede rastrear en relación con el paciente 14, al igual que el instrumento 66 para permitir el registro inicial, el registro automático o el registro continuo del paciente 14 en relación con los datos 18 de imagen. Los procedimientos de registro y navegación se analizan en la solicitud de patente estadounidense número 12/465,206 incorporada, presentada el 13 de mayo de 2009.
En un ejemplo, los datos 18 de imagen pueden comprender una sola imagen 2D. En otro ejemplo, un módulo de control/procesamiento de imágenes, como el módulo 112 de procesamiento de imágenes (figura 2), puede realizar una reconstrucción automática de un modelo tridimensional inicial del área de interés del paciente 14. La reconstrucción del modelo tridimensional se puede realizar de cualquier manera apropiada, como el uso de técnicas algebraicas para la optimización. Las técnicas algebraicas apropiadas incluyen la maximización de la expectativa (EM), los subconjuntos ordenados EM (OSEM), la técnica de reconstrucción algebraica simultánea (SART) y la minimización de la variación total. Su aplicación para realizar una reconstrucción volumétrica 3D basada en las proyecciones 2D permite una reconstrucción volumétrica completa y eficiente.
En general, una técnica algebraica puede incluir un proceso iterativo para realizar una reconstrucción del paciente 14 para mostrarla como datos 18 de imagen. Por ejemplo, una proyección de datos de imagen pura o teórica, como los basados o generados a partir de un atlas o modelo estilizado de un paciente "teórico", puede cambiarse iterativamente hasta que las imágenes de proyección teórica coincidan con los datos de imagen de proyección 2D adquiridos del paciente 14. Luego, el modelo estilizado se puede modificar apropiadamente como el modelo de reconstrucción volumétrica 3D de los datos de imagen de proyección 2D adquiridos del paciente 14 seleccionado y se puede usar en una intervención quirúrgica, como navegación, diagnóstico o planificación. En este sentido, el modelo estilizado puede proporcionar detalles adicionales con respecto a la anatomía del paciente 14, lo que le permite al usuario planificar la intervención quirúrgica de manera mucho más eficiente. El modelo teórico puede asociarse con datos de imagen teóricos para construir el modelo teórico. De esta manera, el modelo o los datos 18 de imagen pueden construirse basándose en los datos de imagen adquiridos del paciente 14 con el sistema 10 de imágenes. El módulo 112 de procesamiento de imágenes puede enviar datos 18 de imagen al dispositivo 32a o 102 de visualización.
Con referencia a las figuras 3 y 4, un implante 200 ejemplar que puede causar artefactos de imágenes en CT escaneadas que se ilustra en una vista superior de una vértebra 90 lumbar (como la vértebra L2). La vértebra 90 incluye un cuerpo 91 vertebral, un proceso 94 espinoso, procesos 96 transversales, pedículos 92 entre el cuerpo 91 y los procesos 96 transversales, y procesos 98 articulares superiores. La vértebra tiene un contorno 93 de hueso cortical que rodea un hueso trabecular interno (esponjoso). El contorno 93 del hueso cortical, debido a su mayor densidad, parece más brillante que el hueso trabecular esponjoso en las imágenes de rayos X. El implante 200 es un tornillo pedicular (en la figura 3 se muestran dos tornillos 200 pediculares). El tornillo 200 pedicular incluye una cabeza 206 y un eje 202 roscado que tiene un eje longitudinal A. Los tornillos 200 pediculares se insertan a través del pedículo de manera que sus ejes se dirigen hacia el vértice del cuerpo 91 vertebral. La cabeza del tornillo 206 es capturada por un receptor o asiento 204 que también se usa para acoplar a varillas 250 alargadas de un sistema de fijación espinal que se muestra en la figura 4. Como se muestra en la figura 4, las varillas 250 alargadas se pueden asegurar en los receptores 204 con los correspondientes tapones 208 de bloqueo. Las cabezas 206 de los tornillos están en las partes inferiores de los receptores 204 debajo de las varillas 250 alargadas.
Con referencia a las figuras 5A a 5F, se ilustran imágenes de seis cortes CT de grosor 833.00 pm en seis ubicaciones correspondientes -84.97 mm, .85.40 mm, - 86.63 mm, -87.47 mm, -88.30 mm y -89.13 con respecto a una imagen etiquetada o de referencia (no mostrada). Las imágenes son de una columna vertebral de cadáver posterior con dos tornillos pediculares implantados, como los que se analizan en relación con las figuras 3 y 4. En la siguiente descripción, los números de referencia de la figura 3 se usan para describir los elementos correspondientes de los tornillos pediculares y de vértebra en las imágenes del CT de las figuras 5A a 5F. En cada corte de CT, el lado izquierdo y derecho del paciente se identifica con las letras L y R. Para evitar confusiones, los lados izquierdo y derecho L y R serán referencias como radiológico izquierdo y derecho (opuesto a los lados izquierdo y derecho de las figuras). Los artefactos 300 alrededor de los tornillos 200 pediculares, es decir, áreas de mayor brillo y efectos de "florecimiento", varían dependiendo de la ubicación de los cortes de CT. En algunas de los cortes de CT, la imagen del contorno cortical 93' del cuerpo vertebral (que se muestra en 93 en la figura 3) está oculta, impidiendo una evaluación de si los tornillos 200 pediculares están correctamente implantados de modo que sus ejes longitudinales A se dirigen hacia el vértice del cuerpo 91 vertebral. Por ejemplo, los cortes CT de las figuras 5B, 5C, 5D y 5E tienen los peores artefactos 300 en el sentido de que los efectos de floración se vuelven más amplios y oscurecen la imagen del contorno 93' cortical, haciendo difícil determinar si los tornillos 200 pediculares están colocados correctamente. En la figura 5A, aunque todavía hay muchos artefactos 300, el contorno o los bordes de los tornillos 200 pediculares son visibles. En la Figura 5B, el efecto de floración es más amplio, oscureciendo el contorno 93' cortical y determinando la dirección y la ubicación del tornillo 200 pedicular izquierdo (la izquierda radiológica marcada con L; aparece en el lado derecho de la figura 5B). El efecto de floración empeora en las figuras 5C y 5D, y luego mejora gradualmente de la figura 5E a la figura 5F. Al evaluar las figuras 5A y 5F, por ejemplo, podemos determinar que el tornillo del pedículo derecho (radiológico) se ha desviado significativamente medialmente del pedículo 92 derecho. Del mismo modo, el tornillo 200 del pedículo izquierdo (radiológico) parece estar orientado hacia afuera y muy cerca del canal espinal.
Las presentes enseñanzas proporcionan un método que puede identificar el implante particular que causa el artefacto 300 y superponer una imagen CAD, imagen 200' gráfica u otra escala en el contorno sobre el artefacto 300, indicando así su posición y orientación reales, como se muestra, por ejemplo, en la figura 6. En la figura 6, el contorno de un tornillo pedicular se superpone en el artefacto 300 radiológico izquierdo, que indica de manera confiable la posición real del tornillo 200' pedicular izquierdo implantado, así como la forma, el tamaño y el tipo de tornillo 200 pedicular implantado en la porción de CT mostrada en una pantalla del sistema informático, como la pantalla 102 de la figura 2. Una realización del método para colocar la superposición se describe brevemente en el diagrama de flujo de la figura 7.
Como se describe en referencia con la figura 1, la fuente 36 de rayos X puede dirigir un haz cónico de rayos X hacia el detector 36 de panel plano. El sujeto 14 está posicionado de tal manera que la región de interés está dentro del haz cónico. Al rotar la fuente de rayos X y el detector alrededor del sujeto 14, se adquiere una pluralidad de proyecciones 2D de la región de interés en el bloque 500 de la figura 7. Las proyecciones pueden ser procesadas por el software de reconstrucción CBCT para obtener la imagen 3D de la anatomía correspondiente del sujeto 14. Como se discutió anteriormente, el software de reconstrucción puede incorporarse en el sistema 32 de computación de imágenes o en el sistema 22 de computación o en el sistema 100 de procesamiento de imágenes, que puede separar y comunicar sistemas, sistemas superpuestos o integrados en un sistema.
Ya sea de forma automática o por entrada del usuario, por ejemplo, a través del dispositivo 106 de entrada de la figura 2, la identificación de voxels con mayor intensidad en relación con los umbrales de intensidad esperados para los huesos y el tejido de la anatomía del paciente se inicia en uno o más cortes de CT seleccionados de la imagen 3D. Un módulo de software de post-procesamiento configurado para ejecutar comandos de procesamiento de imágenes se incorpora en el módulo 112 de procesamiento de imágenes y puede identificar y ubicar grupos de voxeles que son más brillantes o tienen un contraste más alto que el brillo promedio de los voxeles circundantes en un corte de CT para el rango particular de intensidad de la fuente de rayos X 36, en el bloque 502. Los vóxeles aislados de una intensidad de umbral superior a la dada pueden descartarse y los vóxeles adyacentes superiores a la intensidad de umbral dada pueden agruparse para un análisis e identificación adicional. Para determinar si un grupo de voxels es un artefacto de un implante (es decir, un candidato a implante), como un tornillo metálico o de cerámica u otro implante, varios factores o características del grupo se pueden comparar con las características correspondientes de los artefactos de un implante potencial, en el bloque 504. Las características que se pueden comparar incluyen la intensidad de la imagen, la atenuación de la masa, la densidad y la composición del material. Estas características se pueden almacenar en la base de datos 114 de implantes (figura 2), que puede incluir las tablas de dichas propiedades para implantes comunes para una anatomía particular, como implantes espinales, implantes de cadera y rodilla o implantes ortopédicos y no ortopédicos. Por ejemplo, cuando se toma una imagen de una parte de la columna lumbar del paciente, se pueden incluir en la base de datos las características de varios implantes de fijación, como los tornillos pediculares, las varillas de fijación y otros implantes. En el caso de los tornillos pediculares, por ejemplo, la base de datos puede incluir la composición, el tamaño, la forma y la orientación en relación con los cuerpos vertebrales en la fijación espinal ejemplar u otros procedimientos correctivos de la columna vertebral, así como las formas de artefactos esperados, tamaños, brillo, atenuación, densidad, etc., para comparación. Basándose en la comparación, los voxels potencialmente relacionados con un artefacto de implante se seleccionan en un corte de CT en el bloque 506 y se agrupan en un candidato de implante (o candidato de artefacto para un implante) en el bloque 508. En el bloque 510, el candidato a implante, es decir, el grupo de voxels seleccionado, puede seleccionarse utilizando un análisis de mejor ajuste y, opcionalmente, evaluaciones estadísticas y de confiabilidad de los datos disponibles para varias características, como las que se mencionaron anteriormente. El candidato a implante se compara con imágenes y artefactos de implantes potenciales de la base de datos de implantes 114 en el bloque 510 y se selecciona un implante de mejor ajuste de la base de datos de implantes 114 en el bloque 512. La mejor selección de ajuste del candidato a implante y el implante correspondiente puede basarse en un algoritmo de optimización o probabilidad de mínimos cuadrados, iterativo, ponderado u otro. El algoritmo de mejor ajuste puede emplear una métrica ponderada que incluye la intensidad de la imagen, la densidad de la masa, la composición del material y otras características con los factores de peso correspondientes. Los factores de peso pueden ser opcionales o seleccionados en función de la información disponible en una base de datos de resultados anteriores u otro conocimiento y experiencia. Los factores de peso pueden ser iguales, desiguales e incluyen cero y combinaciones distintas de cero. Por ejemplo, en alguna forma de realización, la intensidad de la imagen y la composición de la masa pueden ponderarse por igual al 50% cada una, mientras que la densidad de la masa se ponderó al 0%. En otras realizaciones, todos los factores pueden ponderarse por igual. La selección del implante de mejor ajuste incluye, además de las características inherentes del implante seleccionado (como la forma, tamaño, tipo, composición del material, etc.), una determinación de la orientación y ubicación del implante en relación con el artefacto y/o puntos de referencia anatómicos en el corte CT. Una imagen estilizada, CAD, gráfica u otra imagen del implante 200' seleccionado puede superponerse y registrarse con la orientación y ubicación determinadas en el corte CT en el bloque 514, como también se muestra en la figura 6. La imagen del implante seleccionado se puede representar en un color seleccionable y con un grado de transparencia seleccionable en el bloque 516.
Con referencia a la figura 2, el método se realiza de manera automatizada mediante el módulo 112 de procesamiento de imágenes utilizando la imagen 3D reconstruida como una entrada y proporcionando una o más cortes de CT que muestran una imagen del implante detectado e identificado superpuesto en los cortes de CT. Opcionalmente, la entrada interactiva de un usuario en un dispositivo 106 de entrada se puede habilitar al inicio del método. Dicha entrada se puede proporcionar, por ejemplo, en los bloques 502 a 516 para aprovechar el rendimiento de reconocimiento de imagen a veces superior del ojo humano, o verificar una selección realizada por el módulo 112 de procesamiento de imagen. Además, la entrada se refiere a la ubicación de los cortes CT. en la imagen 3D se puede proporcionar como una entrada por el usuario. En la figura 8 se ilustra un diagrama de flujo ejemplar y simplificado de una sesión de procesamiento interactivo.
Con referencia a las figuras 2 y 8, una imagen 3D reconstruida a partir de las proyecciones 2D tomadas con el sistema 10 de imágenes se muestra en la pantalla 102 del sistema 100 de computación de procesamiento de imágenes en el bloque 600 de la figura 8. La imagen 3D se puede procesar de acuerdo con las enseñanzas predefinidas, por ejemplo, según el método de la figura 7, en el bloque 602 para determinar si se ha identificado un implante en el bloque 604. Si se identifica un implante, la imagen del implante superpuesta en un corte CT, como en la figura 6, se puede mostrar en la pantalla en el bloque 620. Se le puede pedir al usuario que acepte o rechace la imagen del implante superpuesta en el bloque 606. Si el usuario acepta la imagen del implante, la imagen del implante se puede guardar en el bloque 608. Si el usuario rechaza la imagen del implante, puede editar la imagen del implante en el bloque 610. La edición de la imagen del implante en el bloque 610 puede incluir agregar o eliminar la colorización del implante, cambiar la transparencia de la imagen del implante, mover o rotar la imagen en relación con el artefacto asociado, hacer zoom, cambiar el contraste y realizar acciones de edición de imagen utilizando el dispositivo 106 de entrada.
Con referencia continua a la figura 8, si no se identifica ningún implante en el bloque 604, se le puede pedir al usuario que ingrese diferentes ubicaciones para los cortes de CT, examine visualmente los nuevos cortes de CT y/o indique al procesador que repita la rutina computacional de identificación y detección en el bloque 612. Si se identifica un implante en el bloque 614, se le puede pedir al usuario que acepte o rechace el implante identificado en 606 como se describe anteriormente. Si no se identifica ningún implante, se le puede solicitar al usuario en el bloque 616 que bloquee la rutina en el bloque 618, o que vuelva al bloque 612, y que repita el proceso.
Las presentes enseñanzas proporcionan un método implementado por computadora para identificar y mostrar implantes de artefactos en cortes de CT de una imagen 3D de la anatomía de un paciente. La imagen 3D se puede reconstruir a partir de proyecciones 2D de un sistema de imágenes CT o CBCT, como, por ejemplo, el sistema 10 de imágenes, en un procesador (como el procesador 108 de la figura 2) de un sistema informático asociado con el sistema de imágenes, tal como, por ejemplo, el sistema 32 o 22 informático mostrado en la figura 1 o el sistema 100 informático mostrado en la figura 2. Si bien la reconstrucción de imágenes en 3D se puede realizar durante la sesión de imágenes (intraoperatoriamente), la identificación de los implantes que causan artefactos es un procedimiento de post-procesamiento que se realiza mediante secciones axiales o cortes de CT. El procesador 108 compara las características de intensidad y contraste de los vóxeles en la imagen 3D y las distintas ubicaciones de los cortes CT y selecciona grupos de vóxeles con características asociadas con artefactos de implantes conocidos. Las características de cada grupo de voxels identificados se comparan con las características similares de artefactos de implantes conocidos en una base de datos de implantes, como la base de datos 114 de implantes en la figura 2. Se pueden utilizar los algoritmos de optimización y confiabilidad de mínimos cuadrados u otros para seleccionar el implante que mejor se adapte a un artefacto seleccionado que sea un candidato a implante. Una imagen del implante identificado se puede registrar y superponer en la escala del corte CT en la imagen del corte CT en la pantalla 102 del sistema 100 informático de procesamiento de imágenes. La imagen del implante puede ser un dibujo CAD de alambre o sólido u otra representación digital del implante e incluir coloración de un contorno de la imagen o coloración de relleno de la imagen del implante con grados seleccionados de transparencia, Contraste y tonos de color para mejorar el reconocimiento y la identificación de la imagen del implante en el corte CT.
En resumen, las presentes enseñanzas proporcionan un método para detectar un implante que se identifica en un corte de CT de una imagen 3D reconstruida de la anatomía de un paciente. El método analiza e identifica voxels asociados con artefactos de imagen y compara grupos de voxels seleccionados con características de artefactos asociados con implantes en una base de datos de implantes. Se determina un implante de mejor ajuste y se registra una imagen del implante de mejor ajuste y se superpone en el corte de CT y se ve en una pantalla de un sistema informático de procesamiento de imágenes. Esta información permite al usuario valorar y evaluar mejor el estado de la terapia o procedimiento reciente o antiguo y planificar un procedimiento nuevo o correctivo que tenga en cuenta la ubicación y orientación del implante y sus características.
Si bien se han descrito ejemplos específicos en la memoria descriptiva y se han ilustrado en los dibujos, Los expertos en la técnica entenderán que se pueden realizar diversos cambios y se pueden sustituir sus equivalentes por elementos de estos sin apartarse del alcance de las presentes enseñanzas. Además, la mezcla y combinación de características, los elementos y/o funciones entre varios ejemplos se contemplan expresamente en el presente documento, de modo que un experto en la materia apreciaría a partir de las presentes enseñanzas que las características, los elementos y/o funciones de un ejemplo pueden incorporarse a otro ejemplo, según corresponda, a menos que se describa lo contrario anteriormente. Además, se pueden hacer muchas modificaciones para adaptar una situación particular o material a las enseñanzas actuales sin apartarse del alcance esencial de la misma. Por lo tanto, se pretende que las presentes enseñanzas no se limiten a los ejemplos particulares ilustrados por los dibujos y descritos en la memoria descriptiva, sino que el alcance de las presentes enseñanzas incluya cualquier realización que se encuentre dentro de la descripción anterior.

Claims (14)

REIVINDICACIONES
1. Un método implementado en computadora para la detección de implantes que comprende:
recibir una imagen tridimensional (3D) de una porción de la anatomía de un paciente a partir de proyecciones de tomografía computarizada (CT) del paciente en un sistema informático de procesamiento de imágenes; identificar un grupo de voxels que forman un candidato a implante en un corte de CT de la imagen 3D; comparar el candidato a implante con los artefactos de los implantes de una base de datos de implantes almacenada en una memoria del sistema informático;
seleccionar un implante de mejor ajuste de la base de datos de implantes;
seleccionar una orientación y ubicación del implante de mejor ajuste en relación con la porción de anatomía en el corte CT; y
superposición de una imagen gráfica del implante de mejor ajuste en el candidato a implante del corte CT en una pantalla del sistema informático.
2. El método de la reivindicación 1, que comprende además colorear la imagen gráfica interactivamente con la entrada del usuario.
3. El método de la reivindicación 1, que comprende además cambiar interactivamente una transparencia de la imagen gráfica en la pantalla.
4. El método de la reivindicación 1, que comprende además determinar el implante de mejor ajuste al menos por uno de al menos un ajuste cuadrado, comparando la intensidad de la imagen, comparando la densidad de masa, o comparando la composición del material, entre el candidato a implante y los artefactos de los implantes de la base de datos de implantes.
5. El método de la reivindicación 1, que comprende además solicitar la entrada del usuario con respecto a la selección de una nueva ubicación del corte de CT.
6. El método de la reivindicación 1, que comprende además solicitar el aporte del usuario con respecto a la identificación de un candidato a implante en el corte CT.
7. El método de la reivindicación 1, en donde la identificación del grupo de voxels comprende además comparar una intensidad de cada voxel con una intensidad de umbral relacionada con los tejidos circundantes.
8. El método de la reivindicación 1, que comprende además determinar el implante de mejor ajuste comparando una métrica ponderada que incluye la intensidad de la imagen, la densidad de la masa y la composición del material.
9. Un método implementado en computadora para la detección de implantes que comprende:
construir una imagen tridimensional (3D) de una porción de la anatomía de un paciente a partir de proyecciones de tomografía computarizada (CT) del paciente en un sistema informático de procesamiento de imágenes; mostrar la imagen 3D en una pantalla del sistema informático;
identificar un grupo de voxels que forman un candidato a implante en un corte de CT de la imagen 3D; solicitar la entrada del usuario si un candidato a implante no se identifica automáticamente;
seleccionar uno de un candidato a implante identificado automáticamente y un candidato a implante identificado por el usuario;
comparar el candidato a implante con los artefactos de los implantes de una base de datos de implantes almacenada en una memoria del sistema informático;
seleccionar un implante de mejor ajuste de la base de datos de implantes;
seleccionar una orientación y ubicación del implante de mejor ajuste en relación con la porción de anatomía en el corte CT;
superponer una imagen gráfica del implante de mejor ajuste en el candidato a implante del corte CT en una pantalla del sistema informático; y
solicitar la entrada de edición de la imagen gráfica del implante de mejor ajuste por la entrada del usuario.
10. El método de la reivindicación 9, que comprende además seleccionar al menos uno de una transparencia de la imagen gráfica por entrada del usuario, un color de la imagen gráfica por entrada del usuario o un contraste de la imagen gráfica por entrada del usuario.
11. Un sistema de procesamiento de imágenes para detectar un implante que comprende;
un procesador de computadora que incluye almacenamiento de memoria y un módulo de software de procesamiento de imágenes;
una base de datos de implantes accesible por el procesador;
una pantalla; y
un dispositivo de entrada;
en donde el procesador está configurado para ejecutar el método de la reivindicación 1.
12. El sistema de la reivindicación 11, en donde el procesador está configurado para ejecutar instrucciones de software para seleccionar una ubicación del corte de CT automáticamente y solicitar una entrada adicional del usuario.
13. El sistema de la reivindicación 11, en donde el procesador está configurado para ejecutar instrucciones de software para colorear la imagen gráfica automáticamente y solicitar una entrada adicional por parte del usuario.
14. El sistema de la reivindicación 11, en donde el procesador está configurado para ejecutar instrucciones de software para determinar una orientación del implante en el corte de CT.
ES13704285T 2012-01-23 2013-01-22 Detección automática de implantes a partir de artefactos de imagen Active ES2716837T3 (es)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US13/355,929 US8891847B2 (en) 2012-01-23 2012-01-23 Automatic implant detection from image artifacts
PCT/US2013/022508 WO2013112452A1 (en) 2012-01-23 2013-01-22 Automatic implant detection from image artifacts

Publications (1)

Publication Number Publication Date
ES2716837T3 true ES2716837T3 (es) 2019-06-17

Family

ID=47714545

Family Applications (1)

Application Number Title Priority Date Filing Date
ES13704285T Active ES2716837T3 (es) 2012-01-23 2013-01-22 Detección automática de implantes a partir de artefactos de imagen

Country Status (4)

Country Link
US (2) US8891847B2 (es)
EP (2) EP3486873B1 (es)
ES (1) ES2716837T3 (es)
WO (1) WO2013112452A1 (es)

Families Citing this family (42)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10586400B2 (en) * 2018-02-23 2020-03-10 Robert E Douglas Processing 3D medical images to enhance visualization
US8989469B2 (en) * 2010-12-20 2015-03-24 The Board Of Trustees Of The Leland Stanford Junior University Systems and methods for simultaneous acquisition of scatter and image projection data in computed tomography
US8891847B2 (en) 2012-01-23 2014-11-18 Medtronic Navigation, Inc. Automatic implant detection from image artifacts
DE102012205222B4 (de) * 2012-03-30 2020-08-13 Siemens Healthcare Gmbh Verfahren zur Ermittlung eines artefaktreduzierten dreidimensionalen Bilddatensatzes und Röntgeneinrichtung
US20140218397A1 (en) * 2013-02-04 2014-08-07 Mckesson Financial Holdings Method and apparatus for providing virtual device planning
DE102013204552B4 (de) * 2013-03-15 2023-09-21 Siemens Healthcare Gmbh Verfahren zur artefaktfreien Wiedergabe von Metallteilen in dreidimensional rekonstruierten Bildern
CN104517263B (zh) * 2013-09-30 2019-06-14 Ge医疗***环球技术有限公司 减少计算机断层扫描图像重构中伪像的方法和装置
US20160042233A1 (en) * 2014-08-06 2016-02-11 ProSent Mobile Corporation Method and system for facilitating evaluation of visual appeal of two or more objects
US10013808B2 (en) 2015-02-03 2018-07-03 Globus Medical, Inc. Surgeon head-mounted display apparatuses
CA3030831A1 (en) 2016-07-15 2018-01-18 Mako Surgical Corp. Systems for a robotic-assisted revision procedure
US11839433B2 (en) 2016-09-22 2023-12-12 Medtronic Navigation, Inc. System for guided procedures
AU2017340607B2 (en) 2016-10-05 2022-10-27 Nuvasive, Inc. Surgical navigation system and related methods
US10350010B2 (en) * 2016-11-14 2019-07-16 Intai Technology Corp. Method and system for verifying panoramic images of implants
KR102037117B1 (ko) * 2017-08-02 2019-11-29 재단법인 아산사회복지재단 구조유사도를 이용한 아티펙트 저감방법 및 프로그램 및 의료영상획득장치
US11944272B2 (en) 2017-12-07 2024-04-02 Medtronic Xomed, Inc. System and method for assisting visualization during a procedure
US20190254753A1 (en) 2018-02-19 2019-08-22 Globus Medical, Inc. Augmented reality navigation systems for use with robotic surgical systems and methods of their use
EP3628230A1 (en) * 2018-09-27 2020-04-01 Koninklijke Philips N.V. X-ray imaging system with foreign object reduction
CN109508460B (zh) * 2018-12-04 2020-03-24 广东外语外贸大学 基于主题聚类的无监督作文跑题检测方法及***
FR3092748A1 (fr) * 2019-02-18 2020-08-21 Sylorus Robotics Procédés et systèmes de traitement d’images
US10758194B1 (en) 2019-04-17 2020-09-01 Medtronic Navigation, Inc. Filter system and method for imaging a subject
US11986326B2 (en) 2019-06-11 2024-05-21 Board Of Regents, The University Of Texas System Computed tomography (CT) imaging artifact reduction technique making use of tilted scans
DE102019004303A1 (de) 2019-06-18 2020-12-24 Ziehm Imaging Gmbh Verfahren und Vorrichtug der medizinischen Bildgebung zur Darstellung eines 3D-Volumens mit wenigstens einen eingebrachten Fremdobjekt
US10846911B1 (en) * 2019-07-09 2020-11-24 Robert Edwin Douglas 3D imaging of virtual fluids and virtual sounds
AU2020331936B2 (en) * 2019-08-16 2023-10-26 Howmedica Osteonics Corp. Pre-operative planning of surgical revision procedures for orthopedic joints
US11992373B2 (en) 2019-12-10 2024-05-28 Globus Medical, Inc Augmented reality headset with varied opacity for navigated robotic surgery
US11167127B2 (en) 2020-01-24 2021-11-09 Medtronic Xomed, Inc. System and method for therapy
US11167140B2 (en) 2020-01-24 2021-11-09 Medtronic Xomed, Inc. System and method for therapy
US11623086B2 (en) 2020-01-24 2023-04-11 Medtronic Xomed, Inc. System and method for therapy
US11666755B2 (en) 2020-01-24 2023-06-06 Medtronic Xomed, Inc. System and method for therapy
US11464581B2 (en) 2020-01-28 2022-10-11 Globus Medical, Inc. Pose measurement chaining for extended reality surgical navigation in visible and near infrared spectrums
US11090873B1 (en) * 2020-02-02 2021-08-17 Robert Edwin Douglas Optimizing analysis of a 3D printed object through integration of geo-registered virtual objects
US11382699B2 (en) 2020-02-10 2022-07-12 Globus Medical Inc. Extended reality visualization of optical tool tracking volume for computer assisted navigation in surgery
US11207150B2 (en) 2020-02-19 2021-12-28 Globus Medical, Inc. Displaying a virtual model of a planned instrument attachment to ensure correct selection of physical instrument attachment
US11607277B2 (en) 2020-04-29 2023-03-21 Globus Medical, Inc. Registration of surgical tool with reference array tracked by cameras of an extended reality headset for assisted navigation during surgery
US11153555B1 (en) 2020-05-08 2021-10-19 Globus Medical Inc. Extended reality headset camera system for computer assisted navigation in surgery
US11382700B2 (en) 2020-05-08 2022-07-12 Globus Medical Inc. Extended reality headset tool tracking and control
US11510750B2 (en) 2020-05-08 2022-11-29 Globus Medical, Inc. Leveraging two-dimensional digital imaging and communication in medicine imagery in three-dimensional extended reality applications
US11737831B2 (en) 2020-09-02 2023-08-29 Globus Medical Inc. Surgical object tracking template generation for computer assisted navigation during surgical procedure
CN113588493A (zh) * 2021-06-23 2021-11-02 湖南华锐科技集团股份有限公司 一种测量可降解金属植入物在体内降解进程的方法
WO2023097314A1 (en) * 2021-11-29 2023-06-01 Heartflow, Inc. Systems and methods for processing electronic images for physiology-compensated reconstruction
DE102022203101B3 (de) 2022-03-30 2023-09-21 Siemens Healthcare Gmbh Verfahren zur Artefaktkorrektur in einem Computertomographiebilddatensatz, Computertomographieeinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
US20240122562A1 (en) 2022-10-17 2024-04-18 Medtronic Navigation, Inc. Method To Superimpose Rendering Over Spine Hardware Implants On Images Produced By Cbct Scanner System

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5933471A (en) 1997-02-26 1999-08-03 International Business Machines Corporation System and method for reducing reconstruction artifacts in computed tomography images
US6118845A (en) 1998-06-29 2000-09-12 Surgical Navigation Technologies, Inc. System and methods for the reduction and elimination of image artifacts in the calibration of X-ray imagers
JP4746270B2 (ja) 2002-02-15 2011-08-10 メドトロニック・ナビゲーション・インコーポレーテッド 着脱可能部分を有する多次元x線イメージング装置用ガントリ・リング
WO2003077763A2 (en) 2002-03-13 2003-09-25 Breakaway Imaging, Llc Systems and methods for quasi-simultaneous multi-planar x-ray imaging
EP2345370A3 (en) 2002-03-19 2012-05-09 Breakaway Imaging, Llc Computer tomography with a detector following the movement of a pivotable x-ray source
US7001045B2 (en) 2002-06-11 2006-02-21 Breakaway Imaging, Llc Cantilevered gantry apparatus for x-ray imaging
US7106825B2 (en) 2002-08-21 2006-09-12 Breakaway Imaging, Llc Apparatus and method for reconstruction of volumetric images in a divergent scanning computed tomography system
US7369695B2 (en) 2004-08-20 2008-05-06 General Electric Company Method and apparatus for metal artifact reduction in 3D X-ray image reconstruction using artifact spatial information
CA2583831A1 (en) 2004-10-12 2006-04-20 Universite Laval Method and apparatus for metal artifact reduction in computed tomography
CN102067170A (zh) * 2007-08-31 2011-05-18 皇家飞利浦电子股份有限公司 在存在金属伪影的情况下用于分割的不确定性图
US8545509B2 (en) * 2007-12-18 2013-10-01 Otismed Corporation Arthroplasty system and related methods
US8023767B1 (en) * 2008-03-10 2011-09-20 University Of Rochester Method and apparatus for 3D metal and high-density artifact correction for cone-beam and fan-beam CT imaging
US8280135B2 (en) 2009-01-20 2012-10-02 Mayo Foundation For Medical Education And Research System and method for highly attenuating material artifact reduction in x-ray computed tomography
US8238631B2 (en) 2009-05-13 2012-08-07 Medtronic Navigation, Inc. System and method for automatic registration between an image and a subject
US8503750B2 (en) 2009-10-06 2013-08-06 General Electric Company Method and apparatus for reduction of metal artifacts in CT images
US8311791B1 (en) * 2009-10-19 2012-11-13 Surgical Theater LLC Method and system for simulating surgical procedures
AU2011218194B2 (en) * 2010-02-16 2015-12-10 Duke University Systems, methods, compositions and devices for in vivo magnetic resonance imaging of lungs using perfluorinated gas mixtures
US8631638B2 (en) * 2010-08-11 2014-01-21 Rene Carlos Method, system and apparatus for providing water to a heat engine via a dammed water source
WO2012073151A2 (en) * 2010-12-01 2012-06-07 Koninklijke Philips Electronics N.V. Diagnostic image features close to artifact sources
US8891847B2 (en) 2012-01-23 2014-11-18 Medtronic Navigation, Inc. Automatic implant detection from image artifacts

Also Published As

Publication number Publication date
US9317661B2 (en) 2016-04-19
EP3486873B1 (en) 2020-11-18
EP3486873A1 (en) 2019-05-22
US8891847B2 (en) 2014-11-18
EP2807635B1 (en) 2018-12-26
WO2013112452A1 (en) 2013-08-01
US20130188848A1 (en) 2013-07-25
US20150078647A1 (en) 2015-03-19
EP2807635A1 (en) 2014-12-03

Similar Documents

Publication Publication Date Title
ES2716837T3 (es) Detección automática de implantes a partir de artefactos de imagen
US8897514B2 (en) Imaging method for motion analysis
JP6876065B2 (ja) 放射線照射を低減された手術中の3次元視覚化
US9001962B2 (en) Method and apparatus for multiple X-ray imaging applications
EP3028258B1 (en) Method and system for tomosynthesis imaging
Lin et al. In vivo three-dimensional intervertebral kinematics of the subaxial cervical spine during seated axial rotation and lateral bending via a fluoroscopy-to-CT registration approach
CN106456082B (zh) 用于脊椎层面的成像***
EP2323101A2 (en) Method for 3D spine and full 3D trunk imaging fusion in standing position
Nachabe et al. Radiation dose and image quality comparison during spine surgery with two different, intraoperative 3D imaging navigation systems
US20180253838A1 (en) Systems and methods for medical imaging of patients with medical implants for use in revision surgery planning
CN114980970A (zh) 确定放射参数的***和方法
Lin et al. Comparisons of surface vs. volumetric model-based registration methods using single-plane vs. bi-plane fluoroscopy in measuring spinal kinematics
Reynolds et al. Extended intraoperative longitudinal 3-dimensional cone beam computed tomography imaging with a continuous multi-turn reverse helical scan
JP2021532903A (ja) 医療装置を撮像するためのコンセンサス面の決定
Linte et al. Image-guided procedures: tools, techniques, and clinical applications
US20240122562A1 (en) Method To Superimpose Rendering Over Spine Hardware Implants On Images Produced By Cbct Scanner System
CN110267594B (zh) C型臂计算机断层摄影中的等中心
JP6855173B2 (ja) X線ct装置
Buzug Practical Aspects of Computed Tomography
Kirschstein et al. Navigated Imaging for Neurosurgery
Marques da Silva et al. Three-dimensional virtual preoperative implant planning P3Dental using computed tomography images
Heiland et al. ORAL AND MAXILLOFACIAL RADIOLOGY Editor: Allan G. Farman
Cooper-Woodhouse WEIGHING UP THE BENEFITS
Ivanov et al. STEREORADIOGRAPHY AS A PROMISING METHOD OF INTRAOPERATIVE NAVIGATION IN SPINE SURGERY