MX2014010163A - Sistema de video endoscopico. - Google Patents

Sistema de video endoscopico.

Info

Publication number
MX2014010163A
MX2014010163A MX2014010163A MX2014010163A MX2014010163A MX 2014010163 A MX2014010163 A MX 2014010163A MX 2014010163 A MX2014010163 A MX 2014010163A MX 2014010163 A MX2014010163 A MX 2014010163A MX 2014010163 A MX2014010163 A MX 2014010163A
Authority
MX
Mexico
Prior art keywords
pixels
color space
image data
image
group
Prior art date
Application number
MX2014010163A
Other languages
English (en)
Inventor
Gheorghe Mihalca
Baoduy Tran
Carlos A Rodriguez
Original Assignee
Smith & Nephew Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Smith & Nephew Inc filed Critical Smith & Nephew Inc
Publication of MX2014010163A publication Critical patent/MX2014010163A/es

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00025Operational features of endoscopes characterised by power management
    • A61B1/00027Operational features of endoscopes characterised by power management characterised by power supply
    • A61B1/00029Operational features of endoscopes characterised by power management characterised by power supply externally powered, e.g. wireless
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00002Operational features of endoscopes
    • A61B1/00043Operational features of endoscopes provided with output arrangements
    • A61B1/00045Display arrangement
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00112Connection or coupling means
    • A61B1/00121Connectors, fasteners and adapters, e.g. on the endoscope handle
    • A61B1/00124Connectors, fasteners and adapters, e.g. on the endoscope handle electrical, e.g. electrical plug-and-socket connection
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00131Accessories for endoscopes
    • A61B1/00135Oversleeves mounted on the endoscope prior to insertion
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/042Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by a proximal camera, e.g. a CCD camera
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/04Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
    • A61B1/044Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for absorption imaging
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0669Endoscope light sources at proximal end of an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0676Endoscope light sources at distal tip of an endoscope
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/06Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
    • A61B1/0661Endoscope light sources
    • A61B1/0684Endoscope light sources using light emitting diodes [LED]
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/313Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
    • A61B1/317Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for bones or joints, e.g. osteoscopes, arthroscopes
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2407Optical details
    • G02B23/2461Illumination
    • G02B23/2469Illumination using optical fibres
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B23/00Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
    • G02B23/24Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
    • G02B23/2476Non-optical details, e.g. housings, mountings, supports
    • G02B23/2484Arrangements in relation to a camera or imaging device
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/136Segmentation; Edge detection involving thresholding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/56Extraction of image or video features relating to colour
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/46Colour picture communication systems
    • H04N1/56Processing of colour picture signals
    • H04N1/60Colour correction or control
    • H04N1/6002Corrections within particular colour systems
    • H04N1/6008Corrections within particular colour systems with primary colour signals, e.g. RGB or CMY(K)
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B1/00Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
    • A61B1/00064Constructional details of the endoscope body
    • A61B1/00103Constructional details of the endoscope body designed for single use
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10068Endoscopic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30008Bone
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/555Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Optics & Photonics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Molecular Biology (AREA)
  • Pathology (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Astronomy & Astrophysics (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Quality & Reliability (AREA)
  • Orthopedic Medicine & Surgery (AREA)
  • Physical Education & Sports Medicine (AREA)
  • Microelectronics & Electronic Packaging (AREA)
  • Signal Processing (AREA)
  • Endoscopes (AREA)
  • Image Analysis (AREA)
  • Instruments For Viewing The Inside Of Hollow Bodies (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

Los datos de imagen que representan una imagen capturada por un dispositivo de video endoscópico se convierten de un primer espacio de color a un segundo espacio de color; los datos de imagen en el segundo espacio de color se utilizan para determinar la ubicación de las características en la imagen.

Description

SISTEMA DE VIDEO ENDOSCÓPICO REFERENCIA CRUZADA A SOLICITUDES RELACIONADAS Esta solicitud reclama prioridad a la Solicitud de Provisional de E.U.A. No. de serie 61/602,106 que se presentó el 23 de febrero del 2012, a la Solicitud Provisional de E.U.A. No. de serie 61/668,743 que se presentó el 6 de julio del 2012 y a la Solicitud Provisional de E.U.A. No. de serie 61/708,157 que se presentó el 1 de octubre del 2012.
CAMPO TÉCNICO Este documento se refiere a sistemas endoscópicos de video.
ANTECEDENTES DE LA INVENCIÓN Los endoscopios médicos se utilizan para inspeccionar regiones dentro del cuerpo (es decir, cavidades y articulaciones) durante la cirugía (tal como cirugía laparoscópica/toracoscópica) a través de una pequeña punción. En algunos casos, el endoscopio incluye un tubo de inserción alargado, flexible o rígido equipado con un conjunto de fibras ópticas que se extienden desde un mango proximal a través del tubo de inserción a la punta de visualización distal del endoscopio. Una fuente de luz proporciona luz a las fibras ópticas de manera que se ilumine la región que se va a inspeccionar.
BREVE DESCRIPCIÓN DE LA INVENCIÓN En un aspecto, se acceden datos de imagen que representan una imagen capturada por un dispositivo de video endoscópico. Los datos de imagen se codifican en un primer espacio de color. Los datos de imagen accesados se convierten del primer espacio de color a un segundo espacio de color. El segundo espacio de color es diferente al primer espacio de color. Se identifica una ubicación de una característica en la imagen al analizar los datos de imagen en el segundo espacio de color. Los datos de segmentación que indican la ubicación de las características en la imagen, se almacenan y con base en los datos de segmentación, la imagen se despliega con una indicación de la ubicación identificada de las características.
Las implementaciones pueden incluir una o más de las siguientes características. Desplegar la imagen con una indicación de la ubicación identificada de la características puede incluir convertir los datos de imagen del segundo espacio de color a un tercer espacio de color y desplegar, con base en los datos de segmentación y los datos de imagen en el tercer espacio de color, la imagen con una indicación de la ubicación identificada de las características. Las una o más características pueden incluir un tipo de tejido, una estructura anatómica o un objeto externo introducido en un paciente.
Identificar la ubicación de la característica en la imagen al analizar los datos de imagen en el segundo espacio de color puede incluir generar un histograma de los valores de tonalidad de píxeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color e identificar píxeles que están clasificados dentro de una gama de tonalidades en el histograma que corresponden a las características, en donde los datos de segmentación indican los píxeles que están clasificados dentro de la gama de tonalidades en el histograma que corresponden a las características.
Identificar la ubicación de la característica en la imagen al analizar los datos de imagen en el segundo espacio de color puede incluir agrupar píxeles en los datos de imagen en el segundo espacio de color en grupos con base en los valores de tonalidad de los píxeles; determinar un primer grupo de píxeles de entre los grupos de píxeles; determinar un segundo grupo de píxeles de entre los grupos de píxeles; y seleccionar uno del primer o segundo grupo de píxeles con base en una diferencia de color relativa entre el primer y segundo grupos de píxeles, en donde los datos de segmentación indican el grupo seleccionado de píxeles. Agrupar los píxeles puede incluir generar un histograma de valores de tonalidad de píxeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color. Determinar un primer grupo de píxeles puede incluir determinar un primer conjunto de píxeles que están clasificados dentro de una primera gama de las tonalidades en el histograma. Determinar un segundo grupo de píxeles puede incluir determinar un segundo conjunto de píxeles que están clasificados dentro de una segunda gama de tonalidades en el histograma. Seleccionar uno del primer o segundo grupo de píxeles puede incluir seleccionar uno del primer o segundo conjunto de píxeles con base en una diferencia de color relativa entre la primera gama de tonalidades y la segunda gama de tonalidades.
El primer espacio de color puede ser uno de RGB, YUV, YPrPb, o YcrCb. El segundo espacio de color puede ser uno de HSV, Lab o HSY.
En otro aspecto un sistema incluye un dispositivo de video endoscópico y un dispositivo de cómputo. El dispositivo de video endoscópico se configura para generar datos de imagen que representan una imagen capturada por el dispositivo de video endoscópico, en donde los datos de imagen se codifican en un primer espacio de color y transmitir los datos de imagen a un dispositivo de cómputo. El dispositivo de cómputo se configura para recibir los datos de imagen transmitidos por el dispositivo de video endoscópico; convertir los datos de imagen recibidos del primer espacio de color a un segundo espacio de color, en donde el segundo espacio de color es diferente del primer espacio de color; identificar una ubicación de una característica en la imagen al analizar los datos de imagen en el segundo espacio de color; almacenar los datos de segmentación que indican la ubicación de las características en la imagen; y desplegar, con base en los datos de segmentación, la imagen en un dispositivo de despliegue con una indicación de la ubicación identificada de las características.
Las implementaciones pueden incluir una o más de las siguientes características. Por ejemplo, para desplegar la imagen en el dispositivo de despliegue con una indicación de la ubicación identificada de las características, el dispositivo de cómputo se puede configurar para convertir los datos de imagen del segundo espacio de color a un tercer espacio de color y desplegar, con base en los datos de segmentación y los datos de imagen en el tercer espacio de color, la imagen en el dispositivo de despliegue con una indicación de la ubicación identificada de las características. Las una o más características pueden incluir un tipo de tejido, una estructura anatómica o un objeto externo introducido en un paciente.
Para identificar la ubicación de la característica en la imagen al analizar los datos de imagen en el segundo espacio de color, el dispositivo de cómputo se puede configurar para generar un histograma de valores de tonalidad de píxeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color e identificar los píxeles que están clasificados dentro de una gama de tonalidades en el histograma que corresponden a las características, en donde los datos de segmentación indican píxeles que están clasificados dentro de la gama de tonalidades en el histograma que corresponden a las características.
Para identificar la ubicación de la característica en la imagen al analizar los datos de imagen en el segundo espacio de color, el dispositivo de cómputo se puede configurar para agrupar píxeles en los datos de imagen en el segundo espacio de color en grupos con base en los valores de tonalidad de los píxeles; determinar un primer grupo de píxeles de entre los grupos de píxeles; determinar un segundo grupo de píxeles de entre los grupos de píxeles; seleccionar uno del primer o segundo grupo de píxeles con base en una diferencia de color relativa entre el primer y segundo grupos de píxeles, en donde los datos de segmentación indican el grupo seleccionado de píxeles.
Para agrupar píxeles, el dispositivo de cómputo se puede configurar para generar un histograma de valores de tonalidad de píxeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color. Para determinar un primer grupo de píxeles, el dispositivo de cómputo se puede configurar para determinar un primer conjunto de píxeles que están clasificados dentro de una primera gama de las tonalidades en el histograma. Para determinar un segundo grupo de píxeles, el dispositivo de cómputo se puede configurar para determinar un segundo conjunto de píxeles que están clasificados dentro de una segunda gama de tonalidades en el histograma. Para seleccionar uno del primer o segundo grupos de píxeles, el dispositivo de cómputo se puede configurar para seleccionar uno del primer o segundo conjunto de píxeles con base en una diferencia de color relativa entre la primera gama de tonalidades y la segunda gama de tonalidades.
El primer espacio de color puede ser uno de RGB, YUV, YPrPb, o YcrCb. El segundo espacio de color puede ser uno de HSV, Lab o HSY.
En otro aspecto, se acceden los datos de imagen que representan el video capturado por un dispositivo de video endoscópico. Los datos de imagen se codifican en un primer espacio de color. Los datos de imagen accesados se convierten del primer espacio de color a un segundo espacio de color, en donde el segundo espacio de color es diferente del primer espacio de color. Se identifica una ubicación de una característica de punto de referencia en el video al analizar los datos de imagen en el segundo espacio de color. Se rastrea una posición de la característica de punto de referencia sobres múltiples estructuras de los datos de imagen. Un modelo anatómico se genera con base en la característica rastreada del punto de referencia. Una ubicación de una característica anatómica objetivo en el video se determina con base en el modelo anatómico. El video se despliega con una indicación de la ubicación de la característica objetivo.
Las implementaciones pueden incluir una o más de las siguientes características. Por ejemplo, determinar la ubicación de la característica anatómica objetivo puede incluir determinar la ubicación de la característica anatómica objetivo con base en el modelo anatómico y relaciones anatómicas conocidas entre los aspectos del modelo y la característica anatómica objetivo. Generar un modelo anatómico con base en la característica de punto de referencia rastreada puede incluir determinar el movimiento de la característica de punto de referencia con base en los cambios en la posición de la característica de punto de referencia entre las múltiples estructuras y generar el modelo anatómico con base en el movimiento de la característica de punto de referencia.
Identificar la ubicación de la característica de punto de referencia en la imagen al analizar los datos de imagen en el segundo espacio de color puede incluir generar un histograma de valores de tonalidad de píxeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color e identificar píxeles que están clasificados dentro de una gama de tonalidades en el histograma que corresponden con las características, en donde lo datos de segmentación indican los píxeles que están clasificados dentro de la gama de tonalidades en el histograma que corresponde a las características.
Identificar la ubicación de la característica de punto de referencia en la imagen al analizar los datos de imagen en el segundo espacio de color puede incluir agrupar píxeles en los datos de imagen en el segundo espacio de color en los grupos con base en los valores de tonalidad de los píxeles; determinar un primer grupo de píxeles de entre los grupos de píxeles; determinar un segundo grupo de píxeles de entre los grupos de píxeles; y seleccionar uno del primer o segundo grupo de píxeles con base en la diferencia de color relativa entre el primer y segundo grupos de píxeles, en donde los datos de segmentación indican el grupo seleccionado de píxeles.
Agrupar los píxeles puede incluir generar un histograma de valores de tonalidad de píxeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color. Determinar un primer grupo de píxeles puede incluir determinar un primer conjunto de píxeles que están clasificados dentro de una primera gama de las tonalidades en el histograma. Determinar un segundo grupo de píxeles puede incluir determinar un segundo conjunto de píxeles que están clasificados dentro de una segunda gama de tonalidades en el histograma. Seleccionar uno del primer o segundo grupo de píxeles puede incluir seleccionar uno del primer o segundo conjunto de píxeles con base en una diferencia de color relativa entre la primera gama de tonalidades y la segunda gama de tonalidades.
El primer espacio de color puede ser uno de RGB, YUV, YPrPb, o YcrCb. El segundo espacio de color puede ser uno de HSV, Lab o HSY.
En otro aspecto, un sistema incluye un dispositivo de video endoscópico y un dispositivo de cómputo. El dispositivo de video endoscópico se configura para generar datos de imagen que representan un video capturado por el dispositivo de video endoscópico, en donde los datos de imagen se codifican en un primer espacio de color y transmite los datos de imagen al dispositivo de cómputo. El dispositivo de cómputo se configura para recibir los datos de imagen transmitidos por el dispositivo de video endoscópico; convertir los datos imagen recibidos desde el primer espacio de color a un segundo espacio de color, en donde el segundo espacio de color es diferente del primer espacio de color; identificar una ubicación de una característica de punto de referencia en el video al analizar los datos de imagen en el segundo espacio de color; rastrear una posición de la característica de punto de referencia sobre múltiples estructuras de los datos de imagen; generar un modelo anatómico con base en la característica de punto de referencia rastreada, determinar una ubicación de una característica anatómica objetivo en los datos de video con base en el modelo anatómico; desplegar el video en el dispositivo de despliegue con una indicación de la ubicación de la característica objetivo.
Las implementaciones pueden incluir una o más de las siguientes características. Por ejemplo, determinar la ubicación de la característica anatómica objetivo, el dispositivo de cómputo se puede configurar para determinar la ubicación de la característica anatómica objetivo con base en el modelo anatómico y las relaciones anatómicas conocidas entre los aspectos del modelo y la característica anatómica objetivo. Para generar un modelo anatómico con base en la característica de punto de referencia rastreado, el dispositivo de cómputo se puede configurar para determinar el movimiento de la característica de punto de referencia con base en los cambios en la posición de la característica de punto de referencia entre las múltiples estructuras y generar el modelo anatómico con base en el movimiento de la característica de punto de referencia.
Para identificar la ubicación de la característica en la imagen al analizar los datos de imagen en el segundo espacio de color, el dispositivo de cómputo se puede configurar para generar un histograma de los valores de tonalidad de píxeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color; e identificar píxeles que están clasificados dentro de una gama de tonalidades en el histograma que corresponden a las características, en donde los datos de segmentación indican los píxeles que están clasificados dentro de la gama de tonalidades en el histograma que corresponden a las características.
Para identificar la ubicación de la característica en la imagen al analizar los datos de imagen en el segundo espacio de color, el dispositivo de cómputo se puede configurar para agrupar píxeles en los datos de imagen en el segundo espacio de color en los grupos con base en valores de tonalidad de los píxeles; determinar un primer grupo de píxeles de entre los grupos de píxeles; determinar un segundo grupo de píxeles de entre los grupos de píxeles; seleccionar uno del primer o segundo grupo de píxeles con base en una diferencia de color relativa entre el primer y segundo grupos de píxeles, en donde los datos de segmentación indican el grupo seleccionado de píxeles.
Para agrupar píxeles, el dispositivo de cómputo se puede configurar para generar un histograma de los valores de tonalidad de píxeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color. Para determinar un primer grupo de píxeles, el dispositivo de cómputo se puede configurar para determinar un primer conjunto de píxeles que están clasificados dentro de una primera gama de tonalidades en el histograma. Para determinar un segundo grupo de píxeles , el dispositivo de cómputo se puede configurar para determinar un segundo conjunto de píxeles que están clasificados dentro de una segunda gama de tonalidades en el histograma. Para seleccionar uno del primer o segundo grupo de píxeles, el dispositivo de cómputo se puede configurar para seleccionar uno del primer o segundo conjunto de pixeles con base en una diferencia de color relativa entre la primera gama de tonalidades y la segunda gama de tonalidades.
El primer espacio de color puede ser uno de RGB, YUV, YPrPb, o YcrCb. El segundo espacio de color puede ser uno de HSV, Lab o HSY.
Los detalles de una o más implementaciones se establecen en los dibujos anexos y la descripción que se presenta a continuación. Otras características, objetivos y ventajas serán evidentes a partir de la descripción y los dibujos y a partir de las reivindicaciones.
BREVE DESCRIPCIÓN DE LOS DIBUJOS La figura 1 es un diagrama de bloques que ilustra un ejemplo de un sistema médico.
Las figuras 2A a 2D ilustran un ejemplo un artroscopio de video que se puede utilizar con el sistema de la figura 1.
La figura 3 ilustra un ejemplo alternativo de un artroscopio de video que se puede utilizar con el sistema de la figura 1.
La figura 4 muestra un ejemplo de un procedimiento para segmentar características en datos de imagen y desplegar una imagen correspondiente con la segmentación.
La figura 5A es una ilustración que muestra un ejemplo de una imagen autofluorescente capturada en el espacio RGB.
La figura 5B muestra un ejemplo de un histograma generado con base en la imagen de la figura 5A después de que la imagen se convierte en un espacio de color alternativo.
La figura 5C es una ilustración que muestra un ejemplo de una imagen con una máscara de segmentación derivada de las poblaciones de la figura 5B.
La figura 6 muestra un ejemplo de un procedimiento para identificar las características en datos de imagen y utilizar esas características en un modelo anatómico.
DESCRIPCIÓN DETALLADA DE LA INVENCIÓN La figura 1 es un diagrama de bloques que ilustra un ejemplo de un sistema médico 100. El sistema médico 100 incluye un dispositivo de video endoscópico 102, tal como un artroscopio de video y dispositivo para capturar imágenes, un dispositivo de cómputo 104 y un dispositivo de despliegue 106. En general, el dispositivo de video endoscópico 102 envía datos de imagen de las estructuras anatómicas internas al dispositivo de cómputo 104, que recibe los datos de imagen 103 (por ejemplo, por medio de un dispositivo para capturar video/estructura). El dispositivo de cómputo 104 realiza el procesamiento en los datos de imagen para segmentar el tejido objetivo o estructuras anatómicas en los datos de imagen de otro tejido o estructuras y despliega las imágenes correspondientes en el dispositivo de despliegue 106 en una forma que transporta la segmentación al usuario, tal como un cirujano.
En particular, el dispositivo de video endoscopico 102 incluye un tubo de inserción alargado, flexible o rígido equipado con un conjunto de fibras ópticas que se extienden desde un mango proximal a través del tubo de inserción a la punta de visualización distal del endoscopio. El dispositivo de video endoscopico se utiliza para inspeccionar las regiones dentro del cuerpo de un paciente (por ejemplo, cavidades, articulaciones) durante la cirugía (tal como cirugía laparoscópica/artroscópica) al insertar el tubo de inserción a través de una pequeña abertura en el paciente. Una o más fuentes de luz están contenidas dentro del cuerpo del dispositivo de video endoscopico 102 y proporcionan luz a las fibras ópticas, que portan la luz a la punta de visualización. Las fuentes de luz se pueden intercalar entre proporcionar una luz visible de banda ancha y luz de banda estrecha adecuadas para provocar la autofluorescencia del tejido u objetos. En cualquier caso, un sistema óptico del dispositivo de video endoscopico transporta la imagen resultante a un ensamble de cámara que convierte la imagen a una señal de video que incluye los datos de imagen que corresponden a la imagen.
El dispositivo de cómputo 104 incluye una interfaz de cámara 104a que recibe la señal de video desde el dispositivo de video endoscopico 102, y proporciona potencia a y comunicación bidireccional con el dispositivo de video endoscopico 102. El dispositivo de cómputo 104 puede ser cualquier tipo apropiado de dispositivo de cómputo tal como una computadora personal, estación de trabajo, dispositivo de cómputo portátil, consola, laptop, terminal de red, dispositivo incrustado, o similares. El dispositivo de cómputo 104 incluye un mecanismo de interconexión tal como un bus de datos u otro conjunto de circuitos que acoplan juntos la entrada de video 104a a un sistema de memoria 104b, un procesador 104c, y una interfaz de entrada/salida 114.
El sistema de memoria 104b es cualquier tipo apropiado de dispositivo legible por computadora, que puede incluir, por ejemplo, un disco flexible, un disco duro, una memoria de solo lectura (ROM), o memoria de acceso aleatorio (RAM). El sistema de memoria 104b almacena una aplicación de visualización 108a. La aplicación de visualización almacenada 108a puede incluir instrucciones que, cuando son ejecutadas por el procesador 104c, hacen que el procesador realice las operaciones descritas más abajo. Durante la operación del dispositivo de cómputo 104, el procesador 104c accede al sistema de memoria 104b por medio de la interconexión con el fin de ejecutar la aplicación de visualización 108a. En otras implementaciones, el procesador 104c y el sistema de memoria 104b se pueden reemplazar con un Arreglo de Compuerta Programable en Campo (FPGA, por sus siglas en inglés) que se pueden programar para realizar o para ejecutar la lógica de la aplicación de visualización 108b.
La aplicación de visualización de ejecución 108b hace que el procesador 104c procese la señal de video en una manera que segmenta el tejido objetivo o estructuras anatómicas en los datos de imagen en la señal de video desde otro tejido o estructuras. Por ejemplo, el procesador 104c convierte los datos de imagen de un primer espacio de color (por ejemplo, un espacio de color RGB producido por el dispositivo endoscópico 102) a un segundo espacio de color adecuado para segmentación (por ejemplo, un espacio de color HSV) y realiza el procesamiento en los datos de imagen convertidos para realizar la segmentación. El procesador 104c entonces convierte los datos de imagen de nuevo en el primer espacio de color (o un espacio de color diferente adecuado para despliegue) mientras mantiene los datos de segmentación y utiliza los datos de imagen y los datos de segmentación para desplegar el video en el dispositivo de despliegue 106 en una forma que segmenta el tejido objetivo o estructura de otro tejido o estructuras.
En otro ejemplo, el procesador 104c convierte los datos de imagen de un primer espacio de color a un segundo espacio de color adecuado para segmentación y realiza el procesamiento en los datos de imagen convertidos para realizar la segmentación para identificar las características de punto de referencia. El procesador 104c entonces rastrea las características de punto de referencia y utiliza el movimiento de las características de punto de referencia para generar un modelo anatómico. El procesador 104c identifica las características objetivo con base en el modelo y despliega el video con una indicación de la ubicación de las características objetivo.
Las figuras 2A a 2D ilustran un ejemplo de un artroscopio de video 200 que se puede utilizar con el sistema 100, por ejemplo, como el dispositivo de video endoscópico 102. El artroscopio de video 200 incluye un tubo de inserción rígido 202 y un cuerpo proximal 204. El cuerpo proximal 204 incluye un ensamble de inserción 206, un ensamble de foco 208 y un ensamble de sujeción de cámara 210. El ensamble de sujeción de cámara acopla el ensamble de cámara de video 212 (de otra forma mencionado como el cabezal de la cámara) a través, por ejemplo, de un acoplamiento de montaje en C 214. Utilizar un acoplamiento de montaje en C puede permitir que el artroscopio de video 200 y el cabezal de la cámara 212 se separen y se esterilicen por separado. En otras implementaciones, el artroscopio 200 se acopla al cabezal de la cámara 212 por medio del acoplador del artroscopio más que a un montaje en C.
El ensamble de inserción 206 se acopla al ensamble de foco 208 de manera que el ensamble de inserción 206 y el ensamble de foco 208 puedan girar uno con respecto al otro alrededor de la unión 216. La rotación del ensamble de inserción 206 cambia el campo de visión al cambiar la orientación del extremo distal del tubo de inserción 202.
En ensamble de inserción 206 incluye un poste de iluminación 218, que almacena fuentes de luz en estado sólido 220 para generar luz que se transporta a y fuera del extremo distal del tubo de inserción 202 por medio de fibra óptica de iluminación 222. Las fuentes de luz en estado sólido 220 incluyen, por ejemplo, dos fuentes de luz de LED 220a y 220b.
La primera fuente de luz de LED 220a es una fuente de luz de LED de banda ancha que se emite en una banda ancha visible utilizando, por ejemplo, conversión de fósforo. Por ejemplo, la fuente de luz de LED de banda ancha 220a puede emitir luz blanca. La luz visible se transmite a través de, por ejemplo un haz de fibras de vidrio 222a con alta transmisión en la escala visible. El haz de fibras 222a, es por ejemplo, acoplado a tope a la fuente de luz de LED de banda ancha 220a, e incluye una apertura numérica alta de aproximadamente 0.86 NA, que puede proporcionar una eficiencia de acoplamiento elevada e iluminación de todo el campo de visión .
La segunda fuente de luz de LED es una fuente de luz de LED de banda estrecha que emite una banda estrecha de luz de excitación (por ejemplo, 395 nm) que se puede utilizar en formación de imágenes de auto-fluorescencia . La luz de longitud de onda baja se transmite a través de un haz de fibras individuales o múltiples 222b que se optimiza para transmisión a una longitud de onda inferior.
La iluminación puede ser intercalada por el usuario entre la excitación de fluorescencia y visible según sea necesario. Al tener fuentes de luz intercalares esto puede permitir al dispositivo ser utilizado en cirugía para distinguir tipos de tejido. Por ejemplo, en un paciente con una ruptura de ligamento cruzado anterior (ACL, por sus siglas en inglés), el dispositivo 200 se puede intercalar al modo de auto-fluorescencia (AF, por sus siglas en inglés) de banda estrecha de manera que el tejido de interés (remanente de la ACL en la inserción) se pueda identificar con el propósito de determinar en dónde debe entrar un túnel de perforación en el hueso para reconstrucción. Con un modo de luz intercambiable, el dispositivo 200 se puede intercalar hacia atrás y hacia adelante entre la luz visible y el modo de auto-fluorescencia para permitir la colocación precisa de la guía/cánula de perforación en el sitio deseado de la inserción. Por ejemplo, el cirujano puede visualizar inicialmente el tejido de interés utilizando auto-fluorescencia, intentar colocar la guia utilizando luz visible (ya que el extremo de la guía de perforación es fácil de visualizar en luz visible) y luego verificar la colocación de la guía de perforación con respecto al tejido de interés utilizando auto-fluorescencia (y repetir hasta que la guía se coloque de forma apropiada). Otros tipos de tejido también se deben identificar utilizando el modo de auto-fluorescencia, incluyendo tejido del menisco y/o cartílago de manera que se pueda realizar el procedimiento subsiguiente.
El ensamble de foco 208 incluye una porción de vástago 223, un conjunto de ópticas de enfoque 224, y un anillo de foco 226. El anillo de enfoque 226 se configura para girar con respecto a la porción de vástago 223 y el ensamble de sujeción de cámara 210. Al girar el anillo de enfoque 226 se ajustan las ópticas de enfoque 228 axialmente a lo largo de un eje longitudinal del dispositivo 200, que enfoca las imágenes iluminadas.
Durante la operación, la fuente de luz seleccionada 220a o 220b proporciona iluminación a un área de trabajo a través de la fibra óptica de iluminación 222. Las imágenes iluminadas del área de trabajo se transportan al ensamble de la cámara 212 a través de una trayectoria óptica. La trayectoria óptica se extiende desde un extremo distal del tubo de inserción 202, a través de una fibra óptica de imagen 224 en el tubo de inserción 202, a través de un conjunto de ópticas de enfoque 228 en el ensamble de foco 208 al ensamble de cámara de video 212, que incluye un ensamble del dispositivo acoplado cargado (CCD) 230 para convertir las imágenes en datos de imagen. El ensamble de CCD puede incluir, por ejemplo, un CCD rojo, un CCD verde, y un CCD azul para generar los datos de imagen RGB. En otros casos, el ensamble de CCD puede incluir, por ejemplo, un sensor individual con una configuración de patrón de Bayern para suministrar los datos RGB. Los datos de imagen se transportan en una señal de video al dispositivo de cómputo 104.
El dispositivo 200 también incluye un conjunto de anillos colectores o cables para proporcionar potencia desde el cabezal de la cámara 212 a las fuentes de luz 220. En particular, el artroscopio de video 200 incluye un anillo colector montado en C 232, un anillo colector de ensamble de foco 234, y un anillo colector de ensamble de inserción 236. El artroscopio de video 200 también incluye cables 238 que se extienden entre el anillo colector de montaje en C 232 y el anillo colector de ensamble de foco 234, y los cables 240 que se extienden entre el anillo colector de ensamble de foco 234 y el anillo colector de ensamble de inserción 240. Un conjunto final de cables se extiende desde el anillo colector de ensamble de inserción 240 y las fuentes de luz 220. La corriente eléctrica se proporciona desde el cabezal de la cámara 212 a través de un anillo colector de montaje en C 232, a través de los cables 234, a través del anillo colector de ensamble de foco 234 a través de los cables 240, a través del anillo colector de ensamble de inserción 236, y finalmente a través de los cables 242 a las fuentes de luz 220. El uso de los anillos colectores 232, 234 y 236 permite que el cabezal de la cámara 212, el anillo de foco 208, la porción de vástago 223 y el ensamble de inserción 206 giren uno con respecto al otro según sea necesario, mientras que aún tienen potencia transportada desde le cabezal de la cámara 212 a las fuentes de luz 220.
La figura 3 ilustra un ejemplo alternativo de un artroscopio de video 300 que se puede utilizar con el sistema 100, por ejemplo, como el dispositivo de video endoscópico 102. En esta alternativa, la potencia eléctrica se transmite desde el cabezal de la cámara al artroscopio de video a través de un sistema de transmisión de potencia inalámbrica. En particular, en el artroscopio de video 300, el anillo colector de montaje en C 232 se reemplaza con dos bobinas 302 y 304. La primera bobina 302 (emisor) se coloca en el cabezal de la cámara 312 y la segunda bobina 304 (receptor) se coloca en el artroscopio de video en el ensamble de sujeción de cámara 310. La primera bobina 302 transmite potencia a la segunda bobina 304 utilizando acoplamiento inductivo utilizando el campo cercano. La potencia luego es transmitida de la segunda bobina (recepción) 304 a través de los cables eléctricos y anillos colectores a las fuentes de luz de la misma manera como se describió con respecto al dispositivo 200.
En una alternativa, la segunda bobina 304 se puede colocar en el poste de iluminación 218 o en cualquier otro lugar en el ensamble de inserción 208. En esta alternativa, la potencia se transmite a la segunda bobina 304 a través del acoplamiento de campo lejano. Ya que la segunda bobina 304 se localiza en el ensamble de inserción, los anillos colectores y los cables en el ensamble de foco 208 no son necesarios.
La figura 4 muestra un ejemplo de un procedimiento 400 para segmentar las características en los datos de imagen, y desplegar una imagen correspondiente con la segmentación. El procedimiento 100 por ejemplo, se implementa por medio del procesador 104c cuando se ejecuta la aplicación de visualización 108b pero otros sistemas o configuraciones pueden realizar el procedimiento 400. El procedimiento 400 mejora las imágenes capturadas por un dispositivo de video endoscópico para visualizar mejor las áreas de interés dentro del campo de imagen, pueden ser aspectos anatómicos u objetos externos introducidos en el campo de visión.
El procesador 104c accede datos de imagen que representan una imagen capturada por el dispositivo de video endoscópico, tal como artroscopio de video (401 ). Los datos de imagen pueden corresponder a una imagen de auto-fluorescencia capturada utilizando, por ejemplo, la fuente de luz de banda estrecha 220b o una imagen de luz visible capturada utilizando, por ejemplo, la fuente de luz de banda ancha 220a. La imagen puede ser un tejido interno o estructuras anatómicas de un paciente. Los datos de imagen se codifican utilizando un primer espacio de color que es apropiado para la captura de imágenes (un espacio de color capturado). Por ejemplo, el primer espacio de color es uno de espacio de color, RGB, YUV, YPrPb o YcrCb.
El procesador 104c convierte los datos de imagen accesados desde el primer espacio de color a un segundo espacio de color diferente del primer espacio de color (404). El segundo espacio de color es apropiando para la segmentación de una o más áreas de interés (un espacio de color de segmentación).
La capacidad apropiada de un espacio de color como un espacio de color de segmentación se determina por su capacidad para discriminar colores individuales, reducir los artefactos de metamerismo de color y permitir la implementación más conveniente para soportar la unidad de procesamiento en tiempo real. El segundo espacio de color puede ser, por ejemplo, HSV, Lab o HSY.
El procesador 104c identifica una ubicación de una característica en los datos de imagen al analizar los datos de imagen en el segundo espacio de color (406). La característica puede incluir tejido, una estructura anatómica o un objeto externo introducido en el paciente. Para determinar la característica, el procesador 104c puede realizar, por ejemplo, segmentación de color en los datos de imagen en el segundo espacio de color para determinar las características. Como un ejemplo, después de convertir una imagen fluorescente al segundo espacio de color (por ejemplo, HSV) el procesador 104c puede analizar la distribución de tonalidades en la imagen, por ejemplo, al generar un histograma de los valores de las tonalidades de los pixeles en los datos de imagen en el segundo espacio de color. Los grupos de pixeles que corresponden a las diferentes poblaciones en el histograma (es decir, diferentes gamas de tonalidades) pueden corresponder a diferentes tejidos en las imágenes. El procesador 104c puede identificar los pixeles que están clasificados dentro de la población (gama de tonalidades) en los datos del histograma que corresponden al tejido de interés (u otras características) y generar datos de segmentación que indican los pixeles que están clasificados dentro de esa población.
En otro ejemplo, el procesador 104c puede utilizar diferencias de color relativas para identificar tejidos particulares o para separar regiones de una imagen que corresponde a un tejido de interés desde otras regiones de la imagen. Por ejemplo, en ciertos casos la tonalidad del tejido ACL femoral es normalmente diferente de la tonalidad de las porciones de fondo de una imagen y otros tejido. En las imágenes de auto-fluorescencia, por ejemplo, las regiones que corresponden a un ACL con frecuencia tienen un color generalmente azul, mientras que las regiones de fondo normalmente parecen más púrpura. De este modo, las regiones de fondo de una imagen por lo tanto son normalmente desplazadas al rojo con respecto a las regiones que muestran el tejido del ACL. El procesador 104c puede utilizar esta información para distinguir el tejido de ACL desde el fondo.
Por ejemplo, los pixeles en una imagen de rodilla de auto-fluorescencia se pueden agrupar de acuerdo con los valores de tonalidad de los pixeles (por ejemplo, utilizando un histograma u otra técnica). Un primer grupo y un segundo grupo de píxeles es entonces identificado de entre los agrupamientos. Por ejemplo, cuando se utiliza un histograma, el procesador 104c puede determinar primeros y segundos conjuntos de píxeles que están clasificados dentro de la primera y segunda gamas de tonalidades, respectivamente, en el histograma. El primer y segundo grupos se pueden identificar, por ejemplo, al eliminar primero la información extraña que no cumple con las valores mínimos de saturación como también valor mínimo de intensidad, luego correlacionar las poblaciones restantes con las distribuciones gaussianas para identificar las poblaciones distintas dentro del histograma, o alternativamente emplear un algoritmo de detección de etapas múltiples incluyendo el filtrado de paso bajo y eliminación de valor atípico luego detectar las poblaciones por formación de umbrales del primer y segundo derivados con el objetivo de identificar diferentes poblaciones en la distribución procesada del histograma de tonalidades. Fuera del primer y segundo grupos, el procesador 104c selecciona el grupo con los píxeles más azules (con respecto al otro grupo) que correspondan al tejido del ACL y genera datos de segmentación que indican esos píxeles. Cuando se utiliza un histograma, el procesador 104c puede seleccionar el conjunto de píxeles que están clasificados dentro de la escala de tonalidades que son más azules.
De manera similar, el análisis de la distribución de píxeles de acuerdo con la tonalidad puede indicar regiones adicionales o diferentes en una imagen. En algunas implementaciones, un grupo de píxeles que incluye el número más grande de píxeles se puede designar como fondo, ya que el fondo es normalmente el área más grande de una imagen.
En algunas situaciones, la interoperabilidad de diferentes sistemas de ópticas, de sensores de cámara y de procesamiento se mejora al analizar la distribución de tonalidades en una imagen. Bajo las mismas condiciones de iluminación, las diferentes configuraciones del dispositivo o dispositivos pueden producir una gama de diferentes tonalidades absolutas. Sin embargo, el análisis de la distribución de tonalidades en una imagen (por ejemplo, las diferencias en tonalidad entre las diferentes regiones de una imagen) pueden permitir la precisión confiable a pesar de estas variaciones.
El procesador 104c almacena los datos de segmentación que indican la ubicación de características en los datos de imagen (408) y convierte los datos de imagen del segundo espacio de color a un tercer espacio de color (410). El tercer espacio de color es apropiado para desplegarse en una dispositivo de despliegue y puede ser, por ejemplo, uno de RGB, YUV, YPrPb, o YcrCb.
Con base en los datos de segmentación y los datos de imagen en el tercer espacio de color, el procesador 104c despliega la imagen con una indicación de la ubicación identificada de las características (412). La ubicación de las características se puede identificar, por ejemplo, por una máscara binaria que se utiliza para superposición de un pseudo color en una representación de escala en gris de la imagen original antes del procesamiento. Como otro ejemplo, los datos de segmentación se pueden utilizar para generar una máscara que se mapea directamente a uno de los canales RGB estándar y se excluye de los canales restantes de manera que la segmentación solamente aparezca en uno de esos canales de despliegue. También, por ejemplo, los datos de segmentación se pueden procesar además para crear una región esquemática que se mezcla en alfa en la imagen original como una superposición.
Aunque se describió anteriormente con respecto al sistema 100, el procedimiento 400 se puede realizar independiente del vehículo particular para capturar la imagen de energía auto-fluorescente, fluorescente o visible. En algunas implementaciones, los límites del tejido (por ejemplo, bordes) u otras regiones de interés se detectan y superponen con salida de video en tiempo real desde un artroscopio de video, tal como artroscopio de video 200.
En los mismos casos, el procedimiento 400 se puede realizar para ayudar a la visualización de características de interés sin calibración definida previamente. Otros procedimientos pueden requerir un conocimiento a priori de la respuesta de la señal del sistema a través de las ópticas, sensor de la cámara, cualquier línea de tubería de procesamiento pre-existente bajo iluminación de excitación y puede necesitar soportar una calibración para corregir variaciones en cada óptica del sistema individual y respuesta electrónica con el fin de separar de forma adecuada la señal de respuesta del tejido objetivo u objeto desde la respuesta del sistema de fondo. El procedimiento 400 puede no necesitar dicha calibración bajo circunstancias apropiadas.
La figura 5A es una ilustración que muestra un ejemplo de una imagen de auto-fluorescencia 500 capturada en el espacio RGB. La imagen 500 se puede capturar, por ejemplo, utilizando la fuente de luz de banda estrecha 220b. La imagen es de muestras de tejido de una rodilla de humano, que incluye un área de huella de ACL femoral 502a y 52b y cartílago 504a y 504b desde el cóndilo femoral. Ambas de estas estructuras tienen colágeno, pero el ACL tiene un tipo diferente de colágeno, que da como resultado la huella femoral 502a y 502b que presenta fluorescencia en un color azul claro, mientras que el cartílago 504a y 504b presenta fluorescencia en púrpura. La huella de ACL es este ejemplo es la característica anatómica de interés.
La figura 5B muestra un ejemplo de un histograma 520 generado con base en la imagen 500 después de que la imagen 500 se ha convertido en un espacio de color alterno, tal como HSV. El histograma tiene tres grupos principales de pixeles. El primer grupo 522 se centra alrededor de 200 grados. El segundo grupo 524 se centra alrededor de los 275 grados. El tercer grupo 526 se centra alrededor de los 315 grados. El tercer grupo 526 incluye el conteo más alto de pixeles y por lo tanto puede designarse como el fondo (en algunas implementaciones, estos pixeles pueden haber sido filtrados fuera antes de la formación del histograma). En este caso, el primer y segundo grupos 522 y 524 corresponden a los dos tipos de tejido. Ya que el tejido de ACL es más azul con respecto al cartílago del cóndilo femoral, el grupo más azul de pixeles (el primer grupo 522) se selecciona correspondiente al tejido del ACL.
La figura 5C es una ilustración que muestra un ejemplo de una imagen 530, con una máscara de segmentación 532 derivada desde las poblaciones del histograma 520. La máscara de segmentación indica la ubicación de la huella del ACL (la característica anatómica de interés). En este caso, la imagen original se envía en el canal verde de un despliegue y la máscara de segmentación se envía en el canal rojo del despliegue. Esto*da como resultado una máscara de segmentación roja 532 que se muestra sobre las características de interés (la huella del ACL), mientras que el resto de las características anatómicas se muestran en verde.
La figura 6 muestra un ejemplo de un procedimiento 600 para identificar las características en datos de imagen y utilizar esas características en un modelo anatómico. El procedimiento 600, por ejemplo, se implementa por medio del procesador 104c cuando se ejecuta la aplicación de visualización 108b, pero otros sistemas y configuraciones pueden realizar el procedimiento 400.
En general, el proceso 600 utiliza conversión de espacio de color para segmentación, tal como se describe con respecto al procedimiento 400, para identificar las características de punto de referencia en anatomía formada en imágenes y utilizar esas características de punto de referencia, potencialmente con otras características de punto de referencia, para construir una característica con base en el modelo compuesto de los puntos anatómicos conocidos. Este modelo entonces se puede utilizar para identificar las características anatómicas objetivo o área en el campo de visión y desplegar las características objetivo o áreas en una manera que las distinga de las otras áreas. En algunos casos, los datos de formación de imágenes de auto-fluorescencia pueden mejorar el rendimiento del modelo basado en la característica que representa el tejido formado en imágenes.
El procesador 104c accede datos de imagen codificados en un primer espacio de color, por ejemplo, en forma de un video en tiempo real desde un artroscopio (602). Los datos de imagen pueden corresponder a una imagen de auto-fluorescencia capturada utilizando, por ejemplo, una fuente de luz de banda estrecha 220b o una imagen de luz visible capturada utilizando, por ejemplo, la fuente de luz de banda ancha 220a. La imagen puede ser un tejido interno o estructuras anatómicas de un paciente. Los datos de imagen se codifican utilizando un primer espacio de color que es apropiado para capturar la imagen (un espacio de color de despliegue). Por ejemplo, el primer espacio de color es uno de los espacios de color de RGB, YUV, YPrPb, o YcrCb.
El procesador 104c convierte los datos de imagen accesados del primer espacio de color a un segundo espacio de color diferente del primer espacio de color (604). El segundo espacio de color es apropiado para segmentación de una o más áreas de interés (un espacio de color de segmentación), como se describió anteriormente con respecto a la acción 404.
El procesador 104c identifica las ubicaciones de una o más características de punto de referencia en los datos de imagen por medio del análisis de datos de imagen en el segundo espacio de color (606). El procesador 104c lo hace así, por ejemplo, utilizando cualquiera de las técnicas descritas anteriormente con respecto a la acción 406. El procesador 104c puede también identificar la ubicación de las características de punto de referencia adicionales, tal como puntos o bordes, utilizando datos de imagen en el primer o segundo espacios de color.
El procesador rastrea la posición de las características de punto de referencia a través de múltiples estructuras de video (608). Las múltiples estructuras de video pueden capturar las características de punto de referencia en diferentes posiciones con respecto al sujeto (por ejemplo, el video es capturado desde múltiples perspectivas). Con base en los cambios en la posición de las características rastreadas, el procesador utiliza, por ejemplo, técnicas de estimación de movimiento para calcular la manera en la cual se mueven las características. Por ejemplo, el procesador determina vectores de movimiento que describen la manera en la que se mueven las características rastreadas.
El procesador genera un modelo anatómico con base en la característica tridimensional (3D) con base en el movimiento de las características rastreadas (610). Una vez que se genera el modelo en 3D, el procesador determina la ubicación de una característica anatómica objetivo (612). Por ejemplo, cuando el modelo representa una porción de un fémur, se puede determinar una ubicación del ACL o PCL con base en los aspectos del modelo. El procesador puede calcular la ubicación de una característica anatómica al tomar en cuenta las relaciones anatómicas conocidas, tal como las relaciones, proporciones y otros aspectos de las características anatómicas. Por ejemplo, la curvatura del cóndilo femoral se puede determinar con base en el modelo en 3D. Utilizando este valor de curvatura, la posición de un ACL, PCL u otra característica se puede determinar con respecto al modelo en 3D, con base en una relación conocida que describe el tamaño y colocación de las características de la rodilla.
El procesador entonces despliega las imágenes correspondientes a los datos de imagen con una indicación de la ubicación de la característica anatómica objetivo (614). Por ejemplo, la ubicación de la característica anatómica de interés se indica en el video en tiempo real alimentado desde el artroscopio como una superposición. El procesador continúa rastreando la posición de las características rastreadas. Como la vista del sujeto cambia, el procesador actualiza el despliegue de video para mostrar los cambios en la posición de la característica anatómica de interés. Las técnicas de localización de la característica adicional y de visualización se pueden utilizar, incluyendo aquellas descritas en la Solicitud de Patente de E.U.A 12,967,435 presentada el 14 de diciembre del 2010 (y que se publicó como la Publicación de la Solicitud de Patente de E.U.A. No. 201 1/0141 140), que se incorpora a la presente por referencia en su totalidad.
Se han descrito un número de implementaciones. Sin embargo, se entenderá que se pueden hacer varias modificaciones. Por ejemplo, aunque se han descrito ejemplos del procesamiento y modelación de imágenes para usarse con artroscopios de video, las mismas técnicas se pueden utilizar con otros dispositivo y formas de captura de imágenes.
Además, las formación de imágenes de auto-fluorescencia se puede realizar utilizando cualquier dispositivo apropiado o combinación de dispositivos, y no se limita a los dispositivos particulares descritos. Por ejemplo, la figura 2D muestra una configuración en donde la fuente de luz visible y la fuente de luz de banda estrecha para excitación se forman de LEDs separados que se montan ambos en el brazo lateral. Es posible que una fuente de luz, hecha de una multitud de chips que se emiten en diferentes colores, se localice en el brazo lateral o en cualquier otra ubicación en el endoscopio y se pueda intercalar entre la luz visible y la luz adecuada para auto-fluorescencia. Dicha fuente de luz de LED se puede mencionar como LEDs Blancos ajustables y se puede utilizar para intercalar según sea necesario entre la luz visible o la luz de excitación por fluorescencia. Si un LED (u otra tecnología en estado sólido) se vuelve disponible, que se puede intercalar o cambiar de una emisión de luz de banda ancha a banda estrecha, se puede utilizar en lugar de dos LEDs que se muestran en la figura 2D.
La iluminación para la excitación visible o fluorescente se puede suministrar en una manera diferente a otro canal de iluminación de un endoscopio. Por ejemplo, la excitación de fluorescencia se puede suministrar a través de una sonda separada desde el artroscopio de video. En esta caso, la fuente de luz visible se puede montar en el artroscopio de video, con la fuente de LED para fluorescencia colocada en una sonda o instrumento separado. La fuente de LED para fluorescencia se pude colocar en un extremo distal o proximal de la sonda individual. Si la fuente de LED para fluorescencia se coloca en el extremo proximal, la energía de excitación se puede suministrar distalmente a través de una fibra. El LED para fluorescencia y/o fibra que suministra la energía de excitación para fluorescencia se puede incrustar en otros tipos de instrumentos utilizados en procedimientos artroscópicos tal como guía de perforación, instrumento manual o cánula reutilizable o desechable que se ajusta alrededor de la guía de perforación, endoscopio o sonda separada. Además, la iluminación se puede generar en un dispositivo auto-energizado independiente y se puede suministrar al dispositivo de suministro por medio de una guía de luz flexible acoplada por un poste en el dispositivo de suministro. En esta última modalidad, la energía de excitación se puede generar por medio de un láser monocromático, LED o una fuente de luz blanca filtrada en el dispositivo autónomo.
Asimismo, otras implementaciones están dentro del alcance de las siguientes reivindicaciones.

Claims (32)

NOVEDAD DE LA INVENCIÓN REIVINDICACIONES
1.- Un método que comprende: acceder datos de imagen que representan una imagen capturada por un dispositivo de video endoscópico, en donde los datos de imagen se codifican en un primer espacio de color; convertir los datos de imagen accesados desde el primer espacio de color a un segundo espacio de color, en donde el segundo espacio de color es diferente del primer espacio de color; identificar una ubicación de una característica en la imagen al analizar los datos de imagen en el segundo espacio de color; almacenar los datos de segmentación que indican la ubicación de las características en la imagen; y desplegar, con base en los datos de segmentación, la imagen con una indicación de la ubicación identificada de las características.
2.- El método de conformidad con la reivindicación 1 , caracterizado además porque desplegar la imagen con una indicación de la ubicación identificada de las características comprende: convertir los datos de imagen del segundo espacio de color a un tercer espacio de color; desplegar, con base en los datos de segmentación y los datos de imagen en el tercer espacio de color, la imagen con una indicación de la ubicación identificada de las características.
3 - El método de conformidad con las reivindicaciones 1 o 2, caracterizado además porque la una o más características incluye un tipo de tejido, una estructura anatómica, o un objeto externo introducido en un paciente.
4 - El método de conformidad con cualquiera de las reivindicaciones 1 a 3, caracterizado además porque identificar la ubicación de la característica en la imagen al analizar los datos de imagen en el segundo espacio de color comprende: generar un histograma de los valores de tonalidad de píxeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color; identificar píxeles que estén clasificados dentro de una gama de tonalidades en el histograma que correspondan a las características, en donde los datos de segmentación indican los píxeles que están clasificados dentro de la gama de tonalidades en el histograma que corresponden a las características.
5.- El método de conformidad con cualquiera de las reivindicaciones 1 a 3, caracterizado además porque identificar la ubicación de la característica en la imagen al analizar los datos de imagen en el segundo espacio de color, comprende: agrupar los píxeles en los datos de imagen en el segundo espacio de color en grupos con base en los valores de tonalidad de los píxeles; determinar un primer grupo de píxeles de entre los grupos de píxeles; determinar un segundo grupo de píxeles de entre los grupos de píxeles; seleccionar uno del primer o segundo grupo de píxeles con base en una diferencia de color relativa entre el primer o segundo grupos de píxeles, en donde los datos de segmentación indican el grupo seleccionado de píxeles.
6 - El método de conformidad con la reivindicación 5, caracterizado además porque: agrupar píxeles comprende generar un histograma de valores de tonalidad de píxeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color; determinar un primer grupo de píxeles comprende determinar un primer conjunto de píxeles que están clasificados dentro de una primera gama de tonalidades en el histograma; determinar un segundo grupo de píxeles comprende determinar un segundo conjunto de píxeles que están clasificados dentro de una segunda gama de tonalidades en el histograma; seleccionar uno del primer o segundo grupo de píxeles comprende seleccionar uno del primer o segundo conjunto de píxeles con base en la diferencia de color relativa entre la primera gama de tonalidades y la segunda gama de tonalidades.
7 - El método de conformidad con cualquiera de las reivindicaciones 1 a 6, caracterizado además porque el primer espacio de color es uno de RGB, YUV, YPrPb, o YcrCb.
8. - El método de conformidad con cualquiera de las reivindicaciones 1 a 6, caracterizado además porque el segundo espacio de color es uno de HSV, Lab o HSY.
9. - Un sistema que comprende: un dispositivo de video endoscópico configurado para: generar datos de imagen que representan una imagen capturada por el dispositivo de video endoscópico, en donde los datos de imagen se codifican en un primer espacio de color; transmitir los datos de imagen a un dispositivo de cómputo; y un dispositivo de cómputo configurado para: recibir los datos de imagen transmitidos por el dispositivo de video endoscópico; convertir los datos de imagen recibidos del primer espacio de color a un segundo espacio de color, en donde el segundo espacio de color es diferente del primer espacio de color; identificar una ubicación de una característica en la imagen al analizar los datos de imagen en el segundo espacio de color; almacenar los datos de segmentación que indican la ubicación de las características en la imagen; desplegar, con base en los datos de segmentación, la imagen en un dispositivo de despliegue con una indicación de la ubicación identificada de las características.
10.- El sistema de conformidad con la reivindicación 9, caracterizado además porque, para desplegar la imagen en el dispositivo de despliegue con una indicación de la ubicación identificada de las características, el dispositivo de cómputo se configura para: convertir los datos de imagen del segundo espacio de color a un tercer espacio de color; desplegar, con base en los datos de segmentación y los datos de imagen en el tercer espacio de color, la imagen en el dispositivo de despliegue con una indicación de la ubicación identificada de las características.
11 .- El sistema de conformidad con las reivindicaciones 9 o 10, caracterizado además porque las una o más características incluye un tipo de tejido, estructura anatómica o un objeto externo introducido en un paciente.
12. - El sistema de conformidad con cualquiera de las reivindicaciones 9 a 1 1 , caracterizado además porque, para identificar la ubicación de la característica en la imagen al analizar los datos de imagen en el segundo espacio de color, el dispositivo de cómputo se configura para: generar un histograma de valores de tonalidad de píxeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color; identificar píxeles que están clasificados dentro de una gama de tonalidades en el histograma que corresponden a las características, en donde los datos de segmentación indican los píxeles que están clasificados dentro de la gama de tonalidades en el histograma que corresponden a las características.
13. - El sistema de conformidad con cualquiera de las reivindicaciones 9 a 1 1 , caracterizado además porque para identificar la ubicación de la característica en la imagen al analizar los datos de imagen en el segundo espacio de color, el dispositivo de cómputo se configura para: agrupar píxeles en los datos de imagen en el segundo espacio de color en grupos con base en valores de tonalidad de los píxeles; determinar un primer grupo de píxeles de entre los grupos de píxeles; determinar un segundo grupo de píxeles de entre los grupos de píxeles; seleccionar uno del primer o segundo grupo de píxeles con base en una diferencia de color relativa entre el primer y segundo grupos de píxeles, en donde los datos de segmentación indican el grupo seleccionado de píxeles.
14. - El sistema de conformidad con la reivindicación 13, caracterizado además porque: para agrupar píxeles, el dispositivo de cómputo se configura para generar un histograma de valores de tonalidad de pixeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color; para determinar un primer grupo de pixeles, el dispositivo de cómputo se configura para determinar un primer conjunto de pixeles que están clasificados dentro de una primera gama de las tonalidades en el histograma; para determinar un segundo grupo de pixeles, el dispositivo de cómputo se configura para determinar un segundo conjunto de pixeles que están clasificados dentro de una segunda gama de tonalidades en el histograma; para seleccionar uno del primer o segundo grupo de pixeles, el dispositivo de cómputo se configura para seleccionar uno del primer o segundo conjunto de pixeles con base en una diferencia de color relativa entre la primera gama de tonalidades y la segunda gama de tonalidades.
15. - El sistema de conformidad con cualquiera de las reivindicaciones 9 a 14, caracterizado además porque el primer espacio de color es uno de RGB, YUV, YPrPb, o YcrCb.
16. - El sistema de conformidad con cualquiera de las reivindicaciones 9 a 14, caracterizado además porque el segundo espacio de color es uno de HSV, Lab o HSY.
17. - Un método que comprende: acceder datos de imagen que representan un video capturado por un dispositivo de video endoscópico, en donde los datos de imagen se codifican en un primer espacio de color; convertir los datos de imagen accesados del primer espacio de color a un segundo espacio de color, en donde el segundo espacio de color es diferente al primer espacio de color; identificar una ubicación de una característica de punto de referencia en el video al analizar los datos de imagen en el segundo espacio de color; rastrear una posición de la característica de punto de referencia sobre múltiples estructuras de los datos de imagen; generar un modelo anatómico con base en la característica de punto de referencia rastreada; determinar una ubicación de una característica anatómica objetivo en los datos de video con base en el modelo anatómico; desplegar el video con una indicación de la ubicación de la característica objetivo.
18.- El método de conformidad con la reivindicación 17, caracterizado además porque determinar la ubicación de la característica anatómica objetivo comprende determinar la ubicación de la característica anatómica objetivo con base en el modelo anatómico y relaciones anatómicas conocidas entre los aspectos del modelo y la característica anatómica objetivo.
19.- El método de conformidad con las reivindicaciones 17 o 18, caracterizado además porque generar un modelo anatómico con base en la característica de punto de referencia rastreada comprende determinar el movimiento de la característica de punto de referencia con base en los cambios en posición de la característica de punto de referencia entre las múltiples estructuras y generar el modelo anatómico con base en el movimiento de la característica de punto de referencia.
20.- El método de conformidad con cualquiera de las reivindicaciones 17 a 19, caracterizado además porque identificar la ubicación de la característica de punto de referencia en la imagen al analizar los datos de imagen en el segundo espacio de color comprende: generar un histograma de los valores de tonalidad de píxeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color; identificar píxeles que están clasificados dentro de una gama de tonalidades en el histograma que corresponden a las características, en donde los datos de segmentación indican los píxeles que están clasificados dentro de la gama de tonalidades en el histograma que corresponden a las características.
21.- El método de conformidad con cualquiera de las reivindicaciones 17 a 19, caracterizado además porque identificar la ubicación de la característica de punto de referencia en la imagen al analizar los datos de imagen en el segundo espacio de color comprende: agrupar píxeles en dos datos de imagen en el segundo espacio de color en grupos con base en valores de tonalidad de los píxeles; determinar un primer grupo de píxeles de entre los grupos de píxeles; determinar un segundo grupo de píxeles de entre los grupos de píxeles; seleccionar uno del primer o segundo grupo de píxeles con base en una diferencia de color relativa entre el primer y segundo grupos de píxeles, en donde los datos de segmentación indican el grupo seleccionado de píxeles.
22.- El método de conformidad con la reivindicación 21 , caracterizado además porque: agrupar los píxeles comprende generar un histograma de valores de tonalidad de píxeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color; determinar un primer grupo de píxeles comprende determinar un primer conjunto de píxeles que están clasificados dentro de una primera gama de tonalidades en el histograma; determinar un segundo grupo de píxeles comprende determinar un segundo conjunto de píxeles que están clasificados dentro de una segunda gama de tonalidades en el histograma; seleccionar uno del primer o segundo grupo de píxeles comprende seleccionar uno del primer o segundo conjunto de píxeles con base en una diferencia de color relativa entre la primera gama de tonalidades y la segunda gama de tonalidades.
23.- El método de conformidad con cualquiera de las reivindicaciones 17 a 22, caracterizado además porque el primer espacio de color es uno de RGB, YUV, YPrPb, o YcrCb.
24 - El método de conformidad con cualquiera de las reivindicaciones 17 a 22, caracterizado además porque el segundo espacio de color es uno de HSV, Lab o HSY.
25.- Un sistema que comprende: un dispositivo de video endoscópico configurado para: generar datos de imagen que representan un video capturado por el dispositivo de video endoscópico, en donde los datos de imagen se codifica en un primer espacio de color; transmitir los datos de imagen a un dispositivo de cómputo; y un dispositivo de cómputo configurado para: recibir los datos de imagen transmitidos por el dispositivo de video endoscópico; convertir los datos de imagen recibidos desde el primer espacio de color a un segundo espacio de color, en donde el segundo espacio de color es diferente del primer espacio de color; identificar una ubicación de una característica de punto de referencia en el video al analizar los datos de imagen en el segundo espacio de color; rastrear una posición de la característica de punto de referencia sobre múltiples estructuras de los datos de imagen; generar un modelo anatómico con base en la característica de punto de referencia rastreado; determinar una ubicación de una característica anatómica objetivo en los datos de video con base en el modelo anatómico; desplegar el video en el dispositivo de despliegue con una indicación de la ubicación de la característica objetivo.
26.- El sistema de conformidad con la reivindicación 25, caracterizado además porque, para determinar la ubicación de la característica anatómica objetivo, el dispositivo de cómputo se configura para determinar la ubicación de la característica anatómica objetivo con base en el modelo anatómico y relaciones anatómicas conocidas entre los aspectos del modelo y la característica anatómica objetivo.
27.- El sistema de conformidad con las reivindicaciones 25 o 26, caracterizado además porque, para generar el modelo anatómico con base en la característica de punto de referencia rastreado, el dispositivo de cómputo se configura para determinar el movimiento de la característica de punto de referencia con base en los cambios en la posición de la característica de punto de referencia entre múltiples estructuras y generar el modelo anatómico con base en el movimiento de la característica de punto de referencia.
28.- El sistema de conformidad con cualquiera de las reivindicaciones 25 a 27, caracterizado además porque, para identificar la ubicación de la característica en la imagen al analizar los datos de imagen en el segundo espacio de color, el dispositivo de cómputo se configura para: generar un histograma de valores de tonalidad de pixeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color; identificar pixeles que están clasificados dentro de una gama de tonalidades en el histograma que corresponden a las características, en donde los datos de segmentación indican los pixeles que están clasificados dentro de la gama de tonalidades en el histograma que corresponden a las características.
29.- El sistema de conformidad con cualquiera de las reivindicaciones 25 a 27, caracterizado además porque para identificar la ubicación de la característica en la imagen al analizar los datos de imagen en el segundo espacio de color, el dispositivo de cómputo se configura para: agrupar pixeles en los datos de imagen en el segundo espacio de color en grupos con base en los valores de tonalidad de los pixeles; determinar un primer grupo de pixeles de entre los grupos de pixeles; determinar un segundo grupo de pixeles de entre los grupos de pixeles; seleccionar uno del primer o segundo grupo de pixeles con base en una diferencia de color relativa entre el primer y segundo grupos de pixeles, en donde los datos de segmentación indican el grupo seleccionado de pixeles.
30.- El sistema de conformidad con la reivindicación 29, caracterizado además porque: para agrupar pixeles, el dispositivo de cómputo se configura para generar un histograma de valores de tonalidad de pixeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color; para determinar un primer grupo de pixeles, el dispositivo de cómputo se configura para determinar un primer conjunto de pixeles que están clasificados dentro de una primera gama de tonalidades en el histograma; para determinar un segundo grupo de pixeles, el dispositivo de cómputo se configura para determinar un segundo conjunto de pixeles que están clasificados dentro de una segunda gama de tonalidades en el histograma; para seleccionar uno del primer o segundo grupo de pixeles, el dispositivo de cómputo se configura para seleccionar uno del primer o segundo conjunto de pixeles con base en una diferencia de color relativa entre la primera gama de tonalidades y la segunda gama de tonalidades.
31. - El sistema de conformidad con cualquiera de las reivindicaciones 25 a 30, caracterizado además porque el primer espacio de color es uno de RGB, YUV, YPrPb, o YcrCb.
32. - El sistema de conformidad con cualquiera de las reivindicaciones 25 a 30, caracterizado además porque el segundo espacio de color es uno de HSV, Lab o HSY.
MX2014010163A 2012-02-23 2013-02-22 Sistema de video endoscopico. MX2014010163A (es)

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
US201261602106P 2012-02-23 2012-02-23
US201261668743P 2012-07-06 2012-07-06
US201261708157P 2012-10-01 2012-10-01
PCT/US2013/027436 WO2013126780A1 (en) 2012-02-23 2013-02-22 Video endoscopic system

Publications (1)

Publication Number Publication Date
MX2014010163A true MX2014010163A (es) 2014-09-16

Family

ID=47843433

Family Applications (1)

Application Number Title Priority Date Filing Date
MX2014010163A MX2014010163A (es) 2012-02-23 2013-02-22 Sistema de video endoscopico.

Country Status (10)

Country Link
US (2) US9715727B2 (es)
EP (2) EP2976987A3 (es)
JP (3) JP6596203B2 (es)
KR (1) KR102028780B1 (es)
CN (2) CN109567724A (es)
AU (2) AU2013222242A1 (es)
IN (1) IN2014DN07441A (es)
MX (1) MX2014010163A (es)
RU (1) RU2657951C2 (es)
WO (1) WO2013126780A1 (es)

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11977998B2 (en) * 2014-05-15 2024-05-07 Storz Endoskop Produktions Gmbh Surgical workflow support system
US20160015469A1 (en) * 2014-07-17 2016-01-21 Kyphon Sarl Surgical tissue recognition and navigation apparatus and method
US10582833B2 (en) * 2014-11-18 2020-03-10 Smith & Nephew, Inc. Endocoupler with induction coupling
US9528938B2 (en) 2015-02-23 2016-12-27 Li-Cor, Inc. Fluorescence biopsy specimen imager and methods
CN107529960B (zh) 2015-05-12 2020-10-02 亚伯拉罕·莱维 动态视野内窥镜
CN107709968A (zh) 2015-06-26 2018-02-16 利康公司 荧光活检样本成像仪及方法
WO2017077882A1 (ja) 2015-11-04 2017-05-11 オリンパス株式会社 画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラム
US10708478B2 (en) * 2016-03-23 2020-07-07 Karl Storz Imaging, Inc. Image transformation and display for fluorescent and visible imaging
WO2017184940A1 (en) 2016-04-21 2017-10-26 Li-Cor, Inc. Multimodality multi-axis 3-d imaging
DE102016108095A1 (de) * 2016-05-02 2017-11-02 Olympus Winter & Ibe Gmbh Endoskopiesystem, Endoskop und Kamerakopf
EP3475919A1 (en) 2016-06-23 2019-05-01 Li-Cor, Inc. Complementary color flashing for multichannel image presentation
WO2018098162A1 (en) * 2016-11-23 2018-05-31 Li-Cor, Inc. Motion-adaptive interactive imaging method
JP6853076B2 (ja) * 2017-03-13 2021-03-31 ソニー・オリンパスメディカルソリューションズ株式会社 内視鏡装置
US10580130B2 (en) 2017-03-24 2020-03-03 Curadel, LLC Tissue identification by an imaging system using color information
US10386301B2 (en) 2017-04-25 2019-08-20 Li-Cor, Inc. Top-down and rotational side view biopsy specimen imager and methods
US10852236B2 (en) 2017-09-12 2020-12-01 Curadel, LLC Method of measuring plant nutrient transport using near-infrared imaging
TW202023489A (zh) * 2018-11-08 2020-07-01 美商外科劇院有限責任公司 用於光學追蹤之系統及方法
EP3998931A4 (en) * 2019-07-16 2023-04-19 Docbot, Inc. REAL-TIME DEPLOYMENT OF MACHINE LEARNING SYSTEMS
CN110969603B (zh) * 2019-11-26 2021-01-05 联博智能科技有限公司 病变位置的相对定位方法、装置及终端设备
CN115136253A (zh) 2020-02-20 2022-09-30 史密夫和内修有限公司 用于关节镜视频分析的方法及用于其的装置
WO2021203082A1 (en) * 2020-04-03 2021-10-07 Smith & Nephew, Inc. User interface for digital markers in arthroscopy
CN111990953A (zh) * 2020-07-22 2020-11-27 浙江优亿医疗器械股份有限公司 一种关节探视器
US11966486B2 (en) * 2021-08-18 2024-04-23 Verizon Patent And Licensing Inc. Systems and methods for image preprocessing and segmentation for visual data privacy
CN116721175B (zh) * 2023-08-09 2023-10-10 安翰科技(武汉)股份有限公司 一种图像显示方法、图像显示装置以及胶囊内窥镜***

Family Cites Families (66)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4756304A (en) * 1986-10-08 1988-07-12 Watanabe Robert S Arthroscopic video camera system
JPS63256916A (ja) 1987-04-15 1988-10-24 Toshiba Corp 電子内視鏡装置
JPH034832A (ja) * 1989-06-01 1991-01-10 Toshiba Corp 電子内視鏡装置
US4969450A (en) * 1990-01-25 1990-11-13 Smith & Nephew Dyonics, Inc. Videoarthroscope with one-handed control
DE4238977C2 (de) * 1992-11-19 1996-12-12 Schoelly Fiberoptic Gmbh Vorrichtung zur Beleuchtung und Inspektion von Hohl- und Zwischenräumen
JP3578457B2 (ja) * 1993-03-31 2004-10-20 ルマ コーポレーション 内視鏡検査システムにおける情報の管理
JPH07234365A (ja) * 1994-02-21 1995-09-05 Olympus Optical Co Ltd 内視鏡撮像装置
DE19629646C2 (de) 1996-07-23 1998-09-10 Wolf Gmbh Richard Verfahren und Vorrichtung zur automatischen Identifikation von Komponenten medizinischer Gerätesysteme
JP3615890B2 (ja) 1996-12-04 2005-02-02 フジノン株式会社 電子内視鏡装置
JPH10216144A (ja) 1997-02-06 1998-08-18 Olympus Optical Co Ltd 超音波診断治療装置
JPH10309258A (ja) 1997-05-13 1998-11-24 Olympus Optical Co Ltd 体腔内観察装置
JP4217357B2 (ja) * 1999-11-15 2009-01-28 オリンパス株式会社 内視鏡用撮像装置および内視鏡システム
US20020138008A1 (en) * 2000-01-13 2002-09-26 Kazuhiro Tsujita Method and apparatus for displaying fluorescence images and method and apparatus for acquiring endoscope images
US6895279B2 (en) 2000-09-15 2005-05-17 Alfred E. Mann Institute For Biomedical Engineering At The University Of Southern California Method and apparatus to treat disorders of gastrointestinal peristalsis
US6692431B2 (en) 2001-09-07 2004-02-17 Smith & Nephew, Inc. Endoscopic system with a solid-state light source
US8194122B2 (en) * 2002-03-12 2012-06-05 Karl Storz Imaging, Inc. Universal scope reader
US8599250B2 (en) 2002-03-12 2013-12-03 Karl Storz Imaging, Inc. Wireless camera coupling
US8723936B2 (en) 2002-03-12 2014-05-13 Karl Storz Imaging, Inc. Wireless camera coupling with rotatable coupling
JP2003334163A (ja) 2002-03-14 2003-11-25 Olympus Optical Co Ltd 内視鏡画像処理装置
JP2004024656A (ja) * 2002-06-27 2004-01-29 Fuji Photo Film Co Ltd 蛍光内視鏡装置
US7613335B2 (en) * 2003-02-12 2009-11-03 The University Of Iowa Research Foundation Methods and devices useful for analyzing color medical images
JP3810381B2 (ja) 2003-04-25 2006-08-16 オリンパス株式会社 画像表示装置、画像表示方法および画像表示プログラム
JP4547402B2 (ja) 2003-04-25 2010-09-22 オリンパス株式会社 画像表示装置、画像表示方法および画像表示プログラム
US7397364B2 (en) 2003-11-11 2008-07-08 Biosense Webster, Inc. Digital wireless position sensor
EP1645219B1 (en) 2004-02-16 2016-11-09 Olympus Corporation Endoscope system
JP4370201B2 (ja) * 2004-05-14 2009-11-25 オリンパス株式会社 内視鏡
WO2005110189A1 (ja) 2004-05-14 2005-11-24 Olympus Corporation 内視鏡
US8480566B2 (en) * 2004-09-24 2013-07-09 Vivid Medical, Inc. Solid state illumination for endoscopy
JP2006198106A (ja) 2005-01-19 2006-08-03 Olympus Corp 電子内視鏡装置
US7668450B2 (en) * 2005-01-28 2010-02-23 Stryker Corporation Endoscope with integrated light source
US8029439B2 (en) 2005-01-28 2011-10-04 Stryker Corporation Disposable attachable light source unit for an endoscope
US8672922B2 (en) 2005-12-20 2014-03-18 Intuitive Surgical Operations, Inc. Wireless communication in a robotic surgical system
US8290600B2 (en) 2006-07-21 2012-10-16 Boston Scientific Scimed, Inc. Electrical stimulation of body tissue using interconnected electrode assemblies
JP5121204B2 (ja) * 2006-10-11 2013-01-16 オリンパス株式会社 画像処理装置、画像処理方法、および画像処理プログラム
US8498695B2 (en) * 2006-12-22 2013-07-30 Novadaq Technologies Inc. Imaging system with a single color image sensor for simultaneous fluorescence and color video endoscopy
CN100565582C (zh) 2006-12-31 2009-12-02 四川大学华西医院 一种筛选食管微小病变的图像处理方法
EP1998165A1 (en) 2007-06-01 2008-12-03 The European Community, represented by the European Commission Method of fluorescence imaging
JP5106928B2 (ja) 2007-06-14 2012-12-26 オリンパス株式会社 画像処理装置および画像処理プログラム
KR101393487B1 (ko) * 2007-10-25 2014-05-14 삼성전자주식회사 디스플레이장치 및 그의 화질개선방법
JP5312807B2 (ja) * 2008-01-08 2013-10-09 オリンパス株式会社 画像処理装置および画像処理プログラム
US9603512B2 (en) * 2008-04-25 2017-03-28 Karl Storz Imaging, Inc. Wirelessly powered medical devices and instruments
DE102008027905A1 (de) 2008-06-12 2009-12-17 Olympus Winter & Ibe Gmbh Verfahren und Endoskop zur Verbesserung von Endoskopbildern
JP2009302960A (ja) 2008-06-13 2009-12-24 Olympus Corp 映像信号処理装置並びにプログラム及び方法
JP5305850B2 (ja) 2008-11-14 2013-10-02 オリンパス株式会社 画像処理装置、画像処理プログラムおよび画像処理方法
JP2010187756A (ja) * 2009-02-16 2010-09-02 Olympus Corp 画像処理装置、画像処理方法および画像処理プログラム
RU2406144C1 (ru) * 2009-03-27 2010-12-10 Учреждение Российской академии наук Институт проблем управления им. В.А. Трапезникова РАН Способ компьютерной обработки и анализа изображений разнотипных объектов биологической природы
JP5361511B2 (ja) 2009-04-21 2013-12-04 オリンパス株式会社 内視鏡システム
US20120316421A1 (en) * 2009-07-07 2012-12-13 The Johns Hopkins University System and method for automated disease assessment in capsule endoscopy
JP2011024135A (ja) * 2009-07-17 2011-02-03 Fuji Xerox Co Ltd 画像読取装置、画像形成装置、およびプログラム
US8363097B2 (en) * 2009-07-23 2013-01-29 Smith & Nephew, Inc. Endoscopic imaging system
JP5624745B2 (ja) 2009-10-23 2014-11-12 オリンパス株式会社 内視鏡システム
CA2779526C (en) 2009-11-03 2022-12-06 City Of Hope Truncated epiderimal growth factor receptor (egfrt) for transduced t cell selection
WO2011081922A1 (en) 2009-12-14 2011-07-07 Smith & Nephew, Inc. Visualization guided acl localization system
US20110301447A1 (en) * 2010-06-07 2011-12-08 Sti Medical Systems, Llc Versatile video interpretation, visualization, and management system
DE102010039731A1 (de) * 2010-08-25 2012-03-01 Olympus Winter & Ibe Gmbh Elektrisches Verbindungselement und Endoskopiesystem
WO2013084975A1 (ja) 2011-12-08 2013-06-13 オリンパス株式会社 蛍光センサおよび蛍光センサの製造方法
JP6141196B2 (ja) 2011-12-28 2017-06-07 オリンパス株式会社 蛍光観察装置
DE102011122602A1 (de) 2011-12-30 2013-07-04 Karl Storz Gmbh & Co. Kg Vorrichtung und Verfahren zur endoskopischen Fluoreszenzdetektion
JP5558635B2 (ja) 2012-02-17 2014-07-23 オリンパスメディカルシステムズ株式会社 内視鏡装置
WO2013121610A1 (ja) 2012-02-17 2013-08-22 オリンパスメディカルシステムズ株式会社 内視鏡装置及び医用システム
CN103796571B (zh) 2012-03-29 2017-10-20 奥林巴斯株式会社 内窥镜***
JP6103824B2 (ja) 2012-06-04 2017-03-29 オリンパス株式会社 蛍光内視鏡装置
US9629518B2 (en) 2012-12-27 2017-04-25 Arthrex, Inc. Contactless camera connection system
IN2013DE01670A (es) 2013-06-03 2015-06-26 Samhotra Navneet
DE102013213247A1 (de) 2013-07-05 2015-01-08 Olympus Winter & Ibe Gmbh Videoendoskopiesystem, Kopplungseinrichtung, Videoendoskop und Kontrolleinrichtung
US10582833B2 (en) * 2014-11-18 2020-03-10 Smith & Nephew, Inc. Endocoupler with induction coupling

Also Published As

Publication number Publication date
RU2657951C2 (ru) 2018-06-18
CN104246828B (zh) 2018-11-23
US10783626B2 (en) 2020-09-22
CN109567724A (zh) 2019-04-05
EP2976987A2 (en) 2016-01-27
US20150062153A1 (en) 2015-03-05
IN2014DN07441A (es) 2015-04-24
AU2013222242A1 (en) 2014-09-18
EP2817782A1 (en) 2014-12-31
JP6843926B2 (ja) 2021-03-17
AU2018205109A1 (en) 2018-07-26
RU2014136476A (ru) 2016-04-10
JP2019188223A (ja) 2019-10-31
CN104246828A (zh) 2014-12-24
KR20140127887A (ko) 2014-11-04
WO2013126780A9 (en) 2014-09-04
US9715727B2 (en) 2017-07-25
US20170202443A1 (en) 2017-07-20
JP6596203B2 (ja) 2019-10-23
WO2013126780A1 (en) 2013-08-29
JP2018089424A (ja) 2018-06-14
EP2817782B1 (en) 2023-08-09
JP6920234B2 (ja) 2021-08-18
EP2976987A3 (en) 2016-06-08
KR102028780B1 (ko) 2019-10-04
JP2015509404A (ja) 2015-03-30

Similar Documents

Publication Publication Date Title
US10783626B2 (en) Video endoscopic system
US11033175B2 (en) Endoscope system and operation method therefor
US11272830B2 (en) Endoscope system and operation method therefor
JP6006199B2 (ja) 蛍光観察装置
CN107847117B (zh) 图像处理装置及图像处理方法
US20190083180A1 (en) Medical image processing apparatus, medical image processing method, and program
US20200098104A1 (en) Medical image processing apparatus, medical image processing method, and program
US20210169306A1 (en) Medical image processing apparatus, endoscope system, and method for operating medical image processing apparatus
JPWO2014168128A1 (ja) 内視鏡システム及び内視鏡システムの作動方法
JP2004024656A (ja) 蛍光内視鏡装置
US11978209B2 (en) Endoscope system, medical image processing device, and operation method therefor
US20230044097A1 (en) Information processing device and information processing method
WO2022059233A1 (ja) 画像処理装置、内視鏡システム、画像処理装置の作動方法、及び画像処理装置用プログラム
JPWO2018220930A1 (ja) 画像処理装置、画像処理システム及び画像処理装置の作動方法
JP2001340283A (ja) 蛍光画像表示方法および表示装置

Legal Events

Date Code Title Description
FA Abandonment or withdrawal