MX2014010163A - Sistema de video endoscopico. - Google Patents
Sistema de video endoscopico.Info
- Publication number
- MX2014010163A MX2014010163A MX2014010163A MX2014010163A MX2014010163A MX 2014010163 A MX2014010163 A MX 2014010163A MX 2014010163 A MX2014010163 A MX 2014010163A MX 2014010163 A MX2014010163 A MX 2014010163A MX 2014010163 A MX2014010163 A MX 2014010163A
- Authority
- MX
- Mexico
- Prior art keywords
- pixels
- color space
- image data
- image
- group
- Prior art date
Links
- 230000011218 segmentation Effects 0.000 claims description 56
- 238000000034 method Methods 0.000 claims description 39
- 230000033001 locomotion Effects 0.000 claims description 12
- 210000003484 anatomy Anatomy 0.000 claims description 10
- 210000001519 tissue Anatomy 0.000 description 28
- 210000001264 anterior cruciate ligament Anatomy 0.000 description 17
- 238000003780 insertion Methods 0.000 description 12
- 230000037431 insertion Effects 0.000 description 12
- 230000005284 excitation Effects 0.000 description 10
- 238000012545 processing Methods 0.000 description 8
- 238000005286 illumination Methods 0.000 description 7
- 239000013307 optical fiber Substances 0.000 description 7
- 238000009826 distribution Methods 0.000 description 6
- 230000008878 coupling Effects 0.000 description 5
- 238000010168 coupling process Methods 0.000 description 5
- 238000005859 coupling reaction Methods 0.000 description 5
- 239000004744 fabric Substances 0.000 description 5
- 238000001356 surgical procedure Methods 0.000 description 5
- 210000000845 cartilage Anatomy 0.000 description 4
- 239000000835 fiber Substances 0.000 description 4
- 238000002073 fluorescence micrograph Methods 0.000 description 4
- 230000003287 optical effect Effects 0.000 description 4
- 230000004044 response Effects 0.000 description 4
- 239000000523 sample Substances 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 3
- 238000000799 fluorescence microscopy Methods 0.000 description 3
- 210000003127 knee Anatomy 0.000 description 3
- 102000008186 Collagen Human genes 0.000 description 2
- 108010035532 Collagen Proteins 0.000 description 2
- 230000009471 action Effects 0.000 description 2
- 238000004458 analytical method Methods 0.000 description 2
- 238000006243 chemical reaction Methods 0.000 description 2
- 229920001436 collagen Polymers 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000008569 process Effects 0.000 description 2
- 239000007787 solid Substances 0.000 description 2
- OAICVXFJPJFONN-UHFFFAOYSA-N Phosphorus Chemical compound [P] OAICVXFJPJFONN-UHFFFAOYSA-N 0.000 description 1
- 230000007175 bidirectional communication Effects 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 210000000988 bone and bone Anatomy 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 230000008030 elimination Effects 0.000 description 1
- 238000003379 elimination reaction Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 239000003365 glass fiber Substances 0.000 description 1
- 230000001939 inductive effect Effects 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 230000005499 meniscus Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000032258 transport Effects 0.000 description 1
- 210000000689 upper leg Anatomy 0.000 description 1
- 239000013598 vector Substances 0.000 description 1
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00025—Operational features of endoscopes characterised by power management
- A61B1/00027—Operational features of endoscopes characterised by power management characterised by power supply
- A61B1/00029—Operational features of endoscopes characterised by power management characterised by power supply externally powered, e.g. wireless
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00112—Connection or coupling means
- A61B1/00121—Connectors, fasteners and adapters, e.g. on the endoscope handle
- A61B1/00124—Connectors, fasteners and adapters, e.g. on the endoscope handle electrical, e.g. electrical plug-and-socket connection
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00131—Accessories for endoscopes
- A61B1/00135—Oversleeves mounted on the endoscope prior to insertion
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/042—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances characterised by a proximal camera, e.g. a CCD camera
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/04—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances
- A61B1/044—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor combined with photographic or television appliances for absorption imaging
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/0661—Endoscope light sources
- A61B1/0669—Endoscope light sources at proximal end of an endoscope
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/0661—Endoscope light sources
- A61B1/0676—Endoscope light sources at distal tip of an endoscope
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/06—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor with illuminating arrangements
- A61B1/0661—Endoscope light sources
- A61B1/0684—Endoscope light sources using light emitting diodes [LED]
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/313—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
- A61B1/317—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for bones or joints, e.g. osteoscopes, arthroscopes
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B23/00—Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
- G02B23/24—Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
- G02B23/2407—Optical details
- G02B23/2461—Illumination
- G02B23/2469—Illumination using optical fibres
-
- G—PHYSICS
- G02—OPTICS
- G02B—OPTICAL ELEMENTS, SYSTEMS OR APPARATUS
- G02B23/00—Telescopes, e.g. binoculars; Periscopes; Instruments for viewing the inside of hollow bodies; Viewfinders; Optical aiming or sighting devices
- G02B23/24—Instruments or systems for viewing the inside of hollow bodies, e.g. fibrescopes
- G02B23/2476—Non-optical details, e.g. housings, mountings, supports
- G02B23/2484—Arrangements in relation to a camera or imaging device
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T11/00—2D [Two Dimensional] image generation
- G06T11/001—Texturing; Colouring; Generation of texture or colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
- G06T7/0012—Biomedical image inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/136—Segmentation; Edge detection involving thresholding
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/90—Determination of colour characteristics
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N1/00—Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
- H04N1/46—Colour picture communication systems
- H04N1/56—Processing of colour picture signals
- H04N1/60—Colour correction or control
- H04N1/6002—Corrections within particular colour systems
- H04N1/6008—Corrections within particular colour systems with primary colour signals, e.g. RGB or CMY(K)
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/56—Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00064—Constructional details of the endoscope body
- A61B1/00103—Constructional details of the endoscope body designed for single use
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10068—Endoscopic image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30004—Biomedical image processing
- G06T2207/30008—Bone
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/50—Constructional details
- H04N23/555—Constructional details for picking-up images in sites, inaccessible due to their dimensions or hazardous conditions, e.g. endoscopes or borescopes
Landscapes
- Health & Medical Sciences (AREA)
- Life Sciences & Earth Sciences (AREA)
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Surgery (AREA)
- Optics & Photonics (AREA)
- Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
- General Health & Medical Sciences (AREA)
- Medical Informatics (AREA)
- Radiology & Medical Imaging (AREA)
- Heart & Thoracic Surgery (AREA)
- Molecular Biology (AREA)
- Pathology (AREA)
- Veterinary Medicine (AREA)
- Public Health (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Animal Behavior & Ethology (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Astronomy & Astrophysics (AREA)
- Computer Networks & Wireless Communication (AREA)
- Quality & Reliability (AREA)
- Orthopedic Medicine & Surgery (AREA)
- Physical Education & Sports Medicine (AREA)
- Microelectronics & Electronic Packaging (AREA)
- Signal Processing (AREA)
- Endoscopes (AREA)
- Image Analysis (AREA)
- Instruments For Viewing The Inside Of Hollow Bodies (AREA)
- Image Processing (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Los datos de imagen que representan una imagen capturada por un dispositivo de video endoscópico se convierten de un primer espacio de color a un segundo espacio de color; los datos de imagen en el segundo espacio de color se utilizan para determinar la ubicación de las características en la imagen.
Description
SISTEMA DE VIDEO ENDOSCÓPICO
REFERENCIA CRUZADA A SOLICITUDES RELACIONADAS
Esta solicitud reclama prioridad a la Solicitud de Provisional de
E.U.A. No. de serie 61/602,106 que se presentó el 23 de febrero del 2012, a la Solicitud Provisional de E.U.A. No. de serie 61/668,743 que se presentó el 6 de julio del 2012 y a la Solicitud Provisional de E.U.A. No. de serie 61/708,157 que se presentó el 1 de octubre del 2012.
CAMPO TÉCNICO
Este documento se refiere a sistemas endoscópicos de video.
ANTECEDENTES DE LA INVENCIÓN
Los endoscopios médicos se utilizan para inspeccionar regiones dentro del cuerpo (es decir, cavidades y articulaciones) durante la cirugía (tal como cirugía laparoscópica/toracoscópica) a través de una pequeña punción. En algunos casos, el endoscopio incluye un tubo de inserción alargado, flexible o rígido equipado con un conjunto de fibras ópticas que se extienden desde un mango proximal a través del tubo de inserción a la punta de
visualización distal del endoscopio. Una fuente de luz proporciona luz a las fibras ópticas de manera que se ilumine la región que se va a inspeccionar.
BREVE DESCRIPCIÓN DE LA INVENCIÓN
En un aspecto, se acceden datos de imagen que representan una imagen capturada por un dispositivo de video endoscópico. Los datos de imagen se codifican en un primer espacio de color. Los datos de imagen accesados se convierten del primer espacio de color a un segundo espacio de color. El segundo espacio de color es diferente al primer espacio de color. Se identifica una ubicación de una característica en la imagen al analizar los datos de imagen en el segundo espacio de color. Los datos de segmentación que indican la ubicación de las características en la imagen, se almacenan y con base en los datos de segmentación, la imagen se despliega con una indicación de la ubicación identificada de las características.
Las implementaciones pueden incluir una o más de las siguientes características. Desplegar la imagen con una indicación de la ubicación identificada de la características puede incluir convertir los datos de imagen del segundo espacio de color a un tercer espacio de color y desplegar, con base en los datos de segmentación y los datos de imagen en el tercer espacio de color, la imagen con una indicación de la ubicación identificada de las características. Las una o más características pueden incluir un tipo de
tejido, una estructura anatómica o un objeto externo introducido en un paciente.
Identificar la ubicación de la característica en la imagen al analizar los datos de imagen en el segundo espacio de color puede incluir generar un histograma de los valores de tonalidad de píxeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color e identificar píxeles que están clasificados dentro de una gama de tonalidades en el histograma que corresponden a las características, en donde los datos de segmentación indican los píxeles que están clasificados dentro de la gama de tonalidades en el histograma que corresponden a las características.
Identificar la ubicación de la característica en la imagen al analizar los datos de imagen en el segundo espacio de color puede incluir agrupar píxeles en los datos de imagen en el segundo espacio de color en grupos con base en los valores de tonalidad de los píxeles; determinar un primer grupo de píxeles de entre los grupos de píxeles; determinar un segundo grupo de píxeles de entre los grupos de píxeles; y seleccionar uno del primer o segundo grupo de píxeles con base en una diferencia de color relativa entre el primer y segundo grupos de píxeles, en donde los datos de segmentación indican el grupo seleccionado de píxeles. Agrupar los píxeles puede incluir generar un histograma de valores de tonalidad de píxeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color. Determinar un primer grupo de píxeles puede incluir determinar un primer conjunto de píxeles que están clasificados dentro de una primera gama
de las tonalidades en el histograma. Determinar un segundo grupo de píxeles puede incluir determinar un segundo conjunto de píxeles que están clasificados dentro de una segunda gama de tonalidades en el histograma. Seleccionar uno del primer o segundo grupo de píxeles puede incluir seleccionar uno del primer o segundo conjunto de píxeles con base en una diferencia de color relativa entre la primera gama de tonalidades y la segunda gama de tonalidades.
El primer espacio de color puede ser uno de RGB, YUV, YPrPb, o YcrCb. El segundo espacio de color puede ser uno de HSV, Lab o HSY.
En otro aspecto un sistema incluye un dispositivo de video endoscópico y un dispositivo de cómputo. El dispositivo de video endoscópico se configura para generar datos de imagen que representan una imagen capturada por el dispositivo de video endoscópico, en donde los datos de imagen se codifican en un primer espacio de color y transmitir los datos de imagen a un dispositivo de cómputo. El dispositivo de cómputo se configura para recibir los datos de imagen transmitidos por el dispositivo de video endoscópico; convertir los datos de imagen recibidos del primer espacio de color a un segundo espacio de color, en donde el segundo espacio de color es diferente del primer espacio de color; identificar una ubicación de una característica en la imagen al analizar los datos de imagen en el segundo espacio de color; almacenar los datos de segmentación que indican la ubicación de las características en la imagen; y desplegar, con base en los
datos de segmentación, la imagen en un dispositivo de despliegue con una indicación de la ubicación identificada de las características.
Las implementaciones pueden incluir una o más de las siguientes características. Por ejemplo, para desplegar la imagen en el dispositivo de despliegue con una indicación de la ubicación identificada de las características, el dispositivo de cómputo se puede configurar para convertir los datos de imagen del segundo espacio de color a un tercer espacio de color y desplegar, con base en los datos de segmentación y los datos de imagen en el tercer espacio de color, la imagen en el dispositivo de despliegue con una indicación de la ubicación identificada de las características. Las una o más características pueden incluir un tipo de tejido, una estructura anatómica o un objeto externo introducido en un paciente.
Para identificar la ubicación de la característica en la imagen al analizar los datos de imagen en el segundo espacio de color, el dispositivo de cómputo se puede configurar para generar un histograma de valores de tonalidad de píxeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color e identificar los píxeles que están clasificados dentro de una gama de tonalidades en el histograma que corresponden a las características, en donde los datos de segmentación indican píxeles que están clasificados dentro de la gama de tonalidades en el histograma que corresponden a las características.
Para identificar la ubicación de la característica en la imagen al analizar los datos de imagen en el segundo espacio de color, el dispositivo de
cómputo se puede configurar para agrupar píxeles en los datos de imagen en el segundo espacio de color en grupos con base en los valores de tonalidad de los píxeles; determinar un primer grupo de píxeles de entre los grupos de píxeles; determinar un segundo grupo de píxeles de entre los grupos de píxeles; seleccionar uno del primer o segundo grupo de píxeles con base en una diferencia de color relativa entre el primer y segundo grupos de píxeles, en donde los datos de segmentación indican el grupo seleccionado de píxeles.
Para agrupar píxeles, el dispositivo de cómputo se puede configurar para generar un histograma de valores de tonalidad de píxeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color. Para determinar un primer grupo de píxeles, el dispositivo de cómputo se puede configurar para determinar un primer conjunto de píxeles que están clasificados dentro de una primera gama de las tonalidades en el histograma. Para determinar un segundo grupo de píxeles, el dispositivo de cómputo se puede configurar para determinar un segundo conjunto de píxeles que están clasificados dentro de una segunda gama de tonalidades en el histograma. Para seleccionar uno del primer o segundo grupos de píxeles, el dispositivo de cómputo se puede configurar para seleccionar uno del primer o segundo conjunto de píxeles con base en una diferencia de color relativa entre la primera gama de tonalidades y la segunda gama de tonalidades.
El primer espacio de color puede ser uno de RGB, YUV, YPrPb, o YcrCb. El segundo espacio de color puede ser uno de HSV, Lab o HSY.
En otro aspecto, se acceden los datos de imagen que representan el video capturado por un dispositivo de video endoscópico. Los datos de imagen se codifican en un primer espacio de color. Los datos de imagen accesados se convierten del primer espacio de color a un segundo espacio de color, en donde el segundo espacio de color es diferente del primer espacio de color. Se identifica una ubicación de una característica de punto de referencia en el video al analizar los datos de imagen en el segundo espacio de color. Se rastrea una posición de la característica de punto de referencia sobres múltiples estructuras de los datos de imagen. Un modelo anatómico se genera con base en la característica rastreada del punto de referencia. Una ubicación de una característica anatómica objetivo en el video se determina con base en el modelo anatómico. El video se despliega con una indicación de la ubicación de la característica objetivo.
Las implementaciones pueden incluir una o más de las siguientes características. Por ejemplo, determinar la ubicación de la característica anatómica objetivo puede incluir determinar la ubicación de la característica anatómica objetivo con base en el modelo anatómico y relaciones anatómicas conocidas entre los aspectos del modelo y la característica anatómica objetivo. Generar un modelo anatómico con base en la característica de punto de referencia rastreada puede incluir determinar el movimiento de la característica de punto de referencia con base en los cambios en la posición de la característica de punto de referencia entre las
múltiples estructuras y generar el modelo anatómico con base en el movimiento de la característica de punto de referencia.
Identificar la ubicación de la característica de punto de referencia en la imagen al analizar los datos de imagen en el segundo espacio de color puede incluir generar un histograma de valores de tonalidad de píxeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color e identificar píxeles que están clasificados dentro de una gama de tonalidades en el histograma que corresponden con las características, en donde lo datos de segmentación indican los píxeles que están clasificados dentro de la gama de tonalidades en el histograma que corresponde a las características.
Identificar la ubicación de la característica de punto de referencia en la imagen al analizar los datos de imagen en el segundo espacio de color puede incluir agrupar píxeles en los datos de imagen en el segundo espacio de color en los grupos con base en los valores de tonalidad de los píxeles; determinar un primer grupo de píxeles de entre los grupos de píxeles; determinar un segundo grupo de píxeles de entre los grupos de píxeles; y seleccionar uno del primer o segundo grupo de píxeles con base en la diferencia de color relativa entre el primer y segundo grupos de píxeles, en donde los datos de segmentación indican el grupo seleccionado de píxeles.
Agrupar los píxeles puede incluir generar un histograma de valores de tonalidad de píxeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color. Determinar un primer grupo de
píxeles puede incluir determinar un primer conjunto de píxeles que están clasificados dentro de una primera gama de las tonalidades en el histograma. Determinar un segundo grupo de píxeles puede incluir determinar un segundo conjunto de píxeles que están clasificados dentro de una segunda gama de tonalidades en el histograma. Seleccionar uno del primer o segundo grupo de píxeles puede incluir seleccionar uno del primer o segundo conjunto de píxeles con base en una diferencia de color relativa entre la primera gama de tonalidades y la segunda gama de tonalidades.
El primer espacio de color puede ser uno de RGB, YUV, YPrPb, o YcrCb. El segundo espacio de color puede ser uno de HSV, Lab o HSY.
En otro aspecto, un sistema incluye un dispositivo de video endoscópico y un dispositivo de cómputo. El dispositivo de video endoscópico se configura para generar datos de imagen que representan un video capturado por el dispositivo de video endoscópico, en donde los datos de imagen se codifican en un primer espacio de color y transmite los datos de imagen al dispositivo de cómputo. El dispositivo de cómputo se configura para recibir los datos de imagen transmitidos por el dispositivo de video endoscópico; convertir los datos imagen recibidos desde el primer espacio de color a un segundo espacio de color, en donde el segundo espacio de color es diferente del primer espacio de color; identificar una ubicación de una característica de punto de referencia en el video al analizar los datos de imagen en el segundo espacio de color; rastrear una posición de la característica de punto de referencia sobre múltiples estructuras de los datos
de imagen; generar un modelo anatómico con base en la característica de punto de referencia rastreada, determinar una ubicación de una característica anatómica objetivo en los datos de video con base en el modelo anatómico; desplegar el video en el dispositivo de despliegue con una indicación de la ubicación de la característica objetivo.
Las implementaciones pueden incluir una o más de las siguientes características. Por ejemplo, determinar la ubicación de la característica anatómica objetivo, el dispositivo de cómputo se puede configurar para determinar la ubicación de la característica anatómica objetivo con base en el modelo anatómico y las relaciones anatómicas conocidas entre los aspectos del modelo y la característica anatómica objetivo. Para generar un modelo anatómico con base en la característica de punto de referencia rastreado, el dispositivo de cómputo se puede configurar para determinar el movimiento de la característica de punto de referencia con base en los cambios en la posición de la característica de punto de referencia entre las múltiples estructuras y generar el modelo anatómico con base en el movimiento de la característica de punto de referencia.
Para identificar la ubicación de la característica en la imagen al analizar los datos de imagen en el segundo espacio de color, el dispositivo de cómputo se puede configurar para generar un histograma de los valores de tonalidad de píxeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color; e identificar píxeles que están clasificados dentro de una gama de tonalidades en el histograma que corresponden a las
características, en donde los datos de segmentación indican los píxeles que están clasificados dentro de la gama de tonalidades en el histograma que corresponden a las características.
Para identificar la ubicación de la característica en la imagen al analizar los datos de imagen en el segundo espacio de color, el dispositivo de cómputo se puede configurar para agrupar píxeles en los datos de imagen en el segundo espacio de color en los grupos con base en valores de tonalidad de los píxeles; determinar un primer grupo de píxeles de entre los grupos de píxeles; determinar un segundo grupo de píxeles de entre los grupos de píxeles; seleccionar uno del primer o segundo grupo de píxeles con base en una diferencia de color relativa entre el primer y segundo grupos de píxeles, en donde los datos de segmentación indican el grupo seleccionado de píxeles.
Para agrupar píxeles, el dispositivo de cómputo se puede configurar para generar un histograma de los valores de tonalidad de píxeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color. Para determinar un primer grupo de píxeles, el dispositivo de cómputo se puede configurar para determinar un primer conjunto de píxeles que están clasificados dentro de una primera gama de tonalidades en el histograma. Para determinar un segundo grupo de píxeles , el dispositivo de cómputo se puede configurar para determinar un segundo conjunto de píxeles que están clasificados dentro de una segunda gama de tonalidades en el histograma. Para seleccionar uno del primer o segundo grupo de píxeles, el dispositivo de cómputo se puede configurar para seleccionar uno del primer o
segundo conjunto de pixeles con base en una diferencia de color relativa entre la primera gama de tonalidades y la segunda gama de tonalidades.
El primer espacio de color puede ser uno de RGB, YUV, YPrPb, o YcrCb. El segundo espacio de color puede ser uno de HSV, Lab o HSY.
Los detalles de una o más implementaciones se establecen en los dibujos anexos y la descripción que se presenta a continuación. Otras características, objetivos y ventajas serán evidentes a partir de la descripción y los dibujos y a partir de las reivindicaciones.
BREVE DESCRIPCIÓN DE LOS DIBUJOS
La figura 1 es un diagrama de bloques que ilustra un ejemplo de un sistema médico.
Las figuras 2A a 2D ilustran un ejemplo un artroscopio de video que se puede utilizar con el sistema de la figura 1.
La figura 3 ilustra un ejemplo alternativo de un artroscopio de video que se puede utilizar con el sistema de la figura 1.
La figura 4 muestra un ejemplo de un procedimiento para segmentar características en datos de imagen y desplegar una imagen correspondiente con la segmentación.
La figura 5A es una ilustración que muestra un ejemplo de una imagen autofluorescente capturada en el espacio RGB.
La figura 5B muestra un ejemplo de un histograma generado con base en la imagen de la figura 5A después de que la imagen se convierte en un espacio de color alternativo.
La figura 5C es una ilustración que muestra un ejemplo de una imagen con una máscara de segmentación derivada de las poblaciones de la figura 5B.
La figura 6 muestra un ejemplo de un procedimiento para identificar las características en datos de imagen y utilizar esas características en un modelo anatómico.
DESCRIPCIÓN DETALLADA DE LA INVENCIÓN
La figura 1 es un diagrama de bloques que ilustra un ejemplo de un sistema médico 100. El sistema médico 100 incluye un dispositivo de video endoscópico 102, tal como un artroscopio de video y dispositivo para capturar imágenes, un dispositivo de cómputo 104 y un dispositivo de despliegue 106. En general, el dispositivo de video endoscópico 102 envía datos de imagen de las estructuras anatómicas internas al dispositivo de cómputo 104, que recibe los datos de imagen 103 (por ejemplo, por medio de un dispositivo para capturar video/estructura). El dispositivo de cómputo 104 realiza el procesamiento en los datos de imagen para segmentar el tejido objetivo o estructuras anatómicas en los datos de imagen de otro tejido o estructuras y
despliega las imágenes correspondientes en el dispositivo de despliegue 106 en una forma que transporta la segmentación al usuario, tal como un cirujano.
En particular, el dispositivo de video endoscopico 102 incluye un tubo de inserción alargado, flexible o rígido equipado con un conjunto de fibras ópticas que se extienden desde un mango proximal a través del tubo de inserción a la punta de visualización distal del endoscopio. El dispositivo de video endoscopico se utiliza para inspeccionar las regiones dentro del cuerpo de un paciente (por ejemplo, cavidades, articulaciones) durante la cirugía (tal como cirugía laparoscópica/artroscópica) al insertar el tubo de inserción a través de una pequeña abertura en el paciente. Una o más fuentes de luz están contenidas dentro del cuerpo del dispositivo de video endoscopico 102 y proporcionan luz a las fibras ópticas, que portan la luz a la punta de visualización. Las fuentes de luz se pueden intercalar entre proporcionar una luz visible de banda ancha y luz de banda estrecha adecuadas para provocar la autofluorescencia del tejido u objetos. En cualquier caso, un sistema óptico del dispositivo de video endoscopico transporta la imagen resultante a un ensamble de cámara que convierte la imagen a una señal de video que incluye los datos de imagen que corresponden a la imagen.
El dispositivo de cómputo 104 incluye una interfaz de cámara 104a que recibe la señal de video desde el dispositivo de video endoscopico 102, y proporciona potencia a y comunicación bidireccional con el dispositivo de video endoscopico 102. El dispositivo de cómputo 104 puede ser cualquier tipo apropiado de dispositivo de cómputo tal como una computadora personal,
estación de trabajo, dispositivo de cómputo portátil, consola, laptop, terminal de red, dispositivo incrustado, o similares. El dispositivo de cómputo 104 incluye un mecanismo de interconexión tal como un bus de datos u otro conjunto de circuitos que acoplan juntos la entrada de video 104a a un sistema de memoria 104b, un procesador 104c, y una interfaz de entrada/salida 114.
El sistema de memoria 104b es cualquier tipo apropiado de dispositivo legible por computadora, que puede incluir, por ejemplo, un disco flexible, un disco duro, una memoria de solo lectura (ROM), o memoria de acceso aleatorio (RAM). El sistema de memoria 104b almacena una aplicación de visualización 108a. La aplicación de visualización almacenada 108a puede incluir instrucciones que, cuando son ejecutadas por el procesador 104c, hacen que el procesador realice las operaciones descritas más abajo. Durante la operación del dispositivo de cómputo 104, el procesador 104c accede al sistema de memoria 104b por medio de la interconexión con el fin de ejecutar la aplicación de visualización 108a. En otras implementaciones, el procesador 104c y el sistema de memoria 104b se pueden reemplazar con un Arreglo de Compuerta Programable en Campo (FPGA, por sus siglas en inglés) que se pueden programar para realizar o para ejecutar la lógica de la aplicación de visualización 108b.
La aplicación de visualización de ejecución 108b hace que el procesador 104c procese la señal de video en una manera que segmenta el tejido objetivo o estructuras anatómicas en los datos de imagen en la señal de
video desde otro tejido o estructuras. Por ejemplo, el procesador 104c convierte los datos de imagen de un primer espacio de color (por ejemplo, un espacio de color RGB producido por el dispositivo endoscópico 102) a un segundo espacio de color adecuado para segmentación (por ejemplo, un espacio de color HSV) y realiza el procesamiento en los datos de imagen convertidos para realizar la segmentación. El procesador 104c entonces convierte los datos de imagen de nuevo en el primer espacio de color (o un espacio de color diferente adecuado para despliegue) mientras mantiene los datos de segmentación y utiliza los datos de imagen y los datos de segmentación para desplegar el video en el dispositivo de despliegue 106 en una forma que segmenta el tejido objetivo o estructura de otro tejido o estructuras.
En otro ejemplo, el procesador 104c convierte los datos de imagen de un primer espacio de color a un segundo espacio de color adecuado para segmentación y realiza el procesamiento en los datos de imagen convertidos para realizar la segmentación para identificar las características de punto de referencia. El procesador 104c entonces rastrea las características de punto de referencia y utiliza el movimiento de las características de punto de referencia para generar un modelo anatómico. El procesador 104c identifica las características objetivo con base en el modelo y despliega el video con una indicación de la ubicación de las características objetivo.
Las figuras 2A a 2D ilustran un ejemplo de un artroscopio de video 200 que se puede utilizar con el sistema 100, por ejemplo, como el dispositivo de video endoscópico 102. El artroscopio de video 200 incluye un tubo de inserción rígido 202 y un cuerpo proximal 204. El cuerpo proximal 204 incluye un ensamble de inserción 206, un ensamble de foco 208 y un ensamble de sujeción de cámara 210. El ensamble de sujeción de cámara acopla el ensamble de cámara de video 212 (de otra forma mencionado como el cabezal de la cámara) a través, por ejemplo, de un acoplamiento de montaje en C 214. Utilizar un acoplamiento de montaje en C puede permitir que el artroscopio de video 200 y el cabezal de la cámara 212 se separen y se esterilicen por separado. En otras implementaciones, el artroscopio 200 se acopla al cabezal de la cámara 212 por medio del acoplador del artroscopio más que a un montaje en C.
El ensamble de inserción 206 se acopla al ensamble de foco 208 de manera que el ensamble de inserción 206 y el ensamble de foco 208 puedan girar uno con respecto al otro alrededor de la unión 216. La rotación del ensamble de inserción 206 cambia el campo de visión al cambiar la orientación del extremo distal del tubo de inserción 202.
En ensamble de inserción 206 incluye un poste de iluminación 218, que almacena fuentes de luz en estado sólido 220 para generar luz que se transporta a y fuera del extremo distal del tubo de inserción 202 por medio de fibra óptica de iluminación 222. Las fuentes de luz en estado sólido 220 incluyen, por ejemplo, dos fuentes de luz de LED 220a y 220b.
La primera fuente de luz de LED 220a es una fuente de luz de LED de banda ancha que se emite en una banda ancha visible utilizando, por ejemplo, conversión de fósforo. Por ejemplo, la fuente de luz de LED de banda ancha 220a puede emitir luz blanca. La luz visible se transmite a través de, por ejemplo un haz de fibras de vidrio 222a con alta transmisión en la escala visible. El haz de fibras 222a, es por ejemplo, acoplado a tope a la fuente de luz de LED de banda ancha 220a, e incluye una apertura numérica alta de aproximadamente 0.86 NA, que puede proporcionar una eficiencia de acoplamiento elevada e iluminación de todo el campo de visión .
La segunda fuente de luz de LED es una fuente de luz de LED de banda estrecha que emite una banda estrecha de luz de excitación (por ejemplo, 395 nm) que se puede utilizar en formación de imágenes de auto-fluorescencia . La luz de longitud de onda baja se transmite a través de un haz de fibras individuales o múltiples 222b que se optimiza para transmisión a una longitud de onda inferior.
La iluminación puede ser intercalada por el usuario entre la excitación de fluorescencia y visible según sea necesario. Al tener fuentes de luz intercalares esto puede permitir al dispositivo ser utilizado en cirugía para distinguir tipos de tejido. Por ejemplo, en un paciente con una ruptura de ligamento cruzado anterior (ACL, por sus siglas en inglés), el dispositivo 200 se puede intercalar al modo de auto-fluorescencia (AF, por sus siglas en inglés) de banda estrecha de manera que el tejido de interés (remanente de la ACL en la inserción) se pueda identificar con el propósito de determinar en
dónde debe entrar un túnel de perforación en el hueso para reconstrucción. Con un modo de luz intercambiable, el dispositivo 200 se puede intercalar hacia atrás y hacia adelante entre la luz visible y el modo de auto-fluorescencia para permitir la colocación precisa de la guía/cánula de perforación en el sitio deseado de la inserción. Por ejemplo, el cirujano puede visualizar inicialmente el tejido de interés utilizando auto-fluorescencia, intentar colocar la guia utilizando luz visible (ya que el extremo de la guía de perforación es fácil de visualizar en luz visible) y luego verificar la colocación de la guía de perforación con respecto al tejido de interés utilizando auto-fluorescencia (y repetir hasta que la guía se coloque de forma apropiada). Otros tipos de tejido también se deben identificar utilizando el modo de auto-fluorescencia, incluyendo tejido del menisco y/o cartílago de manera que se pueda realizar el procedimiento subsiguiente.
El ensamble de foco 208 incluye una porción de vástago 223, un conjunto de ópticas de enfoque 224, y un anillo de foco 226. El anillo de enfoque 226 se configura para girar con respecto a la porción de vástago 223 y el ensamble de sujeción de cámara 210. Al girar el anillo de enfoque 226 se ajustan las ópticas de enfoque 228 axialmente a lo largo de un eje longitudinal del dispositivo 200, que enfoca las imágenes iluminadas.
Durante la operación, la fuente de luz seleccionada 220a o 220b proporciona iluminación a un área de trabajo a través de la fibra óptica de iluminación 222. Las imágenes iluminadas del área de trabajo se transportan al ensamble de la cámara 212 a través de una trayectoria óptica. La
trayectoria óptica se extiende desde un extremo distal del tubo de inserción 202, a través de una fibra óptica de imagen 224 en el tubo de inserción 202, a través de un conjunto de ópticas de enfoque 228 en el ensamble de foco 208 al ensamble de cámara de video 212, que incluye un ensamble del dispositivo acoplado cargado (CCD) 230 para convertir las imágenes en datos de imagen. El ensamble de CCD puede incluir, por ejemplo, un CCD rojo, un CCD verde, y un CCD azul para generar los datos de imagen RGB. En otros casos, el ensamble de CCD puede incluir, por ejemplo, un sensor individual con una configuración de patrón de Bayern para suministrar los datos RGB. Los datos de imagen se transportan en una señal de video al dispositivo de cómputo 104.
El dispositivo 200 también incluye un conjunto de anillos colectores o cables para proporcionar potencia desde el cabezal de la cámara 212 a las fuentes de luz 220. En particular, el artroscopio de video 200 incluye un anillo colector montado en C 232, un anillo colector de ensamble de foco 234, y un anillo colector de ensamble de inserción 236. El artroscopio de video 200 también incluye cables 238 que se extienden entre el anillo colector de montaje en C 232 y el anillo colector de ensamble de foco 234, y los cables 240 que se extienden entre el anillo colector de ensamble de foco 234 y el anillo colector de ensamble de inserción 240. Un conjunto final de cables se extiende desde el anillo colector de ensamble de inserción 240 y las fuentes de luz 220. La corriente eléctrica se proporciona desde el cabezal de la cámara 212 a través de un anillo colector de montaje en C 232, a través de los
cables 234, a través del anillo colector de ensamble de foco 234 a través de los cables 240, a través del anillo colector de ensamble de inserción 236, y finalmente a través de los cables 242 a las fuentes de luz 220. El uso de los anillos colectores 232, 234 y 236 permite que el cabezal de la cámara 212, el anillo de foco 208, la porción de vástago 223 y el ensamble de inserción 206 giren uno con respecto al otro según sea necesario, mientras que aún tienen potencia transportada desde le cabezal de la cámara 212 a las fuentes de luz 220.
La figura 3 ilustra un ejemplo alternativo de un artroscopio de video 300 que se puede utilizar con el sistema 100, por ejemplo, como el dispositivo de video endoscópico 102. En esta alternativa, la potencia eléctrica se transmite desde el cabezal de la cámara al artroscopio de video a través de un sistema de transmisión de potencia inalámbrica. En particular, en el artroscopio de video 300, el anillo colector de montaje en C 232 se reemplaza con dos bobinas 302 y 304. La primera bobina 302 (emisor) se coloca en el cabezal de la cámara 312 y la segunda bobina 304 (receptor) se coloca en el artroscopio de video en el ensamble de sujeción de cámara 310. La primera bobina 302 transmite potencia a la segunda bobina 304 utilizando acoplamiento inductivo utilizando el campo cercano. La potencia luego es transmitida de la segunda bobina (recepción) 304 a través de los cables eléctricos y anillos colectores a las fuentes de luz de la misma manera como se describió con respecto al dispositivo 200.
En una alternativa, la segunda bobina 304 se puede colocar en el poste de iluminación 218 o en cualquier otro lugar en el ensamble de inserción 208. En esta alternativa, la potencia se transmite a la segunda bobina 304 a través del acoplamiento de campo lejano. Ya que la segunda bobina 304 se localiza en el ensamble de inserción, los anillos colectores y los cables en el ensamble de foco 208 no son necesarios.
La figura 4 muestra un ejemplo de un procedimiento 400 para segmentar las características en los datos de imagen, y desplegar una imagen correspondiente con la segmentación. El procedimiento 100 por ejemplo, se implementa por medio del procesador 104c cuando se ejecuta la aplicación de visualización 108b pero otros sistemas o configuraciones pueden realizar el procedimiento 400. El procedimiento 400 mejora las imágenes capturadas por un dispositivo de video endoscópico para visualizar mejor las áreas de interés dentro del campo de imagen, pueden ser aspectos anatómicos u objetos externos introducidos en el campo de visión.
El procesador 104c accede datos de imagen que representan una imagen capturada por el dispositivo de video endoscópico, tal como artroscopio de video (401 ). Los datos de imagen pueden corresponder a una imagen de auto-fluorescencia capturada utilizando, por ejemplo, la fuente de luz de banda estrecha 220b o una imagen de luz visible capturada utilizando, por ejemplo, la fuente de luz de banda ancha 220a. La imagen puede ser un tejido interno o estructuras anatómicas de un paciente. Los datos de imagen se codifican utilizando un primer espacio de color que es apropiado para la
captura de imágenes (un espacio de color capturado). Por ejemplo, el primer espacio de color es uno de espacio de color, RGB, YUV, YPrPb o YcrCb.
El procesador 104c convierte los datos de imagen accesados desde el primer espacio de color a un segundo espacio de color diferente del primer espacio de color (404). El segundo espacio de color es apropiando para la segmentación de una o más áreas de interés (un espacio de color de segmentación).
La capacidad apropiada de un espacio de color como un espacio de color de segmentación se determina por su capacidad para discriminar colores individuales, reducir los artefactos de metamerismo de color y permitir la implementación más conveniente para soportar la unidad de procesamiento en tiempo real. El segundo espacio de color puede ser, por ejemplo, HSV, Lab o HSY.
El procesador 104c identifica una ubicación de una característica en los datos de imagen al analizar los datos de imagen en el segundo espacio de color (406). La característica puede incluir tejido, una estructura anatómica o un objeto externo introducido en el paciente. Para determinar la característica, el procesador 104c puede realizar, por ejemplo, segmentación de color en los datos de imagen en el segundo espacio de color para determinar las características. Como un ejemplo, después de convertir una imagen fluorescente al segundo espacio de color (por ejemplo, HSV) el procesador 104c puede analizar la distribución de tonalidades en la imagen, por ejemplo, al generar un histograma de los valores de las tonalidades de los
pixeles en los datos de imagen en el segundo espacio de color. Los grupos de pixeles que corresponden a las diferentes poblaciones en el histograma (es decir, diferentes gamas de tonalidades) pueden corresponder a diferentes tejidos en las imágenes. El procesador 104c puede identificar los pixeles que están clasificados dentro de la población (gama de tonalidades) en los datos del histograma que corresponden al tejido de interés (u otras características) y generar datos de segmentación que indican los pixeles que están clasificados dentro de esa población.
En otro ejemplo, el procesador 104c puede utilizar diferencias de color relativas para identificar tejidos particulares o para separar regiones de una imagen que corresponde a un tejido de interés desde otras regiones de la imagen. Por ejemplo, en ciertos casos la tonalidad del tejido ACL femoral es normalmente diferente de la tonalidad de las porciones de fondo de una imagen y otros tejido. En las imágenes de auto-fluorescencia, por ejemplo, las regiones que corresponden a un ACL con frecuencia tienen un color generalmente azul, mientras que las regiones de fondo normalmente parecen más púrpura. De este modo, las regiones de fondo de una imagen por lo tanto son normalmente desplazadas al rojo con respecto a las regiones que muestran el tejido del ACL. El procesador 104c puede utilizar esta información para distinguir el tejido de ACL desde el fondo.
Por ejemplo, los pixeles en una imagen de rodilla de auto-fluorescencia se pueden agrupar de acuerdo con los valores de tonalidad de los pixeles (por ejemplo, utilizando un histograma u otra técnica). Un primer
grupo y un segundo grupo de píxeles es entonces identificado de entre los agrupamientos. Por ejemplo, cuando se utiliza un histograma, el procesador 104c puede determinar primeros y segundos conjuntos de píxeles que están clasificados dentro de la primera y segunda gamas de tonalidades, respectivamente, en el histograma. El primer y segundo grupos se pueden identificar, por ejemplo, al eliminar primero la información extraña que no cumple con las valores mínimos de saturación como también valor mínimo de intensidad, luego correlacionar las poblaciones restantes con las distribuciones gaussianas para identificar las poblaciones distintas dentro del histograma, o alternativamente emplear un algoritmo de detección de etapas múltiples incluyendo el filtrado de paso bajo y eliminación de valor atípico luego detectar las poblaciones por formación de umbrales del primer y segundo derivados con el objetivo de identificar diferentes poblaciones en la distribución procesada del histograma de tonalidades. Fuera del primer y segundo grupos, el procesador 104c selecciona el grupo con los píxeles más azules (con respecto al otro grupo) que correspondan al tejido del ACL y genera datos de segmentación que indican esos píxeles. Cuando se utiliza un histograma, el procesador 104c puede seleccionar el conjunto de píxeles que están clasificados dentro de la escala de tonalidades que son más azules.
De manera similar, el análisis de la distribución de píxeles de acuerdo con la tonalidad puede indicar regiones adicionales o diferentes en una imagen. En algunas implementaciones, un grupo de píxeles que incluye el
número más grande de píxeles se puede designar como fondo, ya que el fondo es normalmente el área más grande de una imagen.
En algunas situaciones, la interoperabilidad de diferentes sistemas de ópticas, de sensores de cámara y de procesamiento se mejora al analizar la distribución de tonalidades en una imagen. Bajo las mismas condiciones de iluminación, las diferentes configuraciones del dispositivo o dispositivos pueden producir una gama de diferentes tonalidades absolutas. Sin embargo, el análisis de la distribución de tonalidades en una imagen (por ejemplo, las diferencias en tonalidad entre las diferentes regiones de una imagen) pueden permitir la precisión confiable a pesar de estas variaciones.
El procesador 104c almacena los datos de segmentación que indican la ubicación de características en los datos de imagen (408) y convierte los datos de imagen del segundo espacio de color a un tercer espacio de color (410). El tercer espacio de color es apropiado para desplegarse en una dispositivo de despliegue y puede ser, por ejemplo, uno de RGB, YUV, YPrPb, o YcrCb.
Con base en los datos de segmentación y los datos de imagen en el tercer espacio de color, el procesador 104c despliega la imagen con una indicación de la ubicación identificada de las características (412). La ubicación de las características se puede identificar, por ejemplo, por una máscara binaria que se utiliza para superposición de un pseudo color en una representación de escala en gris de la imagen original antes del procesamiento. Como otro ejemplo, los datos de segmentación se pueden
utilizar para generar una máscara que se mapea directamente a uno de los canales RGB estándar y se excluye de los canales restantes de manera que la segmentación solamente aparezca en uno de esos canales de despliegue. También, por ejemplo, los datos de segmentación se pueden procesar además para crear una región esquemática que se mezcla en alfa en la imagen original como una superposición.
Aunque se describió anteriormente con respecto al sistema 100, el procedimiento 400 se puede realizar independiente del vehículo particular para capturar la imagen de energía auto-fluorescente, fluorescente o visible. En algunas implementaciones, los límites del tejido (por ejemplo, bordes) u otras regiones de interés se detectan y superponen con salida de video en tiempo real desde un artroscopio de video, tal como artroscopio de video 200.
En los mismos casos, el procedimiento 400 se puede realizar para ayudar a la visualización de características de interés sin calibración definida previamente. Otros procedimientos pueden requerir un conocimiento a priori de la respuesta de la señal del sistema a través de las ópticas, sensor de la cámara, cualquier línea de tubería de procesamiento pre-existente bajo iluminación de excitación y puede necesitar soportar una calibración para corregir variaciones en cada óptica del sistema individual y respuesta electrónica con el fin de separar de forma adecuada la señal de respuesta del tejido objetivo u objeto desde la respuesta del sistema de fondo. El procedimiento 400 puede no necesitar dicha calibración bajo circunstancias apropiadas.
La figura 5A es una ilustración que muestra un ejemplo de una imagen de auto-fluorescencia 500 capturada en el espacio RGB. La imagen 500 se puede capturar, por ejemplo, utilizando la fuente de luz de banda estrecha 220b. La imagen es de muestras de tejido de una rodilla de humano, que incluye un área de huella de ACL femoral 502a y 52b y cartílago 504a y 504b desde el cóndilo femoral. Ambas de estas estructuras tienen colágeno, pero el ACL tiene un tipo diferente de colágeno, que da como resultado la huella femoral 502a y 502b que presenta fluorescencia en un color azul claro, mientras que el cartílago 504a y 504b presenta fluorescencia en púrpura. La huella de ACL es este ejemplo es la característica anatómica de interés.
La figura 5B muestra un ejemplo de un histograma 520 generado con base en la imagen 500 después de que la imagen 500 se ha convertido en un espacio de color alterno, tal como HSV. El histograma tiene tres grupos principales de pixeles. El primer grupo 522 se centra alrededor de 200 grados. El segundo grupo 524 se centra alrededor de los 275 grados. El tercer grupo 526 se centra alrededor de los 315 grados. El tercer grupo 526 incluye el conteo más alto de pixeles y por lo tanto puede designarse como el fondo (en algunas implementaciones, estos pixeles pueden haber sido filtrados fuera antes de la formación del histograma). En este caso, el primer y segundo grupos 522 y 524 corresponden a los dos tipos de tejido. Ya que el tejido de ACL es más azul con respecto al cartílago del cóndilo femoral, el grupo más azul de pixeles (el primer grupo 522) se selecciona correspondiente al tejido del ACL.
La figura 5C es una ilustración que muestra un ejemplo de una imagen 530, con una máscara de segmentación 532 derivada desde las poblaciones del histograma 520. La máscara de segmentación indica la ubicación de la huella del ACL (la característica anatómica de interés). En este caso, la imagen original se envía en el canal verde de un despliegue y la máscara de segmentación se envía en el canal rojo del despliegue. Esto*da como resultado una máscara de segmentación roja 532 que se muestra sobre las características de interés (la huella del ACL), mientras que el resto de las características anatómicas se muestran en verde.
La figura 6 muestra un ejemplo de un procedimiento 600 para identificar las características en datos de imagen y utilizar esas características en un modelo anatómico. El procedimiento 600, por ejemplo, se implementa por medio del procesador 104c cuando se ejecuta la aplicación de visualización 108b, pero otros sistemas y configuraciones pueden realizar el procedimiento 400.
En general, el proceso 600 utiliza conversión de espacio de color para segmentación, tal como se describe con respecto al procedimiento 400, para identificar las características de punto de referencia en anatomía formada en imágenes y utilizar esas características de punto de referencia, potencialmente con otras características de punto de referencia, para construir una característica con base en el modelo compuesto de los puntos anatómicos conocidos. Este modelo entonces se puede utilizar para identificar las características anatómicas objetivo o área en el campo de visión y
desplegar las características objetivo o áreas en una manera que las distinga de las otras áreas. En algunos casos, los datos de formación de imágenes de auto-fluorescencia pueden mejorar el rendimiento del modelo basado en la característica que representa el tejido formado en imágenes.
El procesador 104c accede datos de imagen codificados en un primer espacio de color, por ejemplo, en forma de un video en tiempo real desde un artroscopio (602). Los datos de imagen pueden corresponder a una imagen de auto-fluorescencia capturada utilizando, por ejemplo, una fuente de luz de banda estrecha 220b o una imagen de luz visible capturada utilizando, por ejemplo, la fuente de luz de banda ancha 220a. La imagen puede ser un tejido interno o estructuras anatómicas de un paciente. Los datos de imagen se codifican utilizando un primer espacio de color que es apropiado para capturar la imagen (un espacio de color de despliegue). Por ejemplo, el primer espacio de color es uno de los espacios de color de RGB, YUV, YPrPb, o YcrCb.
El procesador 104c convierte los datos de imagen accesados del primer espacio de color a un segundo espacio de color diferente del primer espacio de color (604). El segundo espacio de color es apropiado para segmentación de una o más áreas de interés (un espacio de color de segmentación), como se describió anteriormente con respecto a la acción 404.
El procesador 104c identifica las ubicaciones de una o más características de punto de referencia en los datos de imagen por medio del análisis de datos de imagen en el segundo espacio de color (606). El
procesador 104c lo hace así, por ejemplo, utilizando cualquiera de las técnicas descritas anteriormente con respecto a la acción 406. El procesador 104c puede también identificar la ubicación de las características de punto de referencia adicionales, tal como puntos o bordes, utilizando datos de imagen en el primer o segundo espacios de color.
El procesador rastrea la posición de las características de punto de referencia a través de múltiples estructuras de video (608). Las múltiples estructuras de video pueden capturar las características de punto de referencia en diferentes posiciones con respecto al sujeto (por ejemplo, el video es capturado desde múltiples perspectivas). Con base en los cambios en la posición de las características rastreadas, el procesador utiliza, por ejemplo, técnicas de estimación de movimiento para calcular la manera en la cual se mueven las características. Por ejemplo, el procesador determina vectores de movimiento que describen la manera en la que se mueven las características rastreadas.
El procesador genera un modelo anatómico con base en la característica tridimensional (3D) con base en el movimiento de las características rastreadas (610). Una vez que se genera el modelo en 3D, el procesador determina la ubicación de una característica anatómica objetivo (612). Por ejemplo, cuando el modelo representa una porción de un fémur, se puede determinar una ubicación del ACL o PCL con base en los aspectos del modelo. El procesador puede calcular la ubicación de una característica anatómica al tomar en cuenta las relaciones anatómicas conocidas, tal como
las relaciones, proporciones y otros aspectos de las características anatómicas. Por ejemplo, la curvatura del cóndilo femoral se puede determinar con base en el modelo en 3D. Utilizando este valor de curvatura, la posición de un ACL, PCL u otra característica se puede determinar con respecto al modelo en 3D, con base en una relación conocida que describe el tamaño y colocación de las características de la rodilla.
El procesador entonces despliega las imágenes correspondientes a los datos de imagen con una indicación de la ubicación de la característica anatómica objetivo (614). Por ejemplo, la ubicación de la característica anatómica de interés se indica en el video en tiempo real alimentado desde el artroscopio como una superposición. El procesador continúa rastreando la posición de las características rastreadas. Como la vista del sujeto cambia, el procesador actualiza el despliegue de video para mostrar los cambios en la posición de la característica anatómica de interés. Las técnicas de localización de la característica adicional y de visualización se pueden utilizar, incluyendo aquellas descritas en la Solicitud de Patente de E.U.A 12,967,435 presentada el 14 de diciembre del 2010 (y que se publicó como la Publicación de la Solicitud de Patente de E.U.A. No. 201 1/0141 140), que se incorpora a la presente por referencia en su totalidad.
Se han descrito un número de implementaciones. Sin embargo, se entenderá que se pueden hacer varias modificaciones. Por ejemplo, aunque se han descrito ejemplos del procesamiento y modelación de
imágenes para usarse con artroscopios de video, las mismas técnicas se pueden utilizar con otros dispositivo y formas de captura de imágenes.
Además, las formación de imágenes de auto-fluorescencia se puede realizar utilizando cualquier dispositivo apropiado o combinación de dispositivos, y no se limita a los dispositivos particulares descritos. Por ejemplo, la figura 2D muestra una configuración en donde la fuente de luz visible y la fuente de luz de banda estrecha para excitación se forman de LEDs separados que se montan ambos en el brazo lateral. Es posible que una fuente de luz, hecha de una multitud de chips que se emiten en diferentes colores, se localice en el brazo lateral o en cualquier otra ubicación en el endoscopio y se pueda intercalar entre la luz visible y la luz adecuada para auto-fluorescencia. Dicha fuente de luz de LED se puede mencionar como LEDs Blancos ajustables y se puede utilizar para intercalar según sea necesario entre la luz visible o la luz de excitación por fluorescencia. Si un LED (u otra tecnología en estado sólido) se vuelve disponible, que se puede intercalar o cambiar de una emisión de luz de banda ancha a banda estrecha, se puede utilizar en lugar de dos LEDs que se muestran en la figura 2D.
La iluminación para la excitación visible o fluorescente se puede suministrar en una manera diferente a otro canal de iluminación de un endoscopio. Por ejemplo, la excitación de fluorescencia se puede suministrar a través de una sonda separada desde el artroscopio de video. En esta caso, la fuente de luz visible se puede montar en el artroscopio de video, con la fuente de LED para fluorescencia colocada en una sonda o instrumento
separado. La fuente de LED para fluorescencia se pude colocar en un extremo distal o proximal de la sonda individual. Si la fuente de LED para fluorescencia se coloca en el extremo proximal, la energía de excitación se puede suministrar distalmente a través de una fibra. El LED para fluorescencia y/o fibra que suministra la energía de excitación para fluorescencia se puede incrustar en otros tipos de instrumentos utilizados en procedimientos artroscópicos tal como guía de perforación, instrumento manual o cánula reutilizable o desechable que se ajusta alrededor de la guía de perforación, endoscopio o sonda separada. Además, la iluminación se puede generar en un dispositivo auto-energizado independiente y se puede suministrar al dispositivo de suministro por medio de una guía de luz flexible acoplada por un poste en el dispositivo de suministro. En esta última modalidad, la energía de excitación se puede generar por medio de un láser monocromático, LED o una fuente de luz blanca filtrada en el dispositivo autónomo.
Asimismo, otras implementaciones están dentro del alcance de las siguientes reivindicaciones.
Claims (32)
1.- Un método que comprende: acceder datos de imagen que representan una imagen capturada por un dispositivo de video endoscópico, en donde los datos de imagen se codifican en un primer espacio de color; convertir los datos de imagen accesados desde el primer espacio de color a un segundo espacio de color, en donde el segundo espacio de color es diferente del primer espacio de color; identificar una ubicación de una característica en la imagen al analizar los datos de imagen en el segundo espacio de color; almacenar los datos de segmentación que indican la ubicación de las características en la imagen; y desplegar, con base en los datos de segmentación, la imagen con una indicación de la ubicación identificada de las características.
2.- El método de conformidad con la reivindicación 1 , caracterizado además porque desplegar la imagen con una indicación de la ubicación identificada de las características comprende: convertir los datos de imagen del segundo espacio de color a un tercer espacio de color; desplegar, con base en los datos de segmentación y los datos de imagen en el tercer espacio de color, la imagen con una indicación de la ubicación identificada de las características.
3 - El método de conformidad con las reivindicaciones 1 o 2, caracterizado además porque la una o más características incluye un tipo de tejido, una estructura anatómica, o un objeto externo introducido en un paciente.
4 - El método de conformidad con cualquiera de las reivindicaciones 1 a 3, caracterizado además porque identificar la ubicación de la característica en la imagen al analizar los datos de imagen en el segundo espacio de color comprende: generar un histograma de los valores de tonalidad de píxeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color; identificar píxeles que estén clasificados dentro de una gama de tonalidades en el histograma que correspondan a las características, en donde los datos de segmentación indican los píxeles que están clasificados dentro de la gama de tonalidades en el histograma que corresponden a las características.
5.- El método de conformidad con cualquiera de las reivindicaciones 1 a 3, caracterizado además porque identificar la ubicación de la característica en la imagen al analizar los datos de imagen en el segundo espacio de color, comprende: agrupar los píxeles en los datos de imagen en el segundo espacio de color en grupos con base en los valores de tonalidad de los píxeles; determinar un primer grupo de píxeles de entre los grupos de píxeles; determinar un segundo grupo de píxeles de entre los grupos de píxeles; seleccionar uno del primer o segundo grupo de píxeles con base en una diferencia de color relativa entre el primer o segundo grupos de píxeles, en donde los datos de segmentación indican el grupo seleccionado de píxeles.
6 - El método de conformidad con la reivindicación 5, caracterizado además porque: agrupar píxeles comprende generar un histograma de valores de tonalidad de píxeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color; determinar un primer grupo de píxeles comprende determinar un primer conjunto de píxeles que están clasificados dentro de una primera gama de tonalidades en el histograma; determinar un segundo grupo de píxeles comprende determinar un segundo conjunto de píxeles que están clasificados dentro de una segunda gama de tonalidades en el histograma; seleccionar uno del primer o segundo grupo de píxeles comprende seleccionar uno del primer o segundo conjunto de píxeles con base en la diferencia de color relativa entre la primera gama de tonalidades y la segunda gama de tonalidades.
7 - El método de conformidad con cualquiera de las reivindicaciones 1 a 6, caracterizado además porque el primer espacio de color es uno de RGB, YUV, YPrPb, o YcrCb.
8. - El método de conformidad con cualquiera de las reivindicaciones 1 a 6, caracterizado además porque el segundo espacio de color es uno de HSV, Lab o HSY.
9. - Un sistema que comprende: un dispositivo de video endoscópico configurado para: generar datos de imagen que representan una imagen capturada por el dispositivo de video endoscópico, en donde los datos de imagen se codifican en un primer espacio de color; transmitir los datos de imagen a un dispositivo de cómputo; y un dispositivo de cómputo configurado para: recibir los datos de imagen transmitidos por el dispositivo de video endoscópico; convertir los datos de imagen recibidos del primer espacio de color a un segundo espacio de color, en donde el segundo espacio de color es diferente del primer espacio de color; identificar una ubicación de una característica en la imagen al analizar los datos de imagen en el segundo espacio de color; almacenar los datos de segmentación que indican la ubicación de las características en la imagen; desplegar, con base en los datos de segmentación, la imagen en un dispositivo de despliegue con una indicación de la ubicación identificada de las características.
10.- El sistema de conformidad con la reivindicación 9, caracterizado además porque, para desplegar la imagen en el dispositivo de despliegue con una indicación de la ubicación identificada de las características, el dispositivo de cómputo se configura para: convertir los datos de imagen del segundo espacio de color a un tercer espacio de color; desplegar, con base en los datos de segmentación y los datos de imagen en el tercer espacio de color, la imagen en el dispositivo de despliegue con una indicación de la ubicación identificada de las características.
11 .- El sistema de conformidad con las reivindicaciones 9 o 10, caracterizado además porque las una o más características incluye un tipo de tejido, estructura anatómica o un objeto externo introducido en un paciente.
12. - El sistema de conformidad con cualquiera de las reivindicaciones 9 a 1 1 , caracterizado además porque, para identificar la ubicación de la característica en la imagen al analizar los datos de imagen en el segundo espacio de color, el dispositivo de cómputo se configura para: generar un histograma de valores de tonalidad de píxeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color; identificar píxeles que están clasificados dentro de una gama de tonalidades en el histograma que corresponden a las características, en donde los datos de segmentación indican los píxeles que están clasificados dentro de la gama de tonalidades en el histograma que corresponden a las características.
13. - El sistema de conformidad con cualquiera de las reivindicaciones 9 a 1 1 , caracterizado además porque para identificar la ubicación de la característica en la imagen al analizar los datos de imagen en el segundo espacio de color, el dispositivo de cómputo se configura para: agrupar píxeles en los datos de imagen en el segundo espacio de color en grupos con base en valores de tonalidad de los píxeles; determinar un primer grupo de píxeles de entre los grupos de píxeles; determinar un segundo grupo de píxeles de entre los grupos de píxeles; seleccionar uno del primer o segundo grupo de píxeles con base en una diferencia de color relativa entre el primer y segundo grupos de píxeles, en donde los datos de segmentación indican el grupo seleccionado de píxeles.
14. - El sistema de conformidad con la reivindicación 13, caracterizado además porque: para agrupar píxeles, el dispositivo de cómputo se configura para generar un histograma de valores de tonalidad de pixeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color; para determinar un primer grupo de pixeles, el dispositivo de cómputo se configura para determinar un primer conjunto de pixeles que están clasificados dentro de una primera gama de las tonalidades en el histograma; para determinar un segundo grupo de pixeles, el dispositivo de cómputo se configura para determinar un segundo conjunto de pixeles que están clasificados dentro de una segunda gama de tonalidades en el histograma; para seleccionar uno del primer o segundo grupo de pixeles, el dispositivo de cómputo se configura para seleccionar uno del primer o segundo conjunto de pixeles con base en una diferencia de color relativa entre la primera gama de tonalidades y la segunda gama de tonalidades.
15. - El sistema de conformidad con cualquiera de las reivindicaciones 9 a 14, caracterizado además porque el primer espacio de color es uno de RGB, YUV, YPrPb, o YcrCb.
16. - El sistema de conformidad con cualquiera de las reivindicaciones 9 a 14, caracterizado además porque el segundo espacio de color es uno de HSV, Lab o HSY.
17. - Un método que comprende: acceder datos de imagen que representan un video capturado por un dispositivo de video endoscópico, en donde los datos de imagen se codifican en un primer espacio de color; convertir los datos de imagen accesados del primer espacio de color a un segundo espacio de color, en donde el segundo espacio de color es diferente al primer espacio de color; identificar una ubicación de una característica de punto de referencia en el video al analizar los datos de imagen en el segundo espacio de color; rastrear una posición de la característica de punto de referencia sobre múltiples estructuras de los datos de imagen; generar un modelo anatómico con base en la característica de punto de referencia rastreada; determinar una ubicación de una característica anatómica objetivo en los datos de video con base en el modelo anatómico; desplegar el video con una indicación de la ubicación de la característica objetivo.
18.- El método de conformidad con la reivindicación 17, caracterizado además porque determinar la ubicación de la característica anatómica objetivo comprende determinar la ubicación de la característica anatómica objetivo con base en el modelo anatómico y relaciones anatómicas conocidas entre los aspectos del modelo y la característica anatómica objetivo.
19.- El método de conformidad con las reivindicaciones 17 o 18, caracterizado además porque generar un modelo anatómico con base en la característica de punto de referencia rastreada comprende determinar el movimiento de la característica de punto de referencia con base en los cambios en posición de la característica de punto de referencia entre las múltiples estructuras y generar el modelo anatómico con base en el movimiento de la característica de punto de referencia.
20.- El método de conformidad con cualquiera de las reivindicaciones 17 a 19, caracterizado además porque identificar la ubicación de la característica de punto de referencia en la imagen al analizar los datos de imagen en el segundo espacio de color comprende: generar un histograma de los valores de tonalidad de píxeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color; identificar píxeles que están clasificados dentro de una gama de tonalidades en el histograma que corresponden a las características, en donde los datos de segmentación indican los píxeles que están clasificados dentro de la gama de tonalidades en el histograma que corresponden a las características.
21.- El método de conformidad con cualquiera de las reivindicaciones 17 a 19, caracterizado además porque identificar la ubicación de la característica de punto de referencia en la imagen al analizar los datos de imagen en el segundo espacio de color comprende: agrupar píxeles en dos datos de imagen en el segundo espacio de color en grupos con base en valores de tonalidad de los píxeles; determinar un primer grupo de píxeles de entre los grupos de píxeles; determinar un segundo grupo de píxeles de entre los grupos de píxeles; seleccionar uno del primer o segundo grupo de píxeles con base en una diferencia de color relativa entre el primer y segundo grupos de píxeles, en donde los datos de segmentación indican el grupo seleccionado de píxeles.
22.- El método de conformidad con la reivindicación 21 , caracterizado además porque: agrupar los píxeles comprende generar un histograma de valores de tonalidad de píxeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color; determinar un primer grupo de píxeles comprende determinar un primer conjunto de píxeles que están clasificados dentro de una primera gama de tonalidades en el histograma; determinar un segundo grupo de píxeles comprende determinar un segundo conjunto de píxeles que están clasificados dentro de una segunda gama de tonalidades en el histograma; seleccionar uno del primer o segundo grupo de píxeles comprende seleccionar uno del primer o segundo conjunto de píxeles con base en una diferencia de color relativa entre la primera gama de tonalidades y la segunda gama de tonalidades.
23.- El método de conformidad con cualquiera de las reivindicaciones 17 a 22, caracterizado además porque el primer espacio de color es uno de RGB, YUV, YPrPb, o YcrCb.
24 - El método de conformidad con cualquiera de las reivindicaciones 17 a 22, caracterizado además porque el segundo espacio de color es uno de HSV, Lab o HSY.
25.- Un sistema que comprende: un dispositivo de video endoscópico configurado para: generar datos de imagen que representan un video capturado por el dispositivo de video endoscópico, en donde los datos de imagen se codifica en un primer espacio de color; transmitir los datos de imagen a un dispositivo de cómputo; y un dispositivo de cómputo configurado para: recibir los datos de imagen transmitidos por el dispositivo de video endoscópico; convertir los datos de imagen recibidos desde el primer espacio de color a un segundo espacio de color, en donde el segundo espacio de color es diferente del primer espacio de color; identificar una ubicación de una característica de punto de referencia en el video al analizar los datos de imagen en el segundo espacio de color; rastrear una posición de la característica de punto de referencia sobre múltiples estructuras de los datos de imagen; generar un modelo anatómico con base en la característica de punto de referencia rastreado; determinar una ubicación de una característica anatómica objetivo en los datos de video con base en el modelo anatómico; desplegar el video en el dispositivo de despliegue con una indicación de la ubicación de la característica objetivo.
26.- El sistema de conformidad con la reivindicación 25, caracterizado además porque, para determinar la ubicación de la característica anatómica objetivo, el dispositivo de cómputo se configura para determinar la ubicación de la característica anatómica objetivo con base en el modelo anatómico y relaciones anatómicas conocidas entre los aspectos del modelo y la característica anatómica objetivo.
27.- El sistema de conformidad con las reivindicaciones 25 o 26, caracterizado además porque, para generar el modelo anatómico con base en la característica de punto de referencia rastreado, el dispositivo de cómputo se configura para determinar el movimiento de la característica de punto de referencia con base en los cambios en la posición de la característica de punto de referencia entre múltiples estructuras y generar el modelo anatómico con base en el movimiento de la característica de punto de referencia.
28.- El sistema de conformidad con cualquiera de las reivindicaciones 25 a 27, caracterizado además porque, para identificar la ubicación de la característica en la imagen al analizar los datos de imagen en el segundo espacio de color, el dispositivo de cómputo se configura para: generar un histograma de valores de tonalidad de pixeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color; identificar pixeles que están clasificados dentro de una gama de tonalidades en el histograma que corresponden a las características, en donde los datos de segmentación indican los pixeles que están clasificados dentro de la gama de tonalidades en el histograma que corresponden a las características.
29.- El sistema de conformidad con cualquiera de las reivindicaciones 25 a 27, caracterizado además porque para identificar la ubicación de la característica en la imagen al analizar los datos de imagen en el segundo espacio de color, el dispositivo de cómputo se configura para: agrupar pixeles en los datos de imagen en el segundo espacio de color en grupos con base en los valores de tonalidad de los pixeles; determinar un primer grupo de pixeles de entre los grupos de pixeles; determinar un segundo grupo de pixeles de entre los grupos de pixeles; seleccionar uno del primer o segundo grupo de pixeles con base en una diferencia de color relativa entre el primer y segundo grupos de pixeles, en donde los datos de segmentación indican el grupo seleccionado de pixeles.
30.- El sistema de conformidad con la reivindicación 29, caracterizado además porque: para agrupar pixeles, el dispositivo de cómputo se configura para generar un histograma de valores de tonalidad de pixeles en los datos de imagen con base en los datos de imagen en el segundo espacio de color; para determinar un primer grupo de pixeles, el dispositivo de cómputo se configura para determinar un primer conjunto de pixeles que están clasificados dentro de una primera gama de tonalidades en el histograma; para determinar un segundo grupo de pixeles, el dispositivo de cómputo se configura para determinar un segundo conjunto de pixeles que están clasificados dentro de una segunda gama de tonalidades en el histograma; para seleccionar uno del primer o segundo grupo de pixeles, el dispositivo de cómputo se configura para seleccionar uno del primer o segundo conjunto de pixeles con base en una diferencia de color relativa entre la primera gama de tonalidades y la segunda gama de tonalidades.
31. - El sistema de conformidad con cualquiera de las reivindicaciones 25 a 30, caracterizado además porque el primer espacio de color es uno de RGB, YUV, YPrPb, o YcrCb.
32. - El sistema de conformidad con cualquiera de las reivindicaciones 25 a 30, caracterizado además porque el segundo espacio de color es uno de HSV, Lab o HSY.
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201261602106P | 2012-02-23 | 2012-02-23 | |
US201261668743P | 2012-07-06 | 2012-07-06 | |
US201261708157P | 2012-10-01 | 2012-10-01 | |
PCT/US2013/027436 WO2013126780A1 (en) | 2012-02-23 | 2013-02-22 | Video endoscopic system |
Publications (1)
Publication Number | Publication Date |
---|---|
MX2014010163A true MX2014010163A (es) | 2014-09-16 |
Family
ID=47843433
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
MX2014010163A MX2014010163A (es) | 2012-02-23 | 2013-02-22 | Sistema de video endoscopico. |
Country Status (10)
Country | Link |
---|---|
US (2) | US9715727B2 (es) |
EP (2) | EP2976987A3 (es) |
JP (3) | JP6596203B2 (es) |
KR (1) | KR102028780B1 (es) |
CN (2) | CN109567724A (es) |
AU (2) | AU2013222242A1 (es) |
IN (1) | IN2014DN07441A (es) |
MX (1) | MX2014010163A (es) |
RU (1) | RU2657951C2 (es) |
WO (1) | WO2013126780A1 (es) |
Families Citing this family (24)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US11977998B2 (en) * | 2014-05-15 | 2024-05-07 | Storz Endoskop Produktions Gmbh | Surgical workflow support system |
US20160015469A1 (en) * | 2014-07-17 | 2016-01-21 | Kyphon Sarl | Surgical tissue recognition and navigation apparatus and method |
US10582833B2 (en) * | 2014-11-18 | 2020-03-10 | Smith & Nephew, Inc. | Endocoupler with induction coupling |
US9528938B2 (en) | 2015-02-23 | 2016-12-27 | Li-Cor, Inc. | Fluorescence biopsy specimen imager and methods |
CN107529960B (zh) | 2015-05-12 | 2020-10-02 | 亚伯拉罕·莱维 | 动态视野内窥镜 |
CN107709968A (zh) | 2015-06-26 | 2018-02-16 | 利康公司 | 荧光活检样本成像仪及方法 |
WO2017077882A1 (ja) | 2015-11-04 | 2017-05-11 | オリンパス株式会社 | 画像処理装置、内視鏡システム、画像処理方法、及び画像処理プログラム |
US10708478B2 (en) * | 2016-03-23 | 2020-07-07 | Karl Storz Imaging, Inc. | Image transformation and display for fluorescent and visible imaging |
WO2017184940A1 (en) | 2016-04-21 | 2017-10-26 | Li-Cor, Inc. | Multimodality multi-axis 3-d imaging |
DE102016108095A1 (de) * | 2016-05-02 | 2017-11-02 | Olympus Winter & Ibe Gmbh | Endoskopiesystem, Endoskop und Kamerakopf |
EP3475919A1 (en) | 2016-06-23 | 2019-05-01 | Li-Cor, Inc. | Complementary color flashing for multichannel image presentation |
WO2018098162A1 (en) * | 2016-11-23 | 2018-05-31 | Li-Cor, Inc. | Motion-adaptive interactive imaging method |
JP6853076B2 (ja) * | 2017-03-13 | 2021-03-31 | ソニー・オリンパスメディカルソリューションズ株式会社 | 内視鏡装置 |
US10580130B2 (en) | 2017-03-24 | 2020-03-03 | Curadel, LLC | Tissue identification by an imaging system using color information |
US10386301B2 (en) | 2017-04-25 | 2019-08-20 | Li-Cor, Inc. | Top-down and rotational side view biopsy specimen imager and methods |
US10852236B2 (en) | 2017-09-12 | 2020-12-01 | Curadel, LLC | Method of measuring plant nutrient transport using near-infrared imaging |
TW202023489A (zh) * | 2018-11-08 | 2020-07-01 | 美商外科劇院有限責任公司 | 用於光學追蹤之系統及方法 |
EP3998931A4 (en) * | 2019-07-16 | 2023-04-19 | Docbot, Inc. | REAL-TIME DEPLOYMENT OF MACHINE LEARNING SYSTEMS |
CN110969603B (zh) * | 2019-11-26 | 2021-01-05 | 联博智能科技有限公司 | 病变位置的相对定位方法、装置及终端设备 |
CN115136253A (zh) | 2020-02-20 | 2022-09-30 | 史密夫和内修有限公司 | 用于关节镜视频分析的方法及用于其的装置 |
WO2021203082A1 (en) * | 2020-04-03 | 2021-10-07 | Smith & Nephew, Inc. | User interface for digital markers in arthroscopy |
CN111990953A (zh) * | 2020-07-22 | 2020-11-27 | 浙江优亿医疗器械股份有限公司 | 一种关节探视器 |
US11966486B2 (en) * | 2021-08-18 | 2024-04-23 | Verizon Patent And Licensing Inc. | Systems and methods for image preprocessing and segmentation for visual data privacy |
CN116721175B (zh) * | 2023-08-09 | 2023-10-10 | 安翰科技(武汉)股份有限公司 | 一种图像显示方法、图像显示装置以及胶囊内窥镜*** |
Family Cites Families (66)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4756304A (en) * | 1986-10-08 | 1988-07-12 | Watanabe Robert S | Arthroscopic video camera system |
JPS63256916A (ja) | 1987-04-15 | 1988-10-24 | Toshiba Corp | 電子内視鏡装置 |
JPH034832A (ja) * | 1989-06-01 | 1991-01-10 | Toshiba Corp | 電子内視鏡装置 |
US4969450A (en) * | 1990-01-25 | 1990-11-13 | Smith & Nephew Dyonics, Inc. | Videoarthroscope with one-handed control |
DE4238977C2 (de) * | 1992-11-19 | 1996-12-12 | Schoelly Fiberoptic Gmbh | Vorrichtung zur Beleuchtung und Inspektion von Hohl- und Zwischenräumen |
JP3578457B2 (ja) * | 1993-03-31 | 2004-10-20 | ルマ コーポレーション | 内視鏡検査システムにおける情報の管理 |
JPH07234365A (ja) * | 1994-02-21 | 1995-09-05 | Olympus Optical Co Ltd | 内視鏡撮像装置 |
DE19629646C2 (de) | 1996-07-23 | 1998-09-10 | Wolf Gmbh Richard | Verfahren und Vorrichtung zur automatischen Identifikation von Komponenten medizinischer Gerätesysteme |
JP3615890B2 (ja) | 1996-12-04 | 2005-02-02 | フジノン株式会社 | 電子内視鏡装置 |
JPH10216144A (ja) | 1997-02-06 | 1998-08-18 | Olympus Optical Co Ltd | 超音波診断治療装置 |
JPH10309258A (ja) | 1997-05-13 | 1998-11-24 | Olympus Optical Co Ltd | 体腔内観察装置 |
JP4217357B2 (ja) * | 1999-11-15 | 2009-01-28 | オリンパス株式会社 | 内視鏡用撮像装置および内視鏡システム |
US20020138008A1 (en) * | 2000-01-13 | 2002-09-26 | Kazuhiro Tsujita | Method and apparatus for displaying fluorescence images and method and apparatus for acquiring endoscope images |
US6895279B2 (en) | 2000-09-15 | 2005-05-17 | Alfred E. Mann Institute For Biomedical Engineering At The University Of Southern California | Method and apparatus to treat disorders of gastrointestinal peristalsis |
US6692431B2 (en) | 2001-09-07 | 2004-02-17 | Smith & Nephew, Inc. | Endoscopic system with a solid-state light source |
US8194122B2 (en) * | 2002-03-12 | 2012-06-05 | Karl Storz Imaging, Inc. | Universal scope reader |
US8599250B2 (en) | 2002-03-12 | 2013-12-03 | Karl Storz Imaging, Inc. | Wireless camera coupling |
US8723936B2 (en) | 2002-03-12 | 2014-05-13 | Karl Storz Imaging, Inc. | Wireless camera coupling with rotatable coupling |
JP2003334163A (ja) | 2002-03-14 | 2003-11-25 | Olympus Optical Co Ltd | 内視鏡画像処理装置 |
JP2004024656A (ja) * | 2002-06-27 | 2004-01-29 | Fuji Photo Film Co Ltd | 蛍光内視鏡装置 |
US7613335B2 (en) * | 2003-02-12 | 2009-11-03 | The University Of Iowa Research Foundation | Methods and devices useful for analyzing color medical images |
JP3810381B2 (ja) | 2003-04-25 | 2006-08-16 | オリンパス株式会社 | 画像表示装置、画像表示方法および画像表示プログラム |
JP4547402B2 (ja) | 2003-04-25 | 2010-09-22 | オリンパス株式会社 | 画像表示装置、画像表示方法および画像表示プログラム |
US7397364B2 (en) | 2003-11-11 | 2008-07-08 | Biosense Webster, Inc. | Digital wireless position sensor |
EP1645219B1 (en) | 2004-02-16 | 2016-11-09 | Olympus Corporation | Endoscope system |
JP4370201B2 (ja) * | 2004-05-14 | 2009-11-25 | オリンパス株式会社 | 内視鏡 |
WO2005110189A1 (ja) | 2004-05-14 | 2005-11-24 | Olympus Corporation | 内視鏡 |
US8480566B2 (en) * | 2004-09-24 | 2013-07-09 | Vivid Medical, Inc. | Solid state illumination for endoscopy |
JP2006198106A (ja) | 2005-01-19 | 2006-08-03 | Olympus Corp | 電子内視鏡装置 |
US7668450B2 (en) * | 2005-01-28 | 2010-02-23 | Stryker Corporation | Endoscope with integrated light source |
US8029439B2 (en) | 2005-01-28 | 2011-10-04 | Stryker Corporation | Disposable attachable light source unit for an endoscope |
US8672922B2 (en) | 2005-12-20 | 2014-03-18 | Intuitive Surgical Operations, Inc. | Wireless communication in a robotic surgical system |
US8290600B2 (en) | 2006-07-21 | 2012-10-16 | Boston Scientific Scimed, Inc. | Electrical stimulation of body tissue using interconnected electrode assemblies |
JP5121204B2 (ja) * | 2006-10-11 | 2013-01-16 | オリンパス株式会社 | 画像処理装置、画像処理方法、および画像処理プログラム |
US8498695B2 (en) * | 2006-12-22 | 2013-07-30 | Novadaq Technologies Inc. | Imaging system with a single color image sensor for simultaneous fluorescence and color video endoscopy |
CN100565582C (zh) | 2006-12-31 | 2009-12-02 | 四川大学华西医院 | 一种筛选食管微小病变的图像处理方法 |
EP1998165A1 (en) | 2007-06-01 | 2008-12-03 | The European Community, represented by the European Commission | Method of fluorescence imaging |
JP5106928B2 (ja) | 2007-06-14 | 2012-12-26 | オリンパス株式会社 | 画像処理装置および画像処理プログラム |
KR101393487B1 (ko) * | 2007-10-25 | 2014-05-14 | 삼성전자주식회사 | 디스플레이장치 및 그의 화질개선방법 |
JP5312807B2 (ja) * | 2008-01-08 | 2013-10-09 | オリンパス株式会社 | 画像処理装置および画像処理プログラム |
US9603512B2 (en) * | 2008-04-25 | 2017-03-28 | Karl Storz Imaging, Inc. | Wirelessly powered medical devices and instruments |
DE102008027905A1 (de) | 2008-06-12 | 2009-12-17 | Olympus Winter & Ibe Gmbh | Verfahren und Endoskop zur Verbesserung von Endoskopbildern |
JP2009302960A (ja) | 2008-06-13 | 2009-12-24 | Olympus Corp | 映像信号処理装置並びにプログラム及び方法 |
JP5305850B2 (ja) | 2008-11-14 | 2013-10-02 | オリンパス株式会社 | 画像処理装置、画像処理プログラムおよび画像処理方法 |
JP2010187756A (ja) * | 2009-02-16 | 2010-09-02 | Olympus Corp | 画像処理装置、画像処理方法および画像処理プログラム |
RU2406144C1 (ru) * | 2009-03-27 | 2010-12-10 | Учреждение Российской академии наук Институт проблем управления им. В.А. Трапезникова РАН | Способ компьютерной обработки и анализа изображений разнотипных объектов биологической природы |
JP5361511B2 (ja) | 2009-04-21 | 2013-12-04 | オリンパス株式会社 | 内視鏡システム |
US20120316421A1 (en) * | 2009-07-07 | 2012-12-13 | The Johns Hopkins University | System and method for automated disease assessment in capsule endoscopy |
JP2011024135A (ja) * | 2009-07-17 | 2011-02-03 | Fuji Xerox Co Ltd | 画像読取装置、画像形成装置、およびプログラム |
US8363097B2 (en) * | 2009-07-23 | 2013-01-29 | Smith & Nephew, Inc. | Endoscopic imaging system |
JP5624745B2 (ja) | 2009-10-23 | 2014-11-12 | オリンパス株式会社 | 内視鏡システム |
CA2779526C (en) | 2009-11-03 | 2022-12-06 | City Of Hope | Truncated epiderimal growth factor receptor (egfrt) for transduced t cell selection |
WO2011081922A1 (en) | 2009-12-14 | 2011-07-07 | Smith & Nephew, Inc. | Visualization guided acl localization system |
US20110301447A1 (en) * | 2010-06-07 | 2011-12-08 | Sti Medical Systems, Llc | Versatile video interpretation, visualization, and management system |
DE102010039731A1 (de) * | 2010-08-25 | 2012-03-01 | Olympus Winter & Ibe Gmbh | Elektrisches Verbindungselement und Endoskopiesystem |
WO2013084975A1 (ja) | 2011-12-08 | 2013-06-13 | オリンパス株式会社 | 蛍光センサおよび蛍光センサの製造方法 |
JP6141196B2 (ja) | 2011-12-28 | 2017-06-07 | オリンパス株式会社 | 蛍光観察装置 |
DE102011122602A1 (de) | 2011-12-30 | 2013-07-04 | Karl Storz Gmbh & Co. Kg | Vorrichtung und Verfahren zur endoskopischen Fluoreszenzdetektion |
JP5558635B2 (ja) | 2012-02-17 | 2014-07-23 | オリンパスメディカルシステムズ株式会社 | 内視鏡装置 |
WO2013121610A1 (ja) | 2012-02-17 | 2013-08-22 | オリンパスメディカルシステムズ株式会社 | 内視鏡装置及び医用システム |
CN103796571B (zh) | 2012-03-29 | 2017-10-20 | 奥林巴斯株式会社 | 内窥镜*** |
JP6103824B2 (ja) | 2012-06-04 | 2017-03-29 | オリンパス株式会社 | 蛍光内視鏡装置 |
US9629518B2 (en) | 2012-12-27 | 2017-04-25 | Arthrex, Inc. | Contactless camera connection system |
IN2013DE01670A (es) | 2013-06-03 | 2015-06-26 | Samhotra Navneet | |
DE102013213247A1 (de) | 2013-07-05 | 2015-01-08 | Olympus Winter & Ibe Gmbh | Videoendoskopiesystem, Kopplungseinrichtung, Videoendoskop und Kontrolleinrichtung |
US10582833B2 (en) * | 2014-11-18 | 2020-03-10 | Smith & Nephew, Inc. | Endocoupler with induction coupling |
-
2013
- 2013-02-22 CN CN201811244632.7A patent/CN109567724A/zh active Pending
- 2013-02-22 IN IN7441DEN2014 patent/IN2014DN07441A/en unknown
- 2013-02-22 EP EP15167727.5A patent/EP2976987A3/en not_active Withdrawn
- 2013-02-22 CN CN201380021383.4A patent/CN104246828B/zh active Active
- 2013-02-22 RU RU2014136476A patent/RU2657951C2/ru not_active IP Right Cessation
- 2013-02-22 KR KR1020147026046A patent/KR102028780B1/ko active IP Right Grant
- 2013-02-22 EP EP13708317.6A patent/EP2817782B1/en active Active
- 2013-02-22 US US14/380,474 patent/US9715727B2/en active Active
- 2013-02-22 MX MX2014010163A patent/MX2014010163A/es not_active Application Discontinuation
- 2013-02-22 WO PCT/US2013/027436 patent/WO2013126780A1/en active Application Filing
- 2013-02-22 JP JP2014558895A patent/JP6596203B2/ja active Active
- 2013-02-22 AU AU2013222242A patent/AU2013222242A1/en not_active Abandoned
-
2017
- 2017-03-30 US US15/474,752 patent/US10783626B2/en active Active
-
2018
- 2018-02-26 JP JP2018031755A patent/JP6920234B2/ja active Active
- 2018-07-11 AU AU2018205109A patent/AU2018205109A1/en not_active Abandoned
-
2019
- 2019-07-09 JP JP2019127642A patent/JP6843926B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
RU2657951C2 (ru) | 2018-06-18 |
CN104246828B (zh) | 2018-11-23 |
US10783626B2 (en) | 2020-09-22 |
CN109567724A (zh) | 2019-04-05 |
EP2976987A2 (en) | 2016-01-27 |
US20150062153A1 (en) | 2015-03-05 |
IN2014DN07441A (es) | 2015-04-24 |
AU2013222242A1 (en) | 2014-09-18 |
EP2817782A1 (en) | 2014-12-31 |
JP6843926B2 (ja) | 2021-03-17 |
AU2018205109A1 (en) | 2018-07-26 |
RU2014136476A (ru) | 2016-04-10 |
JP2019188223A (ja) | 2019-10-31 |
CN104246828A (zh) | 2014-12-24 |
KR20140127887A (ko) | 2014-11-04 |
WO2013126780A9 (en) | 2014-09-04 |
US9715727B2 (en) | 2017-07-25 |
US20170202443A1 (en) | 2017-07-20 |
JP6596203B2 (ja) | 2019-10-23 |
WO2013126780A1 (en) | 2013-08-29 |
JP2018089424A (ja) | 2018-06-14 |
EP2817782B1 (en) | 2023-08-09 |
JP6920234B2 (ja) | 2021-08-18 |
EP2976987A3 (en) | 2016-06-08 |
KR102028780B1 (ko) | 2019-10-04 |
JP2015509404A (ja) | 2015-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10783626B2 (en) | Video endoscopic system | |
US11033175B2 (en) | Endoscope system and operation method therefor | |
US11272830B2 (en) | Endoscope system and operation method therefor | |
JP6006199B2 (ja) | 蛍光観察装置 | |
CN107847117B (zh) | 图像处理装置及图像处理方法 | |
US20190083180A1 (en) | Medical image processing apparatus, medical image processing method, and program | |
US20200098104A1 (en) | Medical image processing apparatus, medical image processing method, and program | |
US20210169306A1 (en) | Medical image processing apparatus, endoscope system, and method for operating medical image processing apparatus | |
JPWO2014168128A1 (ja) | 内視鏡システム及び内視鏡システムの作動方法 | |
JP2004024656A (ja) | 蛍光内視鏡装置 | |
US11978209B2 (en) | Endoscope system, medical image processing device, and operation method therefor | |
US20230044097A1 (en) | Information processing device and information processing method | |
WO2022059233A1 (ja) | 画像処理装置、内視鏡システム、画像処理装置の作動方法、及び画像処理装置用プログラム | |
JPWO2018220930A1 (ja) | 画像処理装置、画像処理システム及び画像処理装置の作動方法 | |
JP2001340283A (ja) | 蛍光画像表示方法および表示装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
FA | Abandonment or withdrawal |