DE102023101892B3 - Method and system for processing laparoscopic images - Google Patents
Method and system for processing laparoscopic images Download PDFInfo
- Publication number
- DE102023101892B3 DE102023101892B3 DE102023101892.2A DE102023101892A DE102023101892B3 DE 102023101892 B3 DE102023101892 B3 DE 102023101892B3 DE 102023101892 A DE102023101892 A DE 102023101892A DE 102023101892 B3 DE102023101892 B3 DE 102023101892B3
- Authority
- DE
- Germany
- Prior art keywords
- model
- laparoscopic
- images
- computer
- visual representation
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000012545 processing Methods 0.000 title claims abstract description 9
- 230000000007 visual effect Effects 0.000 claims abstract description 27
- 239000002131 composite material Substances 0.000 claims abstract description 24
- 210000000056 organ Anatomy 0.000 claims description 13
- 239000003086 colorant Substances 0.000 claims description 11
- 238000003708 edge detection Methods 0.000 claims description 4
- 230000011218 segmentation Effects 0.000 claims description 4
- 238000013500 data storage Methods 0.000 claims description 3
- 238000001514 detection method Methods 0.000 claims description 3
- 238000010801 machine learning Methods 0.000 description 27
- 238000013473 artificial intelligence Methods 0.000 description 15
- 238000009877 rendering Methods 0.000 description 11
- 238000004422 calculation algorithm Methods 0.000 description 9
- 238000012549 training Methods 0.000 description 4
- 238000012800 visualization Methods 0.000 description 4
- 238000013528 artificial neural network Methods 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 238000007477 logistic regression Methods 0.000 description 2
- 238000007637 random forest analysis Methods 0.000 description 2
- 238000012706 support-vector machine Methods 0.000 description 2
- 230000003044 adaptive effect Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 238000007405 data analysis Methods 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000007812 deficiency Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 230000018109 developmental process Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000011985 exploratory data analysis Methods 0.000 description 1
- 230000006870 function Effects 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000003064 k means clustering Methods 0.000 description 1
- 239000011159 matrix material Substances 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000000513 principal component analysis Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001225 therapeutic effect Effects 0.000 description 1
Images
Classifications
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/313—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes
- A61B1/3132—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor for introducing through surgical openings, e.g. laparoscopes for laparoscopy
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00043—Operational features of endoscopes provided with output arrangements
- A61B1/00045—Display arrangement
- A61B1/0005—Display arrangement combining images e.g. side-by-side, superimposed or tiled
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B90/00—Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T19/00—Manipulating 3D models or images for computer graphics
-
- A—HUMAN NECESSITIES
- A61—MEDICAL OR VETERINARY SCIENCE; HYGIENE
- A61B—DIAGNOSIS; SURGERY; IDENTIFICATION
- A61B1/00—Instruments for performing medical examinations of the interior of cavities or tubes of the body by visual or photographical inspection, e.g. endoscopes; Illuminating arrangements therefor
- A61B1/00002—Operational features of endoscopes
- A61B1/00004—Operational features of endoscopes characterised by electronic signal processing
- A61B1/00009—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope
- A61B1/000095—Operational features of endoscopes characterised by electronic signal processing of image signals during a use of endoscope for image enhancement
Abstract
Die Erfindung betrifft ein Verfahren und System zum Bearbeiten laparoskopischer Bilder, die während eines laparoskopischen Eingriffs unter Verwendung eines Video-Laparoskops aufgenommen werden, indem- laparoskopische Bilder in Bezug auf die Sichtbarkeit eines Objekts analysiert werden,- eine Anordnung eines vorgenerierten 3D-Modells des Objekts in Bezug auf die Position des Objekts in den laparoskopischen Bildern berechnet wird,- eine visuelle Darstellung des 3D-Modells generiert wird,- eine Farbinformation und/oder Helligkeitsinformation der visuellen Darstellung des 3D-Modells und der laparoskopischen Bilder an der Position des 3D-Modells verglichen wird und die Darstellung des 3D-Modells auf der Grundlage des Ergebnisses des Vergleichs in Regionen angepasst wird, in denen der Unterschied unter einem vordefinierten Schwellenwert liegt, und- zusammengesetzte Bilder unter Verwendung der laparoskopischen Bilder und der angepassten Darstellung des 3D-Modells generiert werden.The invention relates to a method and system for processing laparoscopic images acquired during a laparoscopic procedure using a video laparoscope by: - analyzing laparoscopic images in relation to the visibility of an object, - an arrangement of a pre-generated 3D model of the object is calculated in relation to the position of the object in the laparoscopic images, - a visual representation of the 3D model is generated, - color information and / or brightness information of the visual representation of the 3D model and the laparoscopic images at the position of the 3D model comparing and adjusting the representation of the 3D model based on the result of the comparison in regions where the difference is below a predefined threshold, and generating composite images using the laparoscopic images and the adjusted representation of the 3D model .
Description
Die vorliegende Offenlegung betrifft ein Verfahren und ein System zum Bearbeiten laparoskopischer Bilder, die während eines laparoskopischen Eingriffs unter Verwendung eines Video-Laparoskops aufgenommen werden, sowie ein nichtflüchtiges Datenspeichermedium, das Anweisungen für einen Computer enthält.The present disclosure relates to a method and system for processing laparoscopic images captured during a laparoscopic procedure using a video laparoscope and a non-volatile data storage medium containing instructions for a computer.
Bei laparoskopischen Eingriffen unter Verwendung eines Video-Laparoskops betrachtet die Bedienperson ein von dem Video-Laparoskop erzeugtes Bild auf einem Bildschirm, welcher der primäre OP-Monitor sein kann. In einigen Fällen wird das der Bedienperson dargestellte laparoskopische Bild durch Überlagerung des laparoskopischen Bildes mit einer Wiedergabe eines 3D-Modells eines Organs, an dem operiert wird, oder anderer organischer Strukturen bereichert. Derartige 3D-Modelle dienen der Orientierung und Navigation während des Eingriffs und werden zuvor auf der Grundlage von vorherigen radiologischen Scans des Patienten generiert.During laparoscopic procedures using a video laparoscope, the operator views an image generated by the video laparoscope on a screen, which may be the primary surgical monitor. In some cases, the laparoscopic image presented to the operator is enhanced by overlaying the laparoscopic image with a rendering of a 3D model of an organ being operated on or other organic structures. Such 3D models are used for orientation and navigation during the procedure and are previously generated based on previous radiological scans of the patient.
Eine derartige Überlagerung eines 3D-Modells bedeckt Teile des chirurgischen Live-Bildes, abhängig von seiner Position und Ausrichtung. Bei übermäßiger Ähnlichkeit zwischen den in den beiden Teilen des zusammengesetzten Bildes gezeigten Strukturen kann die Überlagerung schwer von dem tatsächlichen laparoskopischen Bild zu unterscheiden sein.Such an overlay of a 3D model covers parts of the live surgical image, depending on its position and orientation. If there is excessive similarity between the structures shown in the two parts of the composite image, the overlay may be difficult to distinguish from the actual laparoscopic image.
Bei einer transparenten oder halbtransparenten Überlagerung mischt sich das überlagerte 3D-Modell des Organs visuell mit dem laparoskopischen Bild. Dies kann zu Detailverlusten oder in extremen Fällen zu Verwechslung zwischen dem chirurgischen Live-Bild im Hintergrund und der Überlagerungsanzeige bei bestimmten Details führen.With a transparent or semi-transparent overlay, the overlaid 3D model of the organ blends visually with the laparoscopic image. This can result in loss of detail or, in extreme cases, confusion between the live surgical image in the background and the overlay display for certain details.
Ein weiteres Artefakt der Überlagerung ist, dass das überlagerte Bild des 3D-Modells des Organs die Sicht auf chirurgische Instrumente innerhalb des laparoskopischen Bildes behindern kann.Another artifact of overlay is that the overlaid image of the 3D model of the organ may obstruct the view of surgical instruments within the laparoscopic image.
Aus
Ferner offenbart
Bei dem Verfahren werden die aktuellen Bilder bezüglich verschiedener optischer Parameter gescannt, darunter Helligkeit, Kontrast und Farbskala, und die optischen Parameter der Überlagerungsbilder an diese optischen Parameter angepasst.The process scans the current images for various optical parameters, including brightness, contrast and color gamut, and adjusts the optical parameters of the overlay images to these optical parameters.
Es ist eine Aufgabe, verbesserte Mittel zum Anzeigen von durch Wiedergaben von 3D-Modellen erweiterten laparoskopischen Bildern vorzusehen.It is an object to provide improved means for displaying laparoscopic images enhanced by renderings of 3D models.
Diese Aufgabe kann gelöst werden durch ein Verfahren zum Bearbeiten laparoskopischer Bilder, die während eines laparoskopischen Eingriffs unter Verwendung eines Video-Laparoskops aufgenommen werden, indem
- - die laparoskopischen Bilder in Bezug auf die Sichtbarkeit eines Objekts analysiert werden,
- - eine Anordnung eines vorgenerierten 3D-Modells des Objekts in Bezug auf die Position des Objekts in den laparoskopischen Bildern berechnet werden,
- - eine visuelle Darstellung des 3D-Modells generiert wird,
- - eine Farbinformation und/oder Helligkeitsinformation der visuellen Darstellung des 3D-Modells und der laparoskopischen Bilder an der Position des 3D-Modells verglichen wird und die Darstellung des 3D-Modells auf der Grundlage des Ergebnisses des Vergleichs in Regionen angepasst wird, in denen der Unterschied unter einem vordefinierten Schwellenwert liegt, und
- - zusammengesetzte Bilder unter Verwendung der laparoskopischen Bilder und der angepassten Darstellung des 3D-Modells generiert werden.
- - the laparoscopic images are analyzed in relation to the visibility of an object,
- - an arrangement of a pre-generated 3D model of the object is calculated in relation to the position of the object in the laparoscopic images,
- - a visual representation of the 3D model is generated,
- - color information and/or brightness information of the visual representation of the 3D model and the laparoscopic images is compared at the position of the 3D model and the representation of the 3D model is adjusted based on the result of the comparison in regions where the difference is below a predefined threshold, and
- - Composite images are generated using the laparoscopic images and the customized representation of the 3D model.
Die zusammengesetzten Bilder können auf einem Bildschirm angezeigt werden.The composite images can be displayed on a screen.
In Ausführungsformen werden die laparoskopischen Bilder in Echtzeit bearbeitet.In embodiments, the laparoscopic images are processed in real time.
Das Objekt, von dem ein 3D-Modell verwendet wird, kann ein oder mehrere Organe und/oder eine organische Struktur sein.The object of which a 3D model is used may be one or more organs and/or an organic structure.
Mit dem hier beschriebenen Verfahren wird das 3D-Modell des Objekts nicht nur als eine Überlagerung über die laparoskopischen Bilder wiedergegeben, sondern angepasst, um einen größeren Kontrast gegenüber den zugrundeliegenden Bildern aufzuweisen, so dass die Ziele einer besseren Unterstützung der Bedienperson durch Verringerung des Risikos einer Verwechslung zwischen der 3D-Modellvisualisierung und den realen laparoskopischen Bildern erfüllt werden. Dies geschieht durch Identifizieren von Bereichen mit unzureichendem Farb- oder Helligkeitskontrast und Anpassen der Visualisierung des 3D-Modells in diesen Bereichen, insbesondere durch Erhöhen des Kontrastes hinsichtlich Farbe und/oder Helligkeit.With the method described here, the 3D model of the object is not only reproduced as an overlay on the laparoscopic images, but is adjusted to provide a larger con contrast to the underlying images, so that the goals of better assisting the operator by reducing the risk of confusion between the 3D model visualization and the real laparoscopic images are met. This is done by identifying areas with insufficient color or brightness contrast and adjusting the visualization of the 3D model in these areas, in particular by increasing the contrast in terms of color and/or brightness.
In Ausführungsformen erfolgt der Vergleich und/oder die Anpassung der visuellen Darstellung des 3D-Modells auf Pixelebene der laparoskopischen Bilder und/oder in Segmenten mehrerer Pixel. Während ein Vergleich und/oder eine Anpassung auf Pixelebene zu äußerst detaillierten zusammengesetzten Bildern führt, beansprucht die Verwendung von Segmenten mehrerer Pixel weniger Rechenzeit und kann unter anderem zur Erhöhung der Wiederholungsrate der bereicherten laparoskopischen Bilder verwendet werden.In embodiments, the comparison and/or adjustment of the visual representation of the 3D model occurs at the pixel level of the laparoscopic images and/or in segments of several pixels. While pixel-level comparison and/or adjustment results in highly detailed composite images, using segments of multiple pixels requires less computational time and can be used, among other things, to increase the repetition rate of the enriched laparoscopic images.
Die Segmentierung beim Vergleich kann sich von der Segmentierung bei der Anpassung der visuellen Darstellung des 3D-Modells unterscheiden. Beispielsweise können die Segmente bei der Anpassung der visuellen Darstellung des 3D-Modells kreisförmig oder elliptisch sein und die beim Vergleich verwendeten Segmente vollständig umgeben. Dieses letzte Merkmal dient dazu, die Wiedergabe des 3D-Modells natürlicher zu gestalten und jegliche Wiedergabeeffekte zu vermeiden.The segmentation when comparing may differ from the segmentation when adjusting the visual representation of the 3D model. For example, when adjusting the visual representation of the 3D model, the segments can be circular or elliptical and completely surround the segments used in the comparison. This last feature is intended to make the rendering of the 3D model more natural and avoid any rendering effects.
In Ausführungsformen kann die Helligkeit der laparoskopischen Bilder reduziert und/oder die Helligkeit der visuellen Darstellung des 3D-Modells erhöht werden. Beide Maßnahmen erhöhen weiter den Kontrast zwischen der Visualisierung des 3D-Modells und den laparoskopischen Bildern.In embodiments, the brightness of the laparoscopic images may be reduced and/or the brightness of the visual representation of the 3D model may be increased. Both measures further increase the contrast between the visualization of the 3D model and the laparoscopic images.
Eine weitere Ausführungsform umfasst Erfassen eines chirurgischen Instruments in den laparoskopischen Bildern und Anpassen der visuellen Darstellung des 3D-Modells, um ein Verdecken des chirurgischen Instruments zu vermeiden. Dies kann dadurch geschehen, dass die 3D-Modellvisualisierung in dem das chirurgische Instrument enthaltenden Bereich des laparoskopischen Bildes transparenter gestaltet wird oder dass der Teil des Organs, der durch das chirurgische Instrument verdeckt werden würde, aus der Wiedergabe des 3D-Modells des Objekts ausgeschnitten wird. Dies würde das chirurgische Instrument perspektivisch vor dem 3D-Modell des Objekts erscheinen lassen. Die Erfassung des chirurgischen Instruments kann beispielsweise durch Objekterkennung und/oder Kantendetektion erfolgen.Another embodiment includes capturing a surgical instrument in the laparoscopic images and adjusting the visual representation of the 3D model to avoid obscuring the surgical instrument. This can be done by making the 3D model visualization more transparent in the area of the laparoscopic image containing the surgical instrument or by cropping the portion of the organ that would be obscured by the surgical instrument from the rendering of the 3D model of the object . This would make the surgical instrument appear in perspective in front of the 3D model of the object. The surgical instrument can be detected, for example, by object recognition and/or edge detection.
In weiteren Ausführungsformen, beispielsweise weiteren Anzeigemodi, können Details aus dem Innenbereich des 3D-Modells des Objekts weggelassen werden, können nur die Außenkonturen des 3D-Modells wiedergegeben werden oder können vorgegebene Kanten des 3D-Modells einschließlich der Außenkonturen des 3D-Modells wiedergegeben werden.In further embodiments, for example further display modes, details from the interior of the 3D model of the object can be omitted, only the outer contours of the 3D model can be reproduced, or predetermined edges of the 3D model including the outer contours of the 3D model can be reproduced.
Die Außenkonturen des 3D-Modells können in zwei stark kontrastierenden Farben oder Helligkeiten abgegrenzt werden. Auf diese Weise sind die Umrisse vor hellen, dunklen und mitteltönigen Hintergründen gleichermaßen sichtbar. Bei Farbbildern können die kontrastierenden Farben gewählt werden, um komplementäre Farben darzustellen, insbesondere Farben, die den größten Kontrast zu den vorherrschenden Farben der laparoskopischen Bilder aufweisen.The outer contours of the 3D model can be delineated in two strongly contrasting colors or brightnesses. This way the outlines are equally visible against light, dark and midtone backgrounds. For color images, the contrasting colors can be chosen to represent complementary colors, particularly colors that have the greatest contrast to the predominant colors of the laparoscopic images.
Ein weiterer Aspekt der vorliegenden Erfindung beruht auf einem System zur Bearbeitung laparoskopischer Bilder, die während eines laparoskopischen Eingriffs unter Verwendung eines Video-Laparoskops aufgenommen werden, aufweisend ein Video-Laparoskop, eine zum Steuern des Video-Laparoskops eingerichtete Kamerasteuerung, einen Computer mit einem Framegrabber, der eingerichtet ist, laparoskopische Bilder von dem Video-Laparoskop aufzunehmen, und einen mit dem Computer verbundenen Bildschirm, wobei der Computer eingerichtet ist,
- - die laparoskopischen Bilder in Bezug auf die Sichtbarkeit eines Objekts zu analysieren,
- - eine Anordnung eines vorgenerierten 3D-Modells des Objekts in Bezug auf die Position des Objekts in den laparoskopischen Bildern zu berechnen,
- - eine visuelle Darstellung des 3D-Modells zu generieren,
- - eine Farbinformation und/oder Helligkeitsinformation der visuellen Darstellung des 3D-Modells und der laparoskopischen Bilder an der Position des 3D-Modells zu vergleichen und die Darstellung des 3D-Modells auf der Grundlage des Ergebnisses des Vergleichs in Bereichen anzupassen, in denen der Unterschied unter einem vordefinierten Schwellenwert liegt, und
- - zusammengesetzte Bilder unter Verwendung der laparoskopischen Bilder und der angepassten Darstellung des 3D-Modells zu generieren.
- - analyze the laparoscopic images in relation to the visibility of an object,
- - calculate an arrangement of a pre-generated 3D model of the object in relation to the position of the object in the laparoscopic images,
- - generate a visual representation of the 3D model,
- - compare color information and/or brightness information of the visual representation of the 3D model and the laparoscopic images at the position of the 3D model and adjust the representation of the 3D model based on the result of the comparison in areas where the difference is below a predefined threshold, and
- - Generate composite images using the laparoscopic images and the customized representation of the 3D model.
Das System verkörpert dadurch die gleichen Merkmale, Eigenschaften und Lösungen wie das vorstehend beschriebene Verfahren.The system thereby embodies the same features, properties and solutions as the method described above.
In Ausführungsformen ist der Computer eingerichtet, den Vergleich und/oder die Anpassung der visuellen Darstellung des 3D-Modells auf Pixelebene der laparoskopischen Bilder und/oder in Segmenten mehrerer Pixel durchzuführen.In embodiments, the computer is set up to perform the comparison and/or adjustment of the visual representation of the 3D model at the pixel level of the laparoscopic images and/or in segments of multiple pixels.
In einer Ausführungsform ist der Computer eingerichtet, die Helligkeit der laparoskopischen Bilder zu reduzieren und/oder die Helligkeit der visuellen Darstellung des 3D-Modells zu erhöhen.In one embodiment, the computer is set up to reduce the brightness of the laparoscopic images and/or increase the brightness of the visual representation of the 3D model.
In einer Ausführungsform ist der Computer eingerichtet, ein chirurgisches Instrument in den laparoskopischen Bildern zu erfassen und die visuelle Darstellung des 3D-Modells anzupassen, um ein Verdecken des chirurgischen Instruments zu vermeiden.In one embodiment, the computer is configured to capture a surgical instrument in the laparoscopic images and adjust the visual representation of the 3D model to avoid obscuring the surgical instrument.
In einer Ausführungsform ist der Computer eingerichtet, die Erfassung des chirurgischen Instruments durch Objekterkennung und/oder Kantendetektion durchzuführen.In one embodiment, the computer is set up to detect the surgical instrument through object recognition and/or edge detection.
Der Computer kann eingerichtet sein, Details aus dem Innenbereich des 3D-Modells des Objekts wegzulassen.The computer may be set up to omit details from the interior of the 3D model of the object.
In einer Ausführungsform ist der Computer eingerichtet, die Außenkonturen des 3D-Modells und/oder vorgegebene Kanten des 3D-Modells, einschließlich der Außenkonturen des 3D-Modells, wiederzugeben.In one embodiment, the computer is set up to reproduce the outer contours of the 3D model and/or predetermined edges of the 3D model, including the outer contours of the 3D model.
In einer anderen Ausführungsform ist der Computer eingerichtet, die Außenkonturen des 3D-Modells in zwei stark kontrastierenden Farben oder Helligkeiten abzugrenzen.In another embodiment, the computer is set up to delineate the outer contours of the 3D model in two strongly contrasting colors or brightnesses.
Die vorstehend beschriebenen Ausführungsformen und Funktionalitäten können auf einer Ausgestaltung des Framegrabbers des Computers für den jeweiligen Zweck beruhen, insbesondere, wenn der Framegrabber mit einer Bildbearbeitungsfunktionalität vorgesehen ist.The embodiments and functionalities described above can be based on a design of the frame grabber of the computer for the respective purpose, in particular if the frame grabber is provided with an image processing functionality.
Ein weiterer Aspekt der vorliegenden Erfindung beruht auf einem nichtflüchtigen Datenspeichermedium, das Anweisungen für einen Computer enthält, die eingerichtet sind, den Computer zu veranlassen, das vorstehend beschriebene Verfahren durchzuführen. Solche Anweisungen können auf einen Computer oder dessen Framegrabber eines vorstehend beschriebenen Systems geladen werden.Another aspect of the present invention is based on a non-volatile data storage medium containing instructions for a computer configured to cause the computer to perform the method described above. Such instructions can be loaded onto a computer or its frame grabber of a system described above.
Weitere Merkmale werden aus der Beschreibung von Ausführungsformen zusammen mit den Ansprüchen und den beigefügten Zeichnungen ersichtlich. Ausführungsformen können einzelne Merkmale oder eine Kombination mehrerer Merkmale erfüllen.Further features will become apparent from the description of embodiments together with the claims and the accompanying drawings. Embodiments may fulfill individual features or a combination of multiple features.
Nachfolgend werden die Ausführungsformen ohne Beschränkung des allgemeinen Erfindungsgedankens beschrieben, wobei bezüglich der Offenlegung aller im Text nicht näher erläuterten Einzelheiten ausdrücklich auf die Zeichnungen verwiesen wird.The embodiments are described below without restricting the general idea of the invention, with express reference being made to the drawings with regard to the disclosure of all details not explained in more detail in the text.
In den Zeichnungen:
-
1 veranschaulicht ein gemäß bekannter Verfahren erzeugtes zusammengesetztes Bild eines laparoskopischen Eingriffs, -
2 veranschaulicht ein gemäß einer ersten Ausführungsform erzeugtes zusammengesetztes Bild eines laparoskopischen Eingriffs, -
3 veranschaulicht eine schematische Darstellung einer Ausführungsform eines Systems zur Bearbeitung laparoskopischer Bilder, -
4 veranschaulicht ein gemäß einer zweiten Ausführungsform erzeugtes zusammengesetztes Bild eines laparoskopischen Eingriffs, -
5 veranschaulicht ein gemäß einer dritten Ausführungsform erzeugtes zusammengesetztes Bild eines laparoskopischen Eingriffs und -
6 veranschaulicht eine schematische Darstellung einer Anordnung eines Maschinenlernmodells zur Verwendung mit der vorliegenden Erfindung.
-
1 illustrates a composite image of a laparoscopic procedure generated according to known methods, -
2 illustrates a composite image of a laparoscopic procedure generated according to a first embodiment, -
3 illustrates a schematic representation of an embodiment of a system for processing laparoscopic images, -
4 illustrates a composite image of a laparoscopic procedure generated according to a second embodiment, -
5 illustrates a composite image of a laparoscopic procedure generated according to a third embodiment and -
6 illustrates a schematic representation of an arrangement of a machine learning model for use with the present invention.
In den Zeichnungen sind gleiche oder gleichartige Elemente oder jeweils entsprechende Teile mit denselben Bezugsziffern versehen, so dass von einer entsprechenden erneuten Vorstellung abgesehen wird.In the drawings, the same or similar elements or corresponding parts are provided with the same reference numbers, so that a corresponding repetition is not necessary.
In
Zwei Bereiche sind durch quadratische Umrandungen in dem zusammengesetzten Bild 6 von
Die Wiedergabe des 3D-Modells 4 basiert auf radiologischen Daten der Organe und organischen Strukturen, die in radiologischen Scans vor dem laparoskopischen Eingriff erzielt wurden. Die Wiedergabe des 3D-Modells 4 ist gemäß dem erfindungsgemäßen Verfahren generiert worden, wobei die Wiedergabe des 3D-Modells 4 mit dem laparoskopischen Bild 2 auf Pixelbasis verglichen und dessen Farb- und/oder Helligkeitsabstand in Bereichen, in denen der Farb- und/oder Helligkeitsunterschied ursprünglich zu gering war, zur klareren Unterscheidbarkeit angepasst wurde. Durch diese Verbesserung hat der Chirurg ein klares Bild davon, welcher Teil des zusammengesetzten Bildes 6 das laparoskopische Live-Bild 2 darstellt und welche Teile das 3D-Modell 4 darstellen.The rendering of the 3D model 4 is based on radiological data of the organs and organic structures obtained in radiological scans before the laparoscopic procedure. The reproduction of the 3D model 4 has been generated according to the method according to the invention, the reproduction of the 3D model 4 being compared with the
Der Computer 14 bzw. Framegrabber 16 hat in seinem Speicher ein 3D-Modell 4 von Organen oder organischen Strukturen des Patienten, der mit dem Video-Laparoskop 11 untersucht wird, und ist eingerichtet, die Position und Ausrichtung des 3D-Modells 4 auf die chirurgischen laparoskopischen Live-Bilder 2 abzustimmen. Sobald die Position und Ausrichtung des 3D-Modells 4 in Bezug auf die laparoskopischen Bilder 2 festgelegt ist, kombiniert auf dem Computer 14 bzw. dem Framegrabber 16 laufende Software die laparoskopischen Bilder 2 mit einer Wiedergabe des 3D-Modells 4, um ein zusammengesetztes Bild 6 zu bilden, das dann auf einem Bildschirm 18 angezeigt wird.The computer 14 or frame grabber 16 has in its memory a 3D model 4 of organs or organic structures of the patient who is being examined with the
Die kontrastreiche Kontur 22 der in
In einigen Ausführungsformen kann die Eingabeschnittstelle 32 eine direkte Datenverbindung zwischen dem Maschinenlernmodell 30 und einer oder mehreren medizinischen Einrichtungen sein, die wenigstens einige der Eingabemerkmale erzeugen. Beispielsweise kann die Eingabeschnittstelle 32 während eines therapeutischen und/oder diagnostischen medizinischen Eingriffs laparoskopische Bilder 2 direkt an das Maschinenlernmodell 30 übertragen. Zusätzlich oder alternativ kann die Eingabeschnittstelle 32 eine klassische Benutzerschnittstelle sein, die eine Interaktion zwischen einem Benutzer und dem Maschinenlernmodell 30 erleichtert. Beispielsweise kann die Eingabeschnittstelle 32 eine Benutzerschnittstelle bereitstellen, über die der Benutzer laparoskopische Bilder manuell eingeben kann. Zusätzlich oder alternativ kann die Eingabeschnittstelle 32 ein Maschinenlernmodell 30 mit Zugriff auf eine elektronische Patientenakte bereitstellen, aus der ein oder mehrere laparoskopische Bilder oder 3D-Modelldaten als Eingabemerkmale extrahiert werden können. In jedem dieser Fälle ist die Eingabeschnittstelle 32 eingerichtet, eines oder mehrere der Eingabemerkmale im Zusammenhang mit einem spezifischen Patienten zu oder vor einem Zeitpunkt zu sammeln, zu dem das Maschinenlernmodell 30 verwendet wird, um das Vorhandensein, die Position und die Ausrichtung von Organen, organischen Strukturen und/oder chirurgischen Instrumenten zu beurteilen.In some embodiments, the
Auf der Grundlage eines oder mehrerer der vorstehenden Eingabemerkmale führt der Prozessor eine Inferenzoperation unter Verwendung des KI-Modells durch, um die vorstehend beschriebene Systemausgabe zu generieren. Beispielsweise kann die Eingabeschnittstelle 32 die laparoskopischen Merkmale einer Eingabeschicht des KI-Modells 34 zuführen, die diese Eingabemerkmale über das KI-Modell 34 an eine Ausgabeschicht weiterleitet. Das KI-Modell kann für das System 10 die Fähigkeit vorsehen, Aufgaben durchzuführen, ohne explizit programmiert zu sein, indem auf der Grundlage von bei der Datenanalyse gefundenen Mustern Inferenzen vorgenommen werden. Das KI-Modell 34 beschäftigt sich mit der Untersuchung und Entwicklung von Algorithmen (z.B. Algorithmen zum maschinellen Lernen), die aus bestehenden Daten lernen und über neue Daten Vorhersagen treffen können. Derartige Algorithmen arbeiten, indem sie ein KI-Modell 34 aus beispielhaftEen Trainingsdaten aufbauen, um als Ausgaben oder Beurteilungen ausgedrückte datengesteuerte Vorhersagen oder Entscheidungen zu treffen.Based on one or more of the above input features, the processor performs an inference operation using the AI model to generate the system output described above. For example, the
Es gibt zwei übliche Modi für maschinelles Lernen (ML): beaufsichtigtes ML und unbeaufsichtigtes ML. Beaufsichtigtes ML verwendet Vorkenntnisse (z.B. Beispiele, die Eingaben mit Ausgaben oder Ergebnissen korrelieren), um die Beziehungen zwischen den Eingaben und den Ausgaben zu lernen. Das Ziel von beaufsichtigtem ML ist es, eine Funktion zu lernen, die bei einigen gegebenen Trainingsdaten die Beziehung zwischen den Trainingseingaben und -ausgaben am besten annähert, so dass das ML-Modell die gleichen Beziehungen umsetzen kann, wenn Eingaben eingegeben werden, um die entsprechenden Ausgaben zu erzeugen. Unbeaufsichtigtes ML ist das Training eines ML-Algorithmus unter Verwendung von Information, die weder klassifiziert noch gekennzeichnet ist und es dem Algorithmus ermöglicht, auf diese Information ohne Anleitung tätig zu werden. Unbeaufsichtigtes ML ist nützlich bei der exploratorischen Analyse, da es eine Datenstruktur automatisch identifizieren kann.There are two common machine learning (ML) modes: supervised ML and unsupervised ML. Supervised ML uses prior knowledge (e.g. examples that correlate inputs with outputs or outcomes) to learn the relationships between the inputs and the outputs. The goal of supervised ML is to learn a function that, given some training data, best approximates the relationship between the training inputs and outputs so that the ML model can implement the same relationships when inputs are input to the corresponding ones to generate expenses. Unsupervised ML is the training of an ML algorithm using information that is neither classified nor labeled, allowing the algorithm to act on that information without guidance. Unsupervised ML is useful in exploratory analysis because it can automatically identify a data structure.
Übliche Aufgaben für beaufsichtigtes ML sind Klassifikationsprobleme und Regressionsprobleme. Klassifikationsprobleme, die auch als Kategorisierungsprobleme bezeichnet werden, zielen darauf ab, Elemente in einen von mehreren Kategoriewerten zu klassifizieren (z.B. ist dieses Objekt ein Apfel oder eine Orange?). Regressionsalgorithmen zielen darauf ab, einige Elemente zu quantifizieren (z.B. indem für den Wert einiger Eingaben eine Punktzahl vorgesehen wird). Einige Beispiele für üblicherweise verwendete beaufsichtigte ML-Algorithmen sind Logistische Regression (LR), Naive-Bayes, Random Forest (RF), neuronale Netzwerke (NN), tiefe neuronale Netzwerke (DNN), Matrixfaktorisierung und Support Vector Machines (SVM).Common tasks for supervised ML are classification problems and regression problems. Classification problems, also known as categorization problems, aim to classify items into one of several category values (e.g., is this object an apple or an orange?). Regression algorithms aim to quantify some elements (e.g. by providing a score for the value of some inputs). Some examples of commonly used supervised ML algorithms are Logistic Regression (LR), Naive Bayes, Random Forest (RF), Neural Networks (NN), Deep Neural Networks (DNN), Matrix Factorization, and Support Vector Machines (SVM).
Einige übliche Aufgaben für unbeaufsichtigtes ML umfassen Clustering, Repräsentationslernen und Dichteschätzung. Einige Beispiele für üblicherweise verwendete unbeaufsichtigte ML-Algorithmen sind K-Means-Clustering, Hauptkomponentenanalyse und Autoencoder.Some common tasks for unsupervised ML include clustering, representation learning, and density estimation. Some examples of commonly used unsupervised ML algorithms are K-means clustering, principal component analysis, and autoencoders.
Eine andere Art von ML ist föderatives Lernen (auch als gemeinschaftliches Lernen bekannt), das einen Algorithmus über mehrere dezentrale, lokale Daten haltende Einrichtungen trainiert, ohne die Daten auszutauschen. Dieser Ansatz steht im Gegensatz zu traditionellen zentralisierten Techniken des maschinellen Lernens, bei denen alle lokalen Datensätze auf einen Server hochgeladen werden, sowie zu klassischeren dezentralen Ansätzen, die oft davon ausgehen, dass lokale Datenproben identisch verteilt sind. Föderatives Lernen ermöglicht es mehreren Akteuren, ein gemeinsames, robustes Modell für maschinelles Lernen zu erstellen, ohne Daten gemeinsam zu benutzen, und ermöglicht so, kritische Probleme zu beheben, wie beispielsweise Datenschutz, Datensicherheit, Datenzugriffsrechte und Zugriff auf heterogene Daten.Another type of ML is federated learning (also known as collaborative learning), which trains an algorithm across multiple decentralized, local data-holding entities without sharing the data. This approach contrasts with traditional centralized machine learning techniques, where all local data sets are uploaded to a server, as well as more classic decentralized approaches, which often assume that local data samples are identically distributed. Federative learning enables multiple actors to build a common, robust machine learning model without sharing data, enabling critical issues such as data privacy, data security, data access rights, and access to heterogeneous data to be addressed.
In einigen Beispielen kann das KI-Modell vor der Durchführung der Inferenzoperation durch den das KI-Modell 34 ausführenden Prozessor kontinuierlich oder periodisch trainiert werden. Dann können während der Inferenzoperation die dem KI-Modell 34 bereitgestellten patientenspezifischen Eingabemerkmale von einer Eingabeebene über eine oder mehrere verborgene Ebenen schließlich zu einer Ausgabeebene weitergeleitet werden, die der in den laparoskopischen Bildern gefundenen Position, Ausrichtung und Strukturtyp entspricht. Beispielsweise kann das KI-Modell 34 den Typ, die Position und Ausrichtung spezifischer Organe oder organischer Strukturen, die in dem patientenspezifischen 3D-Modell dargestellt sind, oder die Position und gegebenenfalls den Typ und/oder die Ausrichtung eines chirurgischen Instruments in den laparoskopischen Bildern 2 identifizieren.In some examples, the AI model may be trained continuously or periodically prior to the processor executing the
Während der und/oder anschließend an die Inferenzoperation können die so gefundenen Positionen, Typen und/oder Ausrichtungen von Objekten dem Benutzer über eine Benutzerschnittstelle (UI) kommuniziert werden, insbesondere durch Wiedergabe des entsprechend positionierten und ausgerichteten 3D-Modells 4. Das KI-Modell 34 kann auch als eine Ausgabe Information aufweisen, die hilft, einen Ausschnittsbereich 20 bei der Wiedergabe des 3D-Modells 4 für zusammengesetzte Bilder 6 bei Vorhandensein eines chirurgischen Werkzeugs 8 zu definieren.During and/or following the inference operation, the positions, types and/or orientations of objects found in this way can be communicated to the user via a user interface (UI), in particular by displaying the correspondingly positioned and aligned 3D model 4. The
BezugszeichenlisteReference symbol list
- 22
- laparoskopisches Bildlaparoscopic image
- 44
- 3D-Modell3D model
- 66
- zusammengesetztes Bildcomposite image
- 88th
- chirurgisches Instrumentsurgical instrument
- 1010
- Systemsystem
- 1111
- Video-LaparoskopVideo laparoscope
- 1212
- KamerasteuerungCamera control
- 1414
- Computercomputer
- 1616
- FramegrabberFrame grabber
- 1818
- BildschirmScreen
- 2020
- AusschnittsbereichCutting area
- 2222
- kontrastreiche Konturhigh-contrast contour
- 3030
- MaschinenlernmodellMachine learning model
- 3232
- EingabeschnittstelleInput interface
- 3434
- KI-ModellAI model
- 3636
- AusgabeschnittstelleOutput interface
Claims (21)
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102023101892.2A DE102023101892B3 (en) | 2023-01-26 | 2023-01-26 | Method and system for processing laparoscopic images |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE102023101892.2A DE102023101892B3 (en) | 2023-01-26 | 2023-01-26 | Method and system for processing laparoscopic images |
Publications (1)
Publication Number | Publication Date |
---|---|
DE102023101892B3 true DE102023101892B3 (en) | 2024-03-21 |
Family
ID=90062158
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
DE102023101892.2A Active DE102023101892B3 (en) | 2023-01-26 | 2023-01-26 | Method and system for processing laparoscopic images |
Country Status (1)
Country | Link |
---|---|
DE (1) | DE102023101892B3 (en) |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10154239B2 (en) | 2014-12-30 | 2018-12-11 | Onpoint Medical, Inc. | Image-guided surgery with surface reconstruction and augmented reality visualization |
US10460457B2 (en) | 2016-07-12 | 2019-10-29 | Novartis Ag | Adaptive adjustment of overlay image parameters |
-
2023
- 2023-01-26 DE DE102023101892.2A patent/DE102023101892B3/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10154239B2 (en) | 2014-12-30 | 2018-12-11 | Onpoint Medical, Inc. | Image-guided surgery with surface reconstruction and augmented reality visualization |
US10460457B2 (en) | 2016-07-12 | 2019-10-29 | Novartis Ag | Adaptive adjustment of overlay image parameters |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
DE102016012744B4 (en) | Robot system with a CNC control and a robot control device, which are connected to each other via a communication network | |
EP3201826B1 (en) | Method and data-processing device for computer-assisted hair colouring guidance | |
DE112015000917T5 (en) | Image processing apparatus, image processing method and image processing program | |
DE19955690A1 (en) | System for selection of volume regions in a graphics display based upon segmentation to allow specific features to be observed | |
DE102005029607A1 (en) | Method and device for visualizing biological structures using 3D position information from segmentation results | |
DE112015000972T5 (en) | Image processing apparatus, image processing method and image processing program | |
DE102005002949A1 (en) | Myocard damage viewing procedure uses surface model segmentation matching of computer tomography images for automatic display | |
DE102015009820A1 (en) | Image segmentation for a live camera recording | |
WO2017153354A1 (en) | Method and device for evaluating view images | |
EP3540632B1 (en) | Method for classifying tissue samples | |
WO2017153355A1 (en) | Method and device for carrying out eye gaze mapping | |
EP2787485B1 (en) | Method and device for automatic detection of defects in flexible bodies | |
EP3930563A1 (en) | Method for evaluating skin lesions using artificial intelligence | |
DE102012009257B4 (en) | Method for execution when operating a microscope and microscope | |
DE102005024949A1 (en) | Volume data sets e.g. computer tomography volume data sets, structures representation method, involves determining color and opacity values of allocation instruction from position coordinates at one position | |
DE102011016691A1 (en) | Method and system for assisting in the selection of at least one object from a group of stored objects | |
DE102005049017B4 (en) | Method for segmentation in an n-dimensional feature space and method for classification based on geometric properties of segmented objects in an n-dimensional data space | |
DE102023101892B3 (en) | Method and system for processing laparoscopic images | |
DE102024102047B3 (en) | Method and system for processing laparoscopic images | |
DE10163813A1 (en) | Method for displaying different images of an examination object | |
DE102020215930A1 (en) | VISUAL ANALYSIS PLATFORM FOR UPDATING OBJECT DETECTION MODELS IN AUTONOMOUS DRIVING APPLICATIONS | |
DE10160206A1 (en) | Method and device for creating an isolated representation of body structures | |
DE19953308A1 (en) | Image system for producing image spreadsheet e.g. for medical applications aligns images so that registration markers of corresponding cells in spreadsheet match | |
EP3155588B1 (en) | Whole-body image recording and image processing system and method for operating same | |
DE102020129164A1 (en) | METHOD AND DEVICE FOR DISTINGUISHING DIFFERENT CONFIGURATION STATES OF AN OBJECT ON THE BASIS OF A PICTURED REPRESENTATION OF THE OBJECT |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R163 | Identified publications notified | ||
R012 | Request for examination validly filed | ||
R016 | Response to examination communication | ||
R018 | Grant decision by examination section/examining division |