DE102022201914A1 - Verfahren zur Überwachung eines medizinischen Eingriffs, Überwachungssystem und Gesamtsystem - Google Patents

Verfahren zur Überwachung eines medizinischen Eingriffs, Überwachungssystem und Gesamtsystem Download PDF

Info

Publication number
DE102022201914A1
DE102022201914A1 DE102022201914.8A DE102022201914A DE102022201914A1 DE 102022201914 A1 DE102022201914 A1 DE 102022201914A1 DE 102022201914 A DE102022201914 A DE 102022201914A DE 102022201914 A1 DE102022201914 A1 DE 102022201914A1
Authority
DE
Germany
Prior art keywords
medical
examination
stress
person
intervention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102022201914.8A
Other languages
English (en)
Inventor
Christian KAETHNER
Marcus Pfister
Philipp Roser
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Siemens Healthcare GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Healthcare GmbH filed Critical Siemens Healthcare GmbH
Priority to DE102022201914.8A priority Critical patent/DE102022201914A1/de
Priority to US18/113,620 priority patent/US20230268069A1/en
Priority to CN202310159279.7A priority patent/CN116636844A/zh
Publication of DE102022201914A1 publication Critical patent/DE102022201914A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/16Devices for psychotechnics; Testing reaction times ; Devices for evaluating the psychological state
    • A61B5/165Evaluating the state of mind, e.g. depression, anxiety
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/30Surgical robots
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/70Manipulators specially adapted for use in surgery
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique
    • G10L25/30Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique using neural networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use
    • G10L25/51Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination
    • G10L25/63Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use for comparison or discrimination for estimating an emotional state
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H70/00ICT specially adapted for the handling or processing of medical references
    • G16H70/20ICT specially adapted for the handling or processing of medical references relating to practices or guidelines
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/20Surgical navigation systems; Devices for tracking or guiding surgical instruments, e.g. for frameless stereotaxis
    • A61B2034/2046Tracking techniques
    • A61B2034/2065Tracking using image or pattern recognition
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/63ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for local operation
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation

Landscapes

  • Health & Medical Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Surgery (AREA)
  • Primary Health Care (AREA)
  • Epidemiology (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Molecular Biology (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Psychiatry (AREA)
  • Physics & Mathematics (AREA)
  • Robotics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Hospice & Palliative Care (AREA)
  • Signal Processing (AREA)
  • Computational Linguistics (AREA)
  • Human Computer Interaction (AREA)
  • Child & Adolescent Psychology (AREA)
  • Acoustics & Sound (AREA)
  • Pathology (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Biophysics (AREA)
  • Social Psychology (AREA)
  • Psychology (AREA)
  • Educational Technology (AREA)
  • Developmental Disabilities (AREA)
  • Bioethics (AREA)
  • Databases & Information Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Apparatus For Radiation Diagnosis (AREA)

Abstract

Die Erfindung umfasst ein Verfahren zur Überwachung eines in einem Operationsraum oder Untersuchungsraum stattfindenden medizinischen Eingriffs oder einer medizinischen Untersuchung an einem Patienten durch medizinisches Personal, insbesondere mit zumindest einem medizinischen Gerät und/oder zumindest einem medizinischen Objekt, mit den folgenden Schritten: Aufnahme von Sensordaten zumindest eines akustischen Sensors, insbesondere in Form von Sprachaufnahmen, zumindest einer Person des medizinischen Personals während des Eingriffs oder der Untersuchung, Auswertung der Sensordaten des akustischen Sensors hinsichtlich einer Erkennung von Stress und/oder negativen Emotionen der zumindest einen Person, Bei Erkennen von Stress und/oder negativen Emotionen, Ermittlung zumindest einer Ursache des Stresses und/oder der negativen Emotionen, insbesondere unter Verwendung der Sensordaten und/oder weiterer optischer, akustischer, haptischer, digitaler und/oder anderer während des Eingriffs oder der Untersuchung aufgenommener Daten, und Ansteuerung von Maßnahmen zur Behebung der ermittelten Ursache und/oder zur Reduzierung des Stresses und/oder der negativen Emotionen der zumindest einen Person.

Description

  • Die Erfindung betrifft ein Verfahren zur Überwachung eines in einem Operationsraum oder Untersuchungsraum stattfindenden medizinischen Eingriffs oder einer medizinischen Untersuchung an einem Patienten durch medizinisches Personal gemäß dem Patentanspruch 1, ein Überwachungssystem zur Durchführung eines derartigen Verfahrens gemäß dem Patentanspruch 8 und ein medizinisches Gesamtsystem mit einem Überwachungssystem gemäß dem Patentanspruch 11.
  • Aktuelle Forschungsthemen in der Medizintechnik beschäftigen sich unter anderem mit dem Thema der „Digitalisierung im OP“, und dabei vor allem mit der Ausstattung eines Operationsraumes mit Sensoren wie z.B. mit 3D-Kameras oder Mikrophonen. Aus den Daten dieser Sensoren sollen z.B. Rückschlüsse über einen aktuellen Schritt bei einem operativen Eingriff gezogen (N. Padoy et al.: „Machine and deep learning for workflow recognition during surgery“, Minimally Invasive Therapy & Allied Technologies, 2019) 2020Q26517 oder eine Gerätebedienung, z.B. eines medizinischen Bildgebungsgeräts oder medizinischen Robotersystems, erleichtert werden. Ein Beispiel für eine verbesserte Gerätebedienung ist die Steuerung des Gerätes per Spracheingabe. Ein entsprechender bekannter Forschungsbereich ist das „Natural Language Processing (NLP)“, also das Erkennen von Sprache im gesprochenen Kontext.
  • Auch mit diesen neuen Themen bleibt die Durchführung einer minimal-invasiven Prozedur bzw. die Bedienung eines Gerätes wie z.B. etwa eines C-Bogen-Röntgengerätes oder medizinischen Robotersystems eine komplexe Aufgabe. Viele Aspekte tragen hierbei zu einem erhöhten Stress eines oder mehrerer Personen des medizinischen Personals, welche den Eingriff durchführen und/oder das Gerät bedienen, bei. Dies wiederum führt zu einer erhöhten Fehleranfälligkeit der Prozedur.
  • Das gilt insbesondere auch für remote ausgeführte Eingriffe, welche (z.B. über ein Robotersystem) von einem Experten durchgeführt werden, welcher sich außerhalb des betreffenden Krankenhauses, häufig sogar in einer anderen Stadt oder einem anderen Land, befindet und per Datenstrom zugeschaltet ist. Sowohl die räumliche Trennung als auch der oft niedrigere Erfahrungslevel des vor Ort befindlichen medizinischen Personals kann zu entsprechenden Stress-Situationen führen. Des Weiteren können auch die „Eingespieltheit“ eines solchen Teams oder auch die entsprechend komplexen Prozedurabläufe selbst einen entsprechenden Beitrag leisten.
  • Es ist bekannt, im Rahmen der Spracherkennung auch Emotionen und Stress aus Sprachaufzeichnungen zu erkennen, siehe z.B. „Emotion recognition from speech: a review“ by S. G. Koolagudi et al., Int J Speech Technol 15:99-117, 2012 und „Deep Learning Techniques for Speech Emotion Recognition, from Databases to Models" by B.J. Abbaschian et al., Sensors 2021, 21, 1249.
  • Es ist Aufgabe der vorliegenden Erfindung, ein Verfahren bereitzustellen, welches eine Reduzierung der Fehleranfälligkeit bei medizinischen Eingriffen und Untersuchungen aufgrund von Stressituationen ermöglicht; des Weiteren ist es Aufgabe der Erfindung, ein für die Durchführung des Verfahrens geeignetes System bereitzustellen.
  • Die Aufgabe wird erfindungsgemäß gelöst durch ein Verfahren zur Überwachung eines in einem Operationsraum oder Untersuchungsraum stattfindenden medizinischen Eingriffs oder einer medizinischen Untersuchung an einem Patienten durch medizinisches Personal gemäß dem Patentanspruch 1, ein Überwachungssystem zur Durchführung eines derartigen Verfahrens gemäß dem Patentanspruch 8 und ein medizinisches Gesamtsystem mit einem Überwachungssystem gemäß dem Patentanspruch 11. Vorteilhafte Ausgestaltungen der Erfindung sind jeweils Gegenstand der zugehörigen Unteransprüche.
  • Bei dem erfindungsgemäßen Verfahren zur Überwachung eines in einem Operationsraum oder Untersuchungsraum stattfindenden medizinischen Eingriffs oder einer medizinischen Untersuchung an einem Patienten durch medizinisches Personal, insbesondere mit zumindest einem medizinischen Gerät und/oder zumindest einem medizinischen Objekt, werden die folgenden Schritte durchgeführt: Aufnahme von Sensordaten zumindest eines akustischen Sensors, insbesondere in Form von Sprachaufnahmen, zumindest einer Person des medizinischen Personals während des Eingriffs oder der Untersuchung, Auswertung der Sensordaten des akustischen Sensors hinsichtlich einer Erkennung von Stress und/oder negativen Emotionen der zumindest einen Person, bei Erkennen von Stress und/oder negativen Emotionen, Ermittlung zumindest einer mit dem Eingriff oder der Untersuchung in Zusammenhang stehender Ursache des Stresses und/oder der negativen Emotionen, insbesondere unter Verwendung der Sensordaten und/oder weiterer optischer, akustischer, haptischer, digitaler und/oder anderer während des Eingriffs oder der Untersuchung aufgenommener Daten, und Ansteuerung von Maßnahmen zur Behebung der ermittelten Ursache und/oder zur Reduzierung des Stresses und/oder der negativen Emotionen der zumindest einen Person.
  • Durch das Verfahren werden nicht nur der Stress oder die negativen Emotionen bestimmter Personen des medizinischen Personals mittels Sprachaufnahmen erkannt, es wird auch eine Ursache des Stresses ermittelt, wobei insbesondere Ursachen umfasst sind, welche mit dem Eingriff oder der Untersuchung in unmittelbarem oder mittelbarem Zusammenhang stehen. Anschließend wird die Ursache dann gezielt ausgeschaltet, indem dedizierte Gegenmaßnahmen eingeleitet werden. Dadurch können der Stress bzw. die negative(n) Emotion(en) zumindest reduziert, im besten Fall sogar ausgeschaltet werden. Durch die Gesamtheit des Verfahrens können also medizinische Eingriffe und Untersuchungen für das Personal stressfreier gemacht werden. Das bedeutet aber auch, dass der Eingriff bzw. die Untersuchung für den Patienten sicherer wird, da Fehler des Personals signifikant reduziert werden. Sowohl für das Personal als auch für den Patienten wird also das Risiko für gesundheitliche Einschränkungen minimiert. Zusätzlich kann ein medizinischer Eingriff durch die Stressreduzierung auch beschleunigt werden, was wiederum einen höheren Patientendurchsatz und eine bessere Patientenversorgung ermöglicht.
  • Ein Beispiel für eine negative Emotion ist z.B. Angst oder Wut, welche dann wiederum zum Stress beitragen. Auch Müdigkeit oder Schmerzen können zu Stress beitragen.
  • Bei dem medizinischen Eingriff kann es sich zum Beispiel um eine minimalinvasive OP handeln, z.B. um eine Navigation eines medizinischen Objektes (Katheter, Stent, Führungsdraht, Instrument usw.) durch ein Hohlorgan eines Patienten mit oder ohne Unterstützung durch ein Robotersystem. Es kann sich auch um eine 2D- oder 3D-Bildaufnahme durch ein medizinisches Gerät (Bildgebungsgerät wie Röntgengerät, CT, MR, Ultraschall usw.) handeln. Umfasst sind sämtliche medizinischen Untersuchungen oder Eingriffe, insbesondere auch solche mit aus mehreren Schritten bestehenden Abfolgen. Auch Eingriffe mit remote zugeschalteten Personen des medizinischen Personals sind umfasst.
  • Nach einer Ausgestaltung der Erfindung werden Sensordaten in Form von gesprochener Sprache aufgenommen und wird eine Auswertung der gesprochenen Sprache unter Verwendung zumindest eines vortrainierten Algorithmus des maschinellen Lernens und/oder einer Datenbank durchgeführt. Durch derartige Algorithmen, zum Beispiel auch deep learning Algorithmen oder convolutional neural networks, können auf einfache Weise und besonders schnell (also z.B. live im OP) aus Sprachaufnahmen Stress oder negative Emotionen erkannt werden. Dies ist z.B. aus „Emotion recognition from speech: a review“ by S. G. Koolagudi et al., Int J Speech Technol 15:99-117, 2012 und „Deep Learning Techniques for Speech Emotion Recognition, from Databases to Models" by B.J. Abbaschian et al., Sensors 2021, 21, 1249, bekannt.
  • Nach einer weiteren Ausgestaltung der Erfindung wird die Ursache des Stresses und/oder der Emotionen unter Verwendung der akustischen Sensordaten und/oder von Sensordaten weiterer Sensoren, Systemdaten des medizinischen Geräts oder anderer Geräte, medizinischen Bildgebungsaufnahmen des Patienten, Eingaben der Person, Kameraaufnahmen des Eingriffs oder der Untersuchung, Eye Tracking-Daten der Person, Vitalparamatern der Person und/oder des Patienten, Funktionsdaten von Objekten oder Geräten und/oder anderen Informationen über den Eingriff oder die Untersuchung ermittelt. Durch zumindest einen, insbesondere mehrere dieser Informationsquellen kann eine umfassende Analyse durchgeführt und zumindest eine Ursache des Stresses oder der negativen Emotion(en) gefunden werden. Hierbei sind vor allem Ursachen umfasst, welche mit dem Eingriff oder der Untersuchung in unmittelbarem oder mittelbarem Zusammenhang stehen. Die Daten, welche für die Analyse verwendet werden, können z.B. von den entsprechenden Sensoren, Geräten oder Informationsspeichern zu einer Ermittlungseinheit übertragen werden, zum Beispiel mittels einer kabellosen oder kabelgebundenen Datenübertragungsstrecke. Die Ermittlungseinheit wertet die entsprechenden Daten aus. Hierfür kann ebenfalls z.B. zumindest ein vortrainierter Algorithmus des maschinellen Lernens verwendet werden. Neben den mit dem Eingriff in Zusammenhang stehenden Ursachen können zusätzlich auch allgemeine Ursachen, wie zum Beispiel Müdigkeit der Person, in Betracht gezogen werden.
  • Nach einer weiteren Ausgestaltung der Erfindung steht zumindest eine der folgenden Ursachen des Stresses oder der negativen Emotionen zur Auswahl: Probleme mit dem medizinischen (Bildgebungs-)Gerät, insbesondere Bedienungsprobleme und/oder auftretende Fehler (Gerätefehler oder Userfehler) und/oder Kollisionen von Bauteilen oder mit anderen Geräten, Probleme mit dem medizinischen Objekt, insbesondere Bedienungsprobleme und/oder Fehlfunktionen, Probleme mit dem Eingriff oder der Untersuchung als solchem/r, insbesondere Fehler und/oder medizinische Notfälle und/oder ungeplant auftretende Ereignisse, und/oder ein Konflikt mit einer weiteren Person des medizinischen Personals.
  • Nach einer weiteren Ausgestaltung der Erfindung werden von der Ursache des Stresses oder der negativen Emotionen abhängige Maßnahmen angesteuert. Die entsprechenden Maßnahmen werden also gezielt auf die Ursachen hin ausgewählt und umgesetzt. Auf diese Weise kann die Ursache besonders effektiv ausgeschaltet und der Stress oder die negative Emotion der Person reduziert werden.
  • Nach einer weiteren Ausgestaltung der Erfindung umfassen die Maßnahmen zur Behebung der zumindest einen ermittelten Ursache zumindest eine Bedienungsunterstützung bei dem medizinischen Gerät oder medizinischen Objekt, insbesondere in Form von optischen Anzeigen, automatischer Menüführung, Online-Hilfe, Checklisten oder einem vereinfachten UI, und/oder eine automatische Hilfestellung und/oder eine automatische Fehlerbehebung und/oder ein Kollisionsmanagement und/oder eine automatische Hilfestellung bei Schritten des Eingriffs oder der Untersuchung und/oder eine Abfrage an die Person.
  • Die Erfindung umfasst außerdem ein System zur Überwachung eines in einem Operationsraum oder Untersuchungsraum stattfindenden medizinischen Eingriffs oder einer medizinischen Untersuchung an einem Patienten durch medizinisches Personal, aufweisend zumindest einen akustischen Sensor zur Aufnahme von Sensordaten, insbesondere von Sprachaufnahmen, zumindest einer Person des medizinischen Personals, eine Auswertungseinheit zur Auswertung der Sensordaten hinsichtlich einer Erkennung von Stress und/oder negativen Emotionen der zumindest einen Person, eine Ermittlungseinheit zur Ermittlung zumindest einer Ursache des Stresses und/oder der negativen Emotionen, und eine Steuerungseinheit zur Ansteuerung von Maßnahmen zur Behebung der ermittelten Ursache und/oder zur Reduzierung des Stresses und/oder der negativen Emotionen der zumindest einen Person. Durch das System kann ebenfalls effizient Stress von medizinischem Personal reduziert werden und damit medizinische Eingriff oder Untersuchungen sicherer, schneller und angenehmer für alle durchgeführt werden.
  • Insbesondere weist das System zumindest eine Bedieneinheit zur Bedienung des Systems durch die zumindest eine Person des medizinischen Personals auf. Hierbei kann es sich zum Beispiel um einen PC mit einer Eingabeeinheit und einer Anzeigeeinheit handeln, um ein Smart Device oder um einen Joystick.
  • In vorteilhafter Weise für eine besonders schnelle und umfassende Durchführung des Verfahrens weist die Auswertungseinheit und/oder die Ermittlungseinheit zumindest einen trainierten Algorithmus zum maschinellen Lernen auf. Durch derartige Algorithmen können besonders schnell und einfach große Datenmengen analysiert und verarbeitet werden und gezielte Ergebnisse erhalten werden.
  • Die Erfindung umfasst außerdem ein Medizinisches Gesamtsystem mit einem Überwachungssystem. Das medizinische Gesamtsystem umfasst in vorteilhafter Weise ein medizinisches Gerät in Form von einem Bildgebungsgerät, insbesondere einem Röntgengerät. Dieses wird zum Beispiel für eine Röntgendurchleuchtung während des Eingriffs oder der Untersuchung verwendet. Das medizinische Gesamtsystem umfasst in vorteilhafter Weise ein Robotersystem zur robotergestützten Navigation eines medizinischen Objekts durch ein Hohlorgan eines Patienten.
  • Das Gesamtsystem kann außerdem noch eine Vielzahl anderer Geräte, Objekte, Sensoren oder Messinstrumente umfassen. Zur Datenübertragung und/oder Ansteuerung kann das Überwachungssystem mit den anderen Geräten, Objekten, Sensoren oder Messinstrumenten in Datenübertragungsverbindung stehen, zum Beispiel kabellos (WLAN, Bluetooth usw.) oder kabelgebunden.
  • Nach einer Ausgestaltung der Erfindung ist zumindest eine der Personen des medizinischen Personals mittels einer remote Verbindung an dem Eingriff oder der Untersuchung beteiligt.
  • Die Erfindung sowie weitere vorteilhafte Ausgestaltungen gemäß Merkmalen der Unteransprüche werden im Folgenden anhand schematisch dargestellter Ausführungsbeispiele in der Zeichnung näher erläutert, ohne dass dadurch eine Beschränkung der Erfindung auf diese Ausführungsbeispiele erfolgt. Es zeigen:
    • 1 eine Ansicht eines Gesamtsystems mit einem Überwachungssystem in einem Operationsraum; und
    • 2 ein Verfahren zur Überwachung eines in einem Operationsraum oder Untersuchungsraum stattfindenden medizinischen Eingriffs.
  • In der 1 ist ein Gesamtsystem mit einem Überwachungssystem 1 zur Überwachung eines in einem Operationsraum oder Untersuchungsraum 8 stattfindenden medizinischen Eingriffs oder einer medizinischen Untersuchung an einem Patienten 5 durch medizinisches Personal gezeigt. Die Schritte des zugehörigen Verfahrens sind in der 2 gezeigt.
  • Bei dem medizinischen Eingriff oder der Untersuchung kann es sich um jeden denkbaren medizinischen Vorgang handeln. Im Folgenden wird beispielhaft eine Navigation eines medizinischen Objektes (Katheter, Stent, Führungsdraht usw.) durch ein Hohlorgan eines Patienten unter Röntgendurchleuchtung behandelt. Das hierfür verwendete Gesamtsystem weist ein Überwachungssystem 1 mit einer Auswertungseinheit 11, einer Ermittlungseinheit 12 und einer Steuerungseinheit 17 auf. Außerdem weist das Gesamtsystem ein Röntgengerät 2 zur Aufnahme von Röntgenbildern (z.B. Durchleuchtungsbildern) und ein Robotersystem 6 zur roboterunterstützten Navigation eines medizinischen Objekts durch ein Hohlorgan des Patienten 5 auf. Die Komponenten des Gesamtsystems können teilweise über den Operationsraum 8 verteilt angeordnet sein.
  • In einem ersten Schritt 20 werden während des entsprechenden Eingriffs oder der Untersuchung Sprachaufnahmen zumindest einer Person 13 des medizinischen Personals durch einen akustischen Sensor aufgenommen. Der akustische Sensor kann zum Beispiel von einem Mikrofon 3 oder einer Vielzahl von Mikrofonen gebildet werden. Das Mikrofon 3 kann in dem Operationsraum 8, in welchem der Eingriff stattfindet, angeordnet sein oder die Person 13 trägt das Mikrofon 3 bei sich. Die Person 13 kann z.B. eine Ärztin sein, ein Krankenpfleger oder ein Servicetechniker. Die Person 13 kann vor Ort sein, außerdem kann auch anderes medizinisches Personal vor Ort oder remote zugeschaltet sein. Es kann auch die Person 13 remote zugeschaltet und anderes Personal vor Ort sein.
  • In einem zweiten Schritt 21 werden die Sensordaten, insbesondere Sprachaufnahmen, des Mikrofons 3 hinsichtlich einer Erkennung von Stress und/oder negativen Emotionen der zumindest einen Person ausgewertet. Dies erfolgt zum Beispiel mittels der Auswerteeinheit 11. Die Sprachaufnahmen können zuvor zum Beispiel mittels einer kabellosen oder kabelgebundenen Datenübertragungsverbindung 19 (WLAN, Bluetooth, usw.) von dem Mikrofon 3 an die Auswerteeinheit 11 übertragen werden.
  • Es kann vorgesehen sein, zu speziellen Zeitpunkten, in regelmäßigen Abständen oder kontinuierlich Sensordaten zu übertragen und live auszuwerten, um auf etwaige Änderungen schnell reagieren zu können. Die Auswerteeinheit 11 kann die Auswertung z.B. unter Verwendung zumindest eines vortrainierten Algorithmus des maschinellen Lernens durchführen. Durch derartige Algorithmen, zum Beispiel auch deep learning Algorithmen oder convolutional neural networks (CNN, GAN usw.) können auf einfache Weise und besonders schnell (also z.B. live im OP) aus den Sprachaufnahmen Stress und/oder negative Emotionen erkannt werden. Dies ist z.B. aus „Emotion recognition from speech: a review" by S. G. Koolagudi et al., Int J Speech Technol 15:99-117, 2012 und „Deep Learning Techniques for Speech Emotion Recognition, from Databases to Models" by B.J. Abbaschian et al., Sensors 2021, 21, 1249, bekannt.
  • Zusätzlich können aus den Sprachaufnahmen auch Sprachbefehle, z.B. für eine Sprachsteuerung eines Gerätes, entnommen werden.
  • Ein Beispiel für eine negative Emotion ist z.B. Angst oder Wut, welche zum Stress beitragen können. Auch Müdigkeit oder Schmerzen können zu Stress beitragen.
  • In einem dritten Schritt 22 wird bei Erkennen von Stress und/oder negativen Emotionen zumindest eine Ursache des Stresses und/oder der negativen Emotionen identifiziert, insbesondere eine derartige Ursache, welche mittelbar oder unmittelbar mit dem Eingriff oder der Untersuchung in Zusammenhang steht. Dies wird z.B. von einer Ermittlungseinheit 12 durchgeführt, wobei auch hierfür zumindest ein vortrainierter Algorithmus des maschinellen Lernens (Machine learning, deep learning, CNN, GAN usw.) herangezogen werden kann.
  • Um die Ursache(n) zu ermitteln, können wiederum die Sensordaten des akustischen Sensors, insbesondere Sprachaufnahmen des Mikrofons 3, herangezogen werden und die darin enthaltene gesprochene Sprache analysiert werden (NLP=natural language processing, z.B. auch unter Zuhilfenahme von bestimmten Schlüsselwörtern). Zusätzlich können für die Ursachenermittlung weitere optische, akustische, haptische, digitale und/oder andere während des Eingriffs oder der Untersuchung aufgenommene Daten herangezogen werden, welche einen Rückschluss auf die Ursache geben könnten.
  • Zu den Daten können eine Vielzahl von Quellen herangezogen werden: weitere Sensoren oder Datenaufnahmeeinheiten, zum Beispiel Mikrofone, Kameras 4, haptische Sensoren, Beschleunigungssensoren, kapazitive Sensoren usw.; Systemdaten des Röntgengeräts, des Robotersystems oder anderer Geräte, zum Beispiel Daten über den Ablauf des Eingriffs, verwendete Programme und Parameter oder Fehlermeldungen; medizinische Bildgebungsaufnahmen des Patienten (z.B. durch das Röntgengerät aufgenommene Aufnahmen) und Auswertungen der Aufnahmen; Eingaben der Person 13 oder einer anderen Person des medizinischen Personals; Eye Tracking-Daten der Person 13; Vitalparamater des Patienten 5, also z.B. EKG-Daten, Blutdruck oder Sauerstoffsättigung, erhöhter Fluss in externer Ventrikeldrainage usw.; Vitalparameter der Person 13; Fehlermeldungen des Systems oder einzelner Geräte oder Devices; Funktionsdaten und Fehlermeldungen von Objekten oder Geräten, also wenn sich z.B. ein Objekt nicht wie vorgesehen verhält (z.B. Stent nicht wie vorgesehen öffnet) oder eine Kollision mit/ohne Beschädigung des Geräts erfolgt ist; zeitliche, räumliche oder funktionelle Abweichungen von üblichen Abläufen, Abfolgen und üblichem Verhalten von Objekten oder Personen; Zeitinformationen, z.B. über die Dauer von Schritten des Eingriffs; und/oder andere Informationen über den Eingriff oder die Untersuchung. Außerdem kann auch eine Aufforderung an die Person ausgegeben werden, eine Eingabe zu machen, z.B. eine Frage gestellt und die Antwort/Eingabe ausgewertet werden. Die Sensordaten oder anderen Daten können mittels kabellosen oder kabelgebundenen Datenübertragungsverbindungen (WLAN, Bluetooth, usw.) - gestrichelte Linien - übertragen werden.
  • Als Stressursuchen kommen eine Vielzahl von Möglichkeiten in Betracht, zum Beispiel die im Folgenden aufgeführten: Probleme mit dem medizinischen Gerät (also z.B. Röntgengerät oder Robotersystem oder Kontrastmittelinjektor oder andere für den Eingriff oder die Untersuchung verwendete Geräte), z.B. Probleme mit der Bedienung durch die Person (z.B. eine Fehlbedienung, die Person benötigt Hilfe, findet Funktionen nicht usw.) und/oder auftretende Fehler(-meldungen) des Geräts und/oder Kollisionen von Komponenten des Geräts; Probleme mit dem im Körper des Patienten navigierenden, in diesen eingeführten oder diesen behandelnden medizinischen Objekt (Katheter, Führungsdraht, Device, Instrument. usw.), z.B. ebenfalls Bedienungsprobleme durch die Person und/oder Fehlfunktionen des Objekts; Probleme mit dem Eingriff oder der Untersuchung als solchem/r, also z.B. Fehler in der Abfolge und/oder eine medizinische Notsituation bei dem Patienten und/oder ungeplant auftretende Ereignisse bei dem Eingriff und/oder eine Überforderung der Person hinsichtlich erforderlicher Handlungen oder zu treffender Entscheidungen oder eine zu lange Dauer des Eingriffs; und/oder ein Konflikt oder Streit mit einer anderen Person des medizinischen Personals, z.B. durch unterschiedliche Auffassungen, fehlende Verständigung oder dadurch, dass ein Teil des medizinischen Personals remote zugeschaltet ist.
  • Ist zumindest eine Ursache durch die Ermittlungseinheit ermittelt und gefunden worden, wird anschließend in einem vierten Schritt 23 zumindest eine Maßnahme zur gezielten Behebung der ermittelten Ursache angesteuert. Hierfür kann z.B. die Steuerungseinheit 17 vorgesehen sein. Zusätzlich kann auch zumindest eine allgemeine Maßnahme zur Reduzierung des Stresses und/oder der negativen Emotionen der zumindest einen Person angesteuert werden.
  • Es ist von Vorteil, die Maßnahme direkt auf die Ursache abzustimmen. Liegt die Ursache zum Beispiel in einem Bedienungsproblem des Röntgengeräts oder Robotersystems (also ist die Person zum Beispiel mit der Bedienung überfordert, benötigt Hilfe, findet Funktionen nicht), so können z.B. automatisch Vereinfachungen des User-Interface umgesetzt werden, also z.B. die Auswahlmöglichkeiten an Funktionselementen (Buttons) auf ein notwendiges Minimum reduziert werden, entsprechende wichtige Funktionselemente optisch (farbig, heller usw.) markiert werden, bestimmte zur Situation passende Funktionselemente oder „stress buttons“ (vgl. cardiopulmonary resuscitation, CPR Button) vorgeschlagen werden. Wurde als eine Ursache z.B. eine Fehlermeldung oder eine Kollision von Komponenten des Röntgengeräts (z.B. C-Bogen mit Patiententisch) oder eine Blockade nach einer Kollision erkannt, so kann z.B. automatisch eine Unterstützung, z.B. bei der Kollisions-Entriegelung angeboten werden, z.B. eine Online-Hilfe vorgeschlagen werden, eine step-by-step Anleitung eingeblendet werden usw.
  • Wurde als eine Ursache z.B. ein Problem mit dem Eingriff oder der Untersuchung als solchem/r, also z.B. Fehler in der Abfolge und/oder eine medizinische Notsituation bei dem Patienten und/oder ungeplant auftretende Ereignisse bei dem Eingriff und/oder eine Überforderung der Person hinsichtlich erforderlicher Handlungen oder zu treffender Entscheidungen ermittelt, so kann z.B. ein detektierter Fehler oder eine vorgesehene Abfolge von Workflow-Schritten des Eingriffs automatisch angezeigt werden, es können detaillierte Notfall-Checklisten vorgeschlagen und angezeigt werden oder es kann eine Unterstützung einer weiteren Person angefordert werden. Es können auch auf die jeweilige Situation abgestimmte Online-Hilfen, Videos, Online-Manuals etc. angeboten werden.
  • Es kann auch eine gezielte Nachfrage an die Person gestellt und eine Eingabe empfangen und ausgewertet werden. Insbesondere können die Maßnahmen zur Behebung der zumindest einen ermittelten Ursache auch zumindest eine Bedienungsunterstützung bei dem medizinischen Gerät (Röntgengerät 2 oder Robotersystem 6) oder medizinischen Objekt, insbesondere in Form von optischen Anzeigen, automatischer Menüführung, Online-Hilfe, Checklisten oder einem vereinfachten UI, und/oder eine automatische Hilfestellung und/oder eine automatische Fehlerbehebung und/oder ein Kollisionsmanagement und/oder eine automatische Hilfestellung bei Schritten des Eingriffs oder der Untersuchung und/oder eine Abfrage an die Person umfassen.
  • Das Verfahren kann während des gesamten Eingriffs durchgeführt werden oder auch nur während eines ausgewählten Zeitraumes. Es kann für eine einzelne oder für mehrere an dem Eingriff beteiligte Personen durchgeführt werden.
  • Das Überwachungssystem 1 weist außerdem eine Bedieneinheit zur Bedienung des Systems durch die zumindest eine Person 13 des medizinischen Personals auf. Hierbei kann es sich zum Beispiel um einen PC mit einer Eingabeeinheit 18 und einem Monitor 24 handeln, um ein Smart Device oder um einen Joystick. Die Bedieneinheit kann im Operationsraum 8 oder außerhalb des Operationsraums oder remote angeordnet sein. In dem Operationsraum 8 können weitere Bedieneinheiten (z.B. auch per Spracheingabe) oder Anzeigeeinheiten 9 vorhanden sein. Das Röntgengerät 2 kann z.B. von einer Systemsteuerung 10 angesteuert werden, ebenso kann das Robotersystem 6 von einer Robotersteuerung angesteuert werden oder beide werden von derselben Steuerung angesteuert. Die Steuerungseinheit 17 des Überwachungssystems kann mit der Systemsteuerung 10 in Kommunikations- und Datenaustauschverbindung stehen. Es kann auch vorgesehen sein, dass das Gesamtsystem von einer gemeinsamen Systemsteuerungseinheit angesteuert wird. Das Gesamtsystem kann außerdem noch eine Vielzahl anderer Geräte 15, Objekte, Sensoren oder Messinstrumente umfassen.
  • Die Erfindung lässt sich in folgender Weise kurz zusammenfassen: Für eine besonders risikofreie, effektive und schnelle Durchführung von medizinischen Eingriffen oder Untersuchungen ist ein Verfahren zur Überwachung eines in einem Operationsraum oder Untersuchungsraum stattfindenden medizinischen Eingriffs oder einer medizinischen Untersuchung an einem Patienten durch medizinisches Personal, insbesondere mit zumindest einem medizinischen Gerät und/oder zumindest einem medizinischen Objekt, mit den folgenden Schritten vorgesehen: Aufnahme von Sensordaten zumindest eines akustischen Sensors, insbesondere in Form von Sprachaufnahmen, zumindest einer Person des medizinischen Personals während des Eingriffs oder der Untersuchung, Auswertung der Sensordaten des akustischen Sensors hinsichtlich einer Erkennung von Stress und/oder negativen Emotionen der zumindest einen Person, bei Erkennen von Stress und/oder negativen Emotionen, Ermittlung zumindest einer Ursache des Stresses und/oder der negativen Emotionen, insbesondere unter Verwendung der Sensordaten und/oder weiterer optischer, akustischer, haptischer, digitaler und/oder anderer während des Eingriffs oder der Untersuchung aufgenommener Daten, und Ansteuerung von Maßnahmen zur Behebung der ermittelten Ursache und/oder zur Reduzierung des Stresses und/oder der negativen Emotionen der zumindest einen Person.
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Nicht-Patentliteratur
    • S. G. Koolagudi et al., Int J Speech Technol 15:99-117 [0005, 0012]
    • „Deep Learning Techniques for Speech Emotion Recognition, from Databases to Models" by B.J. Abbaschian et al., Sensors 2021, 21, 1249 [0005, 0012, 0028]
    • „Emotion recognition from speech: a review" by S. G. Koolagudi et al., Int J Speech Technol 15:99-117 [0028]

Claims (14)

  1. Verfahren zur Überwachung eines in einem Operationsraum oder Untersuchungsraum stattfindenden medizinischen Eingriffs oder einer medizinischen Untersuchung an einem Patienten durch medizinisches Personal, insbesondere mit zumindest einem medizinischen Gerät und/oder zumindest einem medizinischen Objekt, mit den folgenden Schritten: • Aufnahme von Sensordaten zumindest eines akustischen Sensors, insbesondere in Form von Sprachaufnahmen, zumindest einer Person des medizinischen Personals während des Eingriffs oder der Untersuchung, • Auswertung der Sensordaten des akustischen Sensors hinsichtlich einer Erkennung von Stress und/oder negativen Emotionen der zumindest einen Person, • Bei Erkennen von Stress und/oder negativen Emotionen, Ermittlung zumindest einer Ursache des Stresses und/oder der negativen Emotionen, insbesondere unter Verwendung der Sensordaten und/oder weiterer optischer, akustischer, haptischer, digitaler und/oder anderer während des Eingriffs oder der Untersuchung aufgenommener Daten, und • Ansteuerung von Maßnahmen zur Behebung der ermittelten Ursache und/oder zur Reduzierung des Stresses und/oder der negativen Emotionen der zumindest einen Person.
  2. Überwachungsverfahren nach Anspruch 1, wobei Sensordaten in Form von gesprochener Sprache aufgenommen werden und eine Auswertung der gesprochenen Sprache unter Verwendung zumindest eines Algorithmus des maschinellen Lernens und/oder einer Datenbank durchgeführt wird.
  3. Überwachungsverfahren nach einem der Ansprüche 1 und 2, wobei die Ursache des Stresses und/oder der Emotionen unter Verwendung von Sensordaten weiterer Sensoren, Systemdaten des medizinischen Geräts oder anderer Geräte, medizinischen Bildgebungsaufnahmen des Patienten, Eingaben der Person, Kameraaufnahmen des Eingriffs oder der Untersuchung, Eye Tracking-Daten der Person, Vitalparamatern der Person und/oder des Patienten, Funktionsdaten von Objekten oder Geräten und/oder anderen Informationen über den Eingriff oder die Untersuchung ermittelt wird.
  4. Überwachungsverfahren nach einem der vorangehenden Ansprüche, wobei zumindest eine der folgenden Ursachen des Stresses oder der negativen Emotionen ermittelbar ist: Probleme mit dem medizinischen Gerät, insbesondere Bedienungsprobleme und/oder auftretende Fehler und/oder Kollisionen, Probleme mit dem medizinischen Objekt, insbesondere Bedienungsprobleme und/oder Fehlfunktionen, Probleme mit dem Eingriff oder der Untersuchung als solchem/r, insbesondere Fehler und/oder medizinische Notfälle und/oder ungeplant auftretende Ereignisse, und/oder ein Konflikt mit einer weiteren Person des medizinischen Personals.
  5. Überwachungsverfahren nach einem der vorangehenden Ansprüche, wobei von der Ursache des Stresses oder der negativen Emotionen abhängige Maßnahmen angesteuert werden.
  6. Überwachungsverfahren nach einem der vorangehenden Ansprüche, wobei die Maßnahmen zur Behebung der zumindest einen ermittelten Ursache zumindest eine Bedienungsunterstützung bei dem medizinischen Gerät oder medizinischen Objekt, insbesondere in Form von optischen Anzeigen, automatischer Menüführung, Online-Hilfe, Checklisten oder einem vereinfachten UI, und/oder eine automatische Hilfestellung und/oder eine automatische Fehlerbehebung und/oder ein Kollisionsmanagement und/oder eine automatische Hilfestellung bei Schritten des Eingriffs oder der Untersuchung und/oder eine Abfrage an die Person umfassen.
  7. Überwachungsverfahren nach einem der vorangehenden Ansprüche, wobei zumindest eine der Personen des medizinischen Personals mittels einer remote Verbindung an dem Eingriff oder der Untersuchung beteiligt ist.
  8. System (1) zur Überwachung eines in einem Operationsraum (8) oder Untersuchungsraum stattfindenden medizinischen Eingriffs oder einer medizinischen Untersuchung an einem Patienten (5) durch medizinisches Personal, zur Durchführung eines Verfahrens nach einem der Ansprüche 1 bis 7, aufweisend • zumindest einen akustischen Sensor (3) zur Aufnahme von Sensordaten, insbesondere von Sprachaufnahmen, zumindest einer Person (13) des medizinischen Personals, • eine Auswertungseinheit (11) zur Auswertung der Sensordaten hinsichtlich einer Erkennung von Stress und/oder negativen Emotionen der zumindest einen Person (13), • eine Ermittlungseinheit (12) zur Ermittlung zumindest einer Ursache des Stresses und/oder der negativen Emotionen, • eine Steuerungseinheit (17) zur Ansteuerung von Maßnahmen zur Behebung der ermittelten Ursache und/oder zur Reduzierung des Stresses und/oder der negativen Emotionen der zumindest einen Person (13).
  9. System (1) nach Anspruch 8, aufweisend zumindest eine Bedieneinheit zur Bedienung des Systems durch die zumindest eine Person des medizinischen Personals.
  10. System (1) nach einem der Ansprüche 8 bis 9, wobei die Auswertungseinheit (11) und/oder die Ermittlungseinheit (12) zumindest einen trainierten Algorithmus zum maschinellen Lernen aufweisen.
  11. Medizinisches Gesamtsystem mit einem Überwachungssystem (1) nach einem der Ansprüche 8 bis 10.
  12. Medizinisches Gesamtsystem nach Anspruch 11, aufweisend ein medizinisches Gerät in Form von einem Bildgebungsgerät, insbesondere einem Röntgengerät (2).
  13. Medizinisches Gesamtsystem nach Anspruch 11 oder 12, aufweisend ein Robotersystem (6) zur robotergestützten Navigation eines medizinischen Objekts durch ein Hohlorgan des Patienten (5).
  14. Medizinisches Gesamtsystem nach einem der Ansprüche 11 bis 13, wobei zumindest eine der Personen des medizinischen Personals mittels einer remote Verbindung an dem Eingriff oder der Untersuchung beteiligt ist.
DE102022201914.8A 2022-02-24 2022-02-24 Verfahren zur Überwachung eines medizinischen Eingriffs, Überwachungssystem und Gesamtsystem Pending DE102022201914A1 (de)

Priority Applications (3)

Application Number Priority Date Filing Date Title
DE102022201914.8A DE102022201914A1 (de) 2022-02-24 2022-02-24 Verfahren zur Überwachung eines medizinischen Eingriffs, Überwachungssystem und Gesamtsystem
US18/113,620 US20230268069A1 (en) 2022-02-24 2023-02-23 Method for monitoring a medical intervention, monitoring system and complete system
CN202310159279.7A CN116636844A (zh) 2022-02-24 2023-02-23 用于监控医学干预的方法、监控***和总***

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102022201914.8A DE102022201914A1 (de) 2022-02-24 2022-02-24 Verfahren zur Überwachung eines medizinischen Eingriffs, Überwachungssystem und Gesamtsystem

Publications (1)

Publication Number Publication Date
DE102022201914A1 true DE102022201914A1 (de) 2023-08-24

Family

ID=87518793

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102022201914.8A Pending DE102022201914A1 (de) 2022-02-24 2022-02-24 Verfahren zur Überwachung eines medizinischen Eingriffs, Überwachungssystem und Gesamtsystem

Country Status (3)

Country Link
US (1) US20230268069A1 (de)
CN (1) CN116636844A (de)
DE (1) DE102022201914A1 (de)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3611734A1 (de) 2018-08-13 2020-02-19 Siemens Healthcare GmbH Steuereinheit und steuerverfahren zur steuerung einer ausgabeeinheit von informationen im rahmen der medizinischen diagnostik und therapie
DE102020104855A1 (de) 2020-02-25 2021-08-26 Olympus Winter & Ibe Gmbh Verfahren und System zur Überwachung eines Operationsraumes

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3611734A1 (de) 2018-08-13 2020-02-19 Siemens Healthcare GmbH Steuereinheit und steuerverfahren zur steuerung einer ausgabeeinheit von informationen im rahmen der medizinischen diagnostik und therapie
DE102020104855A1 (de) 2020-02-25 2021-08-26 Olympus Winter & Ibe Gmbh Verfahren und System zur Überwachung eines Operationsraumes

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
„Deep Learning Techniques for Speech Emotion Recognition, from Databases to Models" by B.J. Abbaschian et al., Sensors 2021, 21, 1249
„Emotion recognition from speech: a review" by S. G. Koolagudi et al., Int J Speech Technol 15:99-117
S. G. Koolagudi et al., Int J Speech Technol 15:99-117

Also Published As

Publication number Publication date
US20230268069A1 (en) 2023-08-24
CN116636844A (zh) 2023-08-25

Similar Documents

Publication Publication Date Title
DE102017220500B4 (de) System und Verfahren zur Unterstützung einer medizinischen Maßnahme
DE102008054442A1 (de) Verfahren zur ferndiagnostischen Überwachung und Unterstützung von Patienten sowie Einrichtung und telemedizinisches Zentrum
DE102011002928A1 (de) Verfahren zur rechnergestützten Konfiguration einer medizinischen Bildgebungsvorrichtung
EP3441977B1 (de) Verfahren und system zur unterstützung von medizinischem personal
EP3473181B1 (de) Verfahren zum betrieb einer medizinischen bildaufnahmeeinrichtung, bildaufnahmeeinrichtung, computerprogramm und elektronisch lesbarer datenträger
EP3611734A1 (de) Steuereinheit und steuerverfahren zur steuerung einer ausgabeeinheit von informationen im rahmen der medizinischen diagnostik und therapie
DE102020104855A1 (de) Verfahren und System zur Überwachung eines Operationsraumes
DE102022201914A1 (de) Verfahren zur Überwachung eines medizinischen Eingriffs, Überwachungssystem und Gesamtsystem
DE102018209717A1 (de) Verfahren zur Steuerung des Betriebs einer Medizintechnikeinrichtung, Medizintechnikeinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
EP4233069A1 (de) Verfahren für die zuweisung eines schwindelpatienten zu einem medizinischen fachgebiet
WO2018224156A1 (de) Verfahren zur patientenrekrutierung und patientenrekrutierungssystem
DE102007011421A1 (de) Verfahren zur Ermöglichung einer Verfolgung einer Untersuchung oder Behandlung eines Patienten mittels einer bildgebenden Untersuchungseinrichtung
EP2147637A1 (de) Verfahren und Vorrichtung zur Ermittlung eines eine Prostata eines Patienten betreffenden Parameters
DE102019126461A1 (de) Verfahren und System zur Verarbeitung von optimierten Parametern
DE102016219157A1 (de) Assistenzvorrichtung für Patienten und Verfahren zum Betrieb einer Assistenzvorrichtung
DE102022212852A1 (de) Überwachung einer Fernbedienereignung
Kübler Algorithms for the comparison of visual scan patterns
DE102022213607A1 (de) System zur Überwachung eines physiologischen Zustands eines Untersuchungsobjekts in ferngesteuerten Prozeduren, Verfahren zur Signalbereitstellung in Abhängigkeit eines physiologischen Zustands eines Untersuchungsobjekts und Computerprogrammprodukt
DE102021210757A1 (de) Verfahren zur Planung einer Navigation und Vorrichtung
EP3713466B1 (de) Benutzerassistenzsystem für wiederverwendbare medizinprodukte
DE102018216650A1 (de) Überwachung und Quantifizierung medizinischer Ablaufpläne
DE102007011844A1 (de) Vorrichtung zur Kommunikation
DE102022211734A1 (de) Verfahren zum Bereitstellen eines Prozedursignals, System und Computerprogrammprodukt
DE102022207751A1 (de) Interventionssystem und Verfahren zur Unterstützung von Personengruppen bei der Nutzung eines Interventionssystems
DE102019220224A1 (de) Überwachungssystem zur Überwachung eines Patienten und Verfahren zum Betrieb des Überwachungssystems

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE