DE102018205496A1 - Verfahren zur Steuerung des Betriebs einer Medizintechnikeinrichtung, Bediengerät, Bediensystem, Medizintechnikeinrichtung, Computerprogramm und elektronisch lesbarer Datenträger - Google Patents

Verfahren zur Steuerung des Betriebs einer Medizintechnikeinrichtung, Bediengerät, Bediensystem, Medizintechnikeinrichtung, Computerprogramm und elektronisch lesbarer Datenträger Download PDF

Info

Publication number
DE102018205496A1
DE102018205496A1 DE102018205496.7A DE102018205496A DE102018205496A1 DE 102018205496 A1 DE102018205496 A1 DE 102018205496A1 DE 102018205496 A DE102018205496 A DE 102018205496A DE 102018205496 A1 DE102018205496 A1 DE 102018205496A1
Authority
DE
Germany
Prior art keywords
data
operating
patient
medical
medical device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
DE102018205496.7A
Other languages
English (en)
Inventor
Gerben ten Cate
Robert Kagermeier
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthineers Ag De
Original Assignee
Siemens Healthcare GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Healthcare GmbH filed Critical Siemens Healthcare GmbH
Priority to DE102018205496.7A priority Critical patent/DE102018205496A1/de
Priority to US17/041,662 priority patent/US11298099B2/en
Priority to CN201980025062.9A priority patent/CN111954908B/zh
Priority to PCT/EP2019/058298 priority patent/WO2019197222A1/de
Publication of DE102018205496A1 publication Critical patent/DE102018205496A1/de
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • G16H40/67ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices for remote operation
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/68Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient
    • A61B5/6887Arrangements of detecting, measuring or recording means, e.g. sensors, in relation to patient mounted on external non-worn devices, e.g. non-medical devices
    • A61B5/6889Rooms
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/547Control of apparatus or devices for radiation diagnosis involving tracking of position of the device or parts of the device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/548Remote control of the apparatus or devices
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • G06F3/0488Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser using a touch-screen or digitiser, e.g. input of commands through traced gestures
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/20ICT specially adapted for the handling or processing of medical images for handling medical images, e.g. DICOM, HL7 or PACS
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/20ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the management or administration of healthcare resources or facilities, e.g. managing hospital staff or surgery rooms
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H50/00ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics
    • G16H50/20ICT specially adapted for medical diagnosis, medical simulation or medical data mining; ICT specially adapted for detecting, monitoring or modelling epidemics or pandemics for computer-aided diagnosis, e.g. based on medical expert systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B5/00Measuring for diagnostic purposes; Identification of persons
    • A61B5/0002Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network
    • A61B5/0004Remote monitoring of patients using telemetry, e.g. transmission of vital signals via a communication network characterised by the type of physiological signal transmitted
    • A61B5/0013Medical image data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/04Positioning of patients; Tiltable beds or the like
    • A61B6/0407Supports, e.g. tables or beds, for the body or parts of the body
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/462Displaying means of special interest characterised by constructional features of the display
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Biomedical Technology (AREA)
  • Public Health (AREA)
  • General Health & Medical Sciences (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Pathology (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Animal Behavior & Ethology (AREA)
  • Surgery (AREA)
  • Biophysics (AREA)
  • Molecular Biology (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Optics & Photonics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • General Physics & Mathematics (AREA)
  • Human Computer Interaction (AREA)
  • Software Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Mathematical Physics (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

Verfahren zur Steuerung des Betriebs einer Medizintechnikeinrichtung (1), insbesondere einer Bildaufnahmeeinrichtung, wobei ein kabelloses, handgehaltenes, mobiles Bediengerät (5) mit einem Touchscreen (10) verwendet wird und für einen Untersuchungs- und/oder Behandlungsvorgang eines Patienten (35) mit der Medizintechnikeinrichtung (1) mehrere Funktionen eines Medizintechnikworkflows mittels des Bediengeräts (5) realisiert werden, wobei zur Ermittlung eines anzuzeigenden Benutzerinterfaces- eine aktuelle Bediensituation beschreibende Eingangsdaten (22), umfassend den Patienten (35) betreffende Patientendaten (23), den Betriebszustand der Medizintechnikeinrichtung (1) betreffende Betriebszustandsdaten (24), die Position des Bediengeräts (5) und/oder eines Patienten (35) bezüglich der Medizintechnikeinrichtung (1) beschreibende Positionsdaten (25) und den Medizintechnikworkflow und/oder eine aktuelle Position in dem Medizintechnikworkflow beschreibende Workflowdaten (26), ermittelt werden,- mittels eines Analysealgorithmus (27) der künstlichen Intelligenz eine folgende Bedienhandlung des Bedieners (34) und/oder eine durch den Bediener (34) als nächstes benötigte Information beschreibende Prädiktionsdaten (28) ermittelt werden, und- das anzuzeigende Benutzerinterface in Abhängigkeit von den Prädiktionsdaten (28) ausgewählt und/oder angepasst und sodann angezeigt wird.

Description

  • Die Erfindung betrifft ein Verfahren zur Steuerung des Betriebs einer Medizintechnikeinrichtung, insbesondere einer Bildaufnahmeeinrichtung, wobei ein kabelloses, handgehaltenes, mobiles Bediengerät mit einem Touchscreen verwendet wird und für einen Untersuchungs- und/oder Behandlungsvorgang eines Patienten mit der Medizintechnikeinrichtung mehrere Funktionen eines Medizintechnikworkflows mittels des Bediengeräts realisiert werden. Daneben betrifft die Erfindung ein Bediengerät, ein Bediensystem, eine Medizintechnikeinrichtung, ein Computerprogramm und einen elektronisch lesbaren Datenträger.
  • Moderne Medizintechnikeinrichtungen, also insbesondere größere medizintechnische Anlagen, zur Untersuchung und/oder Behandlung von Patienten nehmen in ihrer Ausstattung und Bedienung an Komplexität zu. Mithin stellt die Bedienung eines medizinischen Diagnostik-/Therapiesystems hinsichtlich der Usability und der Ergonomie eine Herausforderung in der Realisierung dar. Dabei ist eine einfache und intuitive Bedienung wünschenswert, aber bei bisher bekannten Medizintechnikeinrichtungen häufig nur unzureichend umgesetzt. Beispielsweise sind medizinische Untersuchungseinrichtungen, insbesondere Röntgeneinrichtungen, bekannt, die für die Bedienung eine Vielzahl von Bedienorten mit unterschiedlichen Bedieneinrichtungen aufweisen. Beispielsweise kann eine Bildschirmkonsole mit Tastatur und Maus in einem Vorraum des Raumes, in dem die Medizintechnikeinrichtung angeordnet ist, vorgesehen sein, wobei des Weiteren als Eingabeeinrichtung ein Touchscreen, beispielsweise an einem deckengehängten Röntgenstrahler, und/oder eine oder mehrere Nahbedieneinheiten (kabelgebunden oder kabellos) vorgesehen sein können. Bei der Bedienung einer solchen Medizintechnikeinrichtung wechselt der Bediener deshalb mehrfach die Bedienorte und die Bedieneinrichtungen, was sich als wenig ergonomisch darstellt.
  • Im Stand der Technik vorgeschlagene Lösungen zur Vereinfachung der Bedienung beziehen sich meist auf bestimmte dieser Bedieneinrichtungen sowie ihre konkrete Umsetzung zur Realisierung konkreter Funktionen. So wird beispielsweise in DE 10 2013 219 195 A1 eine Fernbedienung und ein Verfahren zur Steuerung eines Gerätes mit zumindest einem Bewegungsfreiheitsgrad vorgeschlagen, mit welcher eine bewegbare Komponente einer Medizintechnikeinrichtung aufgrund von Bewegungen der Fernbedienung gesteuert werden kann, wobei das Übersetzungsverhältnis für eine Grobpositionierung und eine Feinpositionierung gewechselt werden kann. DE 10 2013 219 194 A1 und DE 10 2013 219 145 A1 betreffen die Verwendung von Steuerelementen, die insbesondere als Joysticks ausgebildet sein können, wobei zudem Auswahlelemente zur Auswahl des zu steuernden beweglichen Elements eines Medizinsystems, also einer Medizintechnikeinrichtung, vorgesehen sind bzw. eine perspektivische Anpassung erfolgt.
  • Kürzlich wurde auch vorgeschlagen, mobile, handgehaltene Bediengeräte mit einem Touchscreen, insbesondere handelsübliche Smartdevices, zur Bedienung von Medizintechnikeinrichtungen vorzusehen. Die nachveröffentlichten Patentanmeldungen DE 10 2017 217 128.6 und EP 17152779.9 betreffen unterschiedliche Aspekte einer tragbaren bzw. mit einem mobilen Endgerät verbindbaren Erweiterungseinheit, in die sicherheitsrelevante, also Sicherheitsanforderungen erfüllende Funktionalitäten teilweise ausgelagert werden können, um die Realisierung der Sicherheitsanforderungen innerhalb des handelsüblichen Smartdevice möglichst zu vermeiden. Die Erweiterungseinheit kann mechanisch und/oder datentechnisch an das Smartdevice angekoppelt werden, insbesondere in Form einer „Erweiterungshülle“ realisiert werden.
  • In der nachveröffentlichten EP 17202205.5 wird für ein gattungsverwandtes Verfahren ein ganzheitlicher Bedienansatz vorgeschlagen, indem mit dem Bediengerät für einen Untersuchungs- und/oder Behandlungsvorgang eines Patienten mit der Medizintechnikeinrichtung wenigstens folgende Funktionen eines den Vorgang realisierenden Medizintechnikworkflows mittels des Bediengeräts realisiert werden:
    • - Erfassen von Patientendaten des Patienten aus einem Erfassungs-Benutzer interface,
    • - Auswahl eines für den erfassten Patienten durchzuführenden, Betriebsparameter enthaltenden Medizintechnikprotokolls mittels eines Auswahl-Benutzerinterfaces,
    • - Einstellen von ferngesteuert einstellbaren Komponenten der Medizintechnikeinrichtung auf den in der Medizintechnikeinrichtung positionierten Patienten und das durchzuführende Medizintechnikprotokoll unter Verwendung eines Einstellungs-Benutzerinterfaces,
    • - Auslösen des Medizintechnikvorgangs bei positioniertem Patienten und eingestellten Komponenten in einem Auslöse-Benutzer interface.
  • Durch den Einsatz einer leistungsfähigen, tragbaren, kleinformatigen Touch-Display-Einheit als Bediengerät, insbesondere eines Smartdevices, wird es dort mithin ermöglicht, den vollständigen Medizintechnikworkflow an einem einzigen Bediengerät umzusetzen, so dass eine ergonomische, einfache, intuitive und vollständige Bedienung einer Medizintechnikeinrichtung, mithin einer medizintechnischen Anlage, erreicht wird. Die Abbildung der Bedienfunktionen und -abläufe auf einem tragbaren, kabellosen, mobilen Bediengerät ermöglicht bedienernah eine vollständige, einfache und intuitive Bedienung einer Medizintechnikeinrichtung, insbesondere Bildaufnahmeeinrichtung. Dort wird zudem vorgeschlagen, die Position des Bediengeräts wenigstens zeitweise, insbesondere kontinuierlich, in Form von Positionsdaten zu erfassen und gegebenenfalls auch nachzuverfolgen, wobei wenigstens eine Funktion und/oder wenigstens ein Benutzerinterface des Medizintechnikworkflows in Abhängigkeit von den Positionsdaten angepasst werden kann.
  • Mit einer erweiterten Funktionalität eines solchen Bediengeräts steigt auch der Aufwand, die korrekten Benutzerinterfaces und Funktionalitäten aufzufinden.
  • Der Erfindung liegt daher die Aufgabe zugrunde, eine die Bedienung einer Medizintechnikeinrichtung weiter vereinfachende und intuitiver gestaltende Möglichkeit anzugeben.
  • Diese Aufgabe wird erfindungsgemäß durch ein Verfahren, ein Bediengerät, ein Bediensystem, eine Medizintechnikeinrichtung, ein Computerprogramm und einen elektronisch lesbaren Datenträger gemäß den unabhängigen Ansprüche gelöst. Vorteilhafte Weiterbildungen ergeben sich aus den Unteransprüchen.
  • In einem erfindungsgemäßen Verfahren zur Steuerung des Betriebs einer Medizintechnikeinrichtung, in dem ein kabelloses, handgehaltenes, mobiles Bediengerät mit einem Touchscreen verwendet wird und für einen Untersuchungs- und/oder Behandlungsvorgang eines Patienten mit der Medizintechnikeinrichtung mehrere Funktionen eines Medizintechnikworkflows mittels des Bediengeräts realisiert werden, ist zur Ermittlung eines anzuzeigenden Benutzerinterfaces vorgesehen, dass
    • - eine aktuelle Bediensituation beschreibende Eingangsdaten, umfassend den Patienten betreffende Patientendaten, den Betriebszustand der Medizintechnikeinrichtung betreffende Betriebszustandsdaten, die Position des Bediengeräts und/oder eines Patienten bezüglich der Medizintechnikeinrichtung beschreibende Positionsdaten und den Medizintechnikworkflow und/oder eine aktuelle Position in dem Medizintechnikworkflow beschreibende Workflowdaten, ermittelt werden,
    • - mittels eines Analysealgorithmus der künstlichen Intelligenz eine folgende Bedienhandlung des Bedieners und/oder eine durch den Bediener als nächstes benötigte Information beschreibende Prädiktionsdaten ermittelt werden, und
    • - das anzuzeigende Benutzerinterface in Abhängigkeit von den Prädiktionsdaten ausgewählt und/oder angepasst und sodann angezeigt wird.
  • Es wird mithin vorgeschlagen, das Problem des Auffindens unter Auswahl der korrekten Funktionalität durch ein intelligentes, adaptives Benutzerinterface auf dem Touchscreen des Bediengeräts zu lösen. Auf der Grundlage von die Bediensituation beschreibenden Eingangsdaten, insbesondere von Positionsdaten und System-Vorbedingungen, wird dem Bediener eine kontextspezifische Funktionalität bereitgestellt, die er oder sie in diesem speziellen Moment an diesem speziellen Ort benötigt. Hierzu wird ein Analysealgorithmus der künstlichen Intelligenz eingesetzt, der, insbesondere aufgrund von Trainingsdaten, die gezielt zusammengestellt sein können oder aber bevorzugt aus Bedienvorgängen der Vergangenheit abgeleitet werden können, in der Lage ist, zu prädizieren, welche Bedienhandlung der Bediener am wahrscheinlichsten als nächstes durchführen wird bzw. welche Information der Bediener am wahrscheinlichsten für den nächsten Schritt benötigen wird. Abhängig von entsprechend entstehenden Prädiktionsdaten wird ein Benutzerinterface, das auf dem Touchscreen angezeigt wird, ausgewählt und/oder angepasst, um eben diese prädizierte Bedienhandlung zu ermöglichen bzw. die entsprechend benötigten Informationen darzustellen.
  • Verschiedenste Eingangsdaten zur Beschreibung der Bediensituation sind dabei nützlich und werden im Rahmen der vorliegenden Erfindung eingesetzt. Zumindest ein Teil der Eingangsdaten kann dabei bereits als Informationen in der Medizintechnikeinrichtung bzw. in deren Umfeld, beispielsweise in einem genutzten Informationssystem, vorliegen. Ein Beispiel hierfür sind Patientendaten, die meist zu Beginn der Untersuchung manuell und/oder automatisch aufgrund einer Patientenidentifikation erfasst werden, was ganz zu Beginn des Medizintechnikworkflows geschieht. Patientendaten können beispielsweise das Alter, das Geschlecht, zu beachtende körperliche Einschränkungen des Patienten, die Größe, das Gewicht und dergleichen beschreiben. Häufig liegen derartige Patientendaten, wie bereits erwähnt, zumindest teilweise in Informationssystemen, die von der Medizintechnikeinrichtung genutzt werden, bereits vor, beispielsweise in einem Krankenhausinformationssystem (HIS) und/oder in einem Radiologieinformationssystem (RIS). Ebenso ist der Zugriff auf elektronische Patientenakten denkbar. Auch weitere Informationen können von der Medizintechnikeinrichtung, einem mit dem Bediengerät realisierten Bediensystem und/oder einem genutzten Informationssystem erhalten werden, insbesondere Informationen zum durchzuführenden Untersuchungs- und/oder Behandlungsvorgang, zu zu verwendenden Komponenten der Medizintechnikeinrichtung, zu verwendenden Untersuchungs- und/oder Behandlungsprotokollen, zur aktuellen Position im Workflow, und sonstige Workflowdaten. Die Medizintechnikeinrichtung kann auch den Betriebszustand der Medizintechnikeinrichtung betreffende Betriebszustandsdaten selbst liefern, beispielsweise die Positionen und/oder Einstellungen und/oder Betriebsparameter verschiedener Komponenten, die in einer Steuereinheit der Medizintechnikeinrichtung vorliegen können.
  • Weitere Quellen für Eingangsdaten stellen verschiedene Arten von Sensoren, die im Umfeld der Medizintechnikeinrichtung vorgesehen sind, dar. Zu nennen sind hierbei zunächst Sensoren eines Positionsbestimmungssystems für das Bediengerät selbst, wobei die Lokalisierung beispielsweise über Bluetooth Low Energy (BLE), Visual Light Communication (VLC) und/oder optisches Tracking erfolgen kann, worauf im Folgenden noch näher eingegangen werden wird. Zu nennen sind ferner, insbesondere in einem Untersuchungs- und/oder Behandlungsraum angeordnete, Kameras, die nicht nur Informationen über den Patienten und dem Bediener liefern können, sondern auch über Komponenten der Medizintechnikeinrichtung, insbesondere, um von der Medizintechnikeinrichtung selbst gelieferte Betriebszustandsdaten zu überprüfen und/oder zu ergänzen. Dabei sei an dieser Stelle noch darauf hingewiesen, dass Positionsdaten nicht nur eine Ortsinformation, sondern auch eine Orientierungsinformation enthalten können.
  • Dabei werden im Rahmen der vorliegenden Erfindung den aktuellen Bedienzustand möglichst spezifisch beschreibende Eingangsdaten aus einer Mehrzahl von Quellen, insbesondere umfassend Sensoren und/oder die Medizintechnikeinrichtung und/oder ein genutztes Informationssystem, herangezogen, um eine möglichst weitgehende „situation awareness“ für den Analysealgorithmus zu erreichen. Der Analysealgorithmus selbst stellt letztlich ein kognitives System dar, welches die durch die Eingangsdaten beschriebene Bediensituation durch kognitive Schritte in eine Prädiktion umsetzt, welche einer folgenden Entscheidung, nämlich der Auswahl und/oder Anpassung des Benutzerinterface, zugrunde liegt. Im Ergebnis wird dem Bediener ein Workflow- und Situationskontext-spezifisches Benutzerinterface basierend auf Eingangsdaten und Eingangsdatenanalyse (Prädiktion) angeboten, um die wahrscheinlichste nächste Interaktion des Benutzers und/oder die Ausgabe benötigter Informationen zu ermöglichen.
  • In der Summe wird dem Bediener hierdurch ein schnelleres Arbeiten mit einem mobilen, handgehaltenen Bediengerät mit Touchscreen ermöglicht, das eine erweiterte Funktionalität bereitstellt, so dass die Gesamteffizienz des Workflows erhöht wird. Trotz einer erhöhten Anzahl von Funktionen, die durch das Bediengerät realisiert werden können, ist für den Bediener eine intuitiv zu bedienende, „mitdenkende“ Bedienhandhabe gegeben, was deren Akzeptanz erhöht.
  • Dabei können bevorzugt mit dem Bediengerät wenigstens folgende Funktionen realisiert werden:
    • - Erfassen von Patientendaten des Patienten aus wenigstens einem Erfassungs-Benutzerinterface,
    • - Auswahl eines für den erfassten Patienten durchzuführenden, Betriebsparameter enthaltenden Medizintechnikprotokolls mittels wenigstens eines Auswahl-Benutzerinterfaces,
    • - Einstellen von ferngesteuert einstellbaren Komponenten der Medizintechnikeinrichtung auf den in der Medizintechnikeinrichtung positionierten Patienten und das durchzuführende Medizintechnikprotokoll unter Verwendung wenigstens eines Einstellungs-Benutzerinterfaces, und
    • - Auslösen des Medizintechnikvorgangs bei positioniertem Patienten und eingestellten Komponenten in wenigstens einem Auslöse-Benutzerinterface.
  • Dabei lassen sich im Übrigen sämtliche Ausführungen der eingangs bereits erwähnten, nachveröffentlichten EP17202205.5 ebenso im Rahmen dieser Offenbarung anwenden.
  • Das Bediengerät, welches in besonders bevorzugter Ausgestaltung ein Smartdevice, mithin insbesondere ein Smartphone und/oder ein Tablet, ist, wie es handelsüblich erhältlich ist, weist einen Touchscreen auf, auf dem verschiedene, unterschiedlichen Schritten/Funktionen des Medizintechnikworkflows, der den Untersuchungs- und/oder Behandlungsvorgang des Patienten umsetzt, zugeordnete Benutzerinterfaces dargestellt werden können und entsprechende Eingabemöglichkeiten bieten. Das Bediengerät weist hierzu insbesondere eine Steuereinheit auf, auf der zumindest teilweise ein Steuerungscomputerprogramm, insbesondere als App abläuft. Ferner weist das Bediengerät bevorzugt wenigstens eine Funkschnittstelle auf, so dass es zur drahtlosen Kommunikation mit einer Steuereinheit der Medizintechnikeinrichtung ausgebildet ist, wobei die Steuereinheit des Bediengeräts und die Steuereinheit der Medizintechnikeinrichtung als eine Steuereinrichtung zusammenwirken können, um verschiedene Aspekte des erfindungsgemäßen Verfahrens zu realisieren, worauf im Folgenden noch näher eingegangen werden wird. Insbesondere ermöglicht es die Kommunikationsverbindung zwischen der Steuereinheit der Medizintechnikeinrichtung und der Steuereinheit des Bediengeräts über entsprechende Funkschnittstellen, zum einen aus Benutzereingaben generierte Steuerinformationen an die Steuereinheit der Medizintechnikeinrichtung zu übertragen, um diese entsprechend umzusetzen, und/oder zum anderen Feedback-Informationen und/oder Statusinformationen von der Steuereinheit der Medizintechnikeinrichtung der Steuereinheit des Bediengeräts bereitzustellen, um diese Informationen entsprechend darzustellen und/oder zum Betrieb des Bediengeräts auszuwerten. Die Darstellung kann entsprechend über die Benutzerinterfaces erfolgen. Weitere Informationsverbindungen können, wie bereits erwähnt, selbstverständlich auch bestehen, beispielsweise zu einem Informationssystem (RIS/HIS).
  • Dabei kann die Medizintechnikeinrichtung insbesondere als eine bildgebende Röntgeneinrichtung umgesetzt sein, so dass insbesondere der komplette Medizintechnikworkflow einer Röntgenuntersuchung mittels des Bediengeräts umgesetzt werden kann. Bei einem den gesamten Medizintechnikworkflow begleitenden Bedienkonzept ist durch eine entsprechende, geschickte Gestaltung der verschiedenen Benutzerinterfaces auf dem Touchscreen eine vollständige Bedienung der Medizintechnikeinrichtung unmittelbar aus der Hand des Bedieners heraus möglich und die Notwendigkeit des mehrfachen Wechsels des Bedienortes und/oder der Bedieneinrichtung ist nicht mehr gegeben. Die vorliegende Erfindung erlaubt es sogar, bei einem derartigen Bedienkonzept auf einen Vorraum zur Steuerung der Medizintechnikeinrichtung zu verzichten, wobei bei einer Röntgeneinrichtung vorgesehen sein kann, dass im Untersuchungsraum eine Strahlenschutzwand vorgehalten wird.
  • Zum Trainieren des Analysealgorithmus wird bevorzugt ein Deep-Learning-Verfahren eingesetzt. Nachdem der Analysealgorithmus komplexe Sachverhalte abbilden soll und eine Vielzahl von Bediensituationen sinnvoll handhaben soll, bieten sich die Deep-Learning-Verfahren, in denen die innere Struktur des Analysealgorithmus ebenso trainiert werden kann, besonders an, um eine möglichst hochqualitative Prädiktionsdaten liefernde künstliche Intelligenz-Umgebung zu schaffen.
  • In einer besonders bevorzugten Weiterbildung der Erfindung werden während der Benutzung des Bediengeräts die Bedienhandlung des Bedieners beschreibende Bediendaten aufgenommen und aktuellen Eingangsdaten zugeordnet, wobei die so erhaltenen Trainingsdaten zum weiteren Trainieren des Analysealgorithmus verwendet werden. Das bedeutet also, der Analysealgorithmus wird durch seine Benutzung ständig weiter trainiert, so dass die Qualität der Prädiktionsdaten dauerhaft und kontinuierlich erhöht werden kann, um eine hervorragende Voraussagequalität zu erreichen und dem Bediener in möglichst vielen Situationen exakt das Benutzerinterface anzubieten, dass er in der aktuellen Bediensituation wünscht. Dabei wird insbesondere auch überwacht, ob der Bediener das ausgewählte und/oder angepasste Benutzerinterface, nachdem es ihm verfahrensgemäß angezeigt wurde, wechselt und stattdessen ein anderes bzw. anderweitig angepasstes Benutzerinterface nutzt, welches als korrekte Grundwahrheit für diesen Fall herangezogen werden kann, um Trainingsdaten zu generieren und den Analysealgorithmus weiter zu verbessern.
  • In diesem Kontext, aber auch allgemein, ist es besonders vorteilhaft, wenn der Bediener, insbesondere wenigstens zum Beginn seiner Bedientätigkeit, identifiziert wird, wobei ein bedienerspezifischer Analysealgorithmus verwendet wird und/oder die Identität des Bedieners bei der Auswahl und/oder Anpassung der Benutzerinterfaces berücksichtigt wird. Das bedeutet, das vorliegend beschriebene Verfahren kann auch auf spezielle Bediener abgestellt werden, indem entweder der Analysealgorithmus bedienerspezifisch trainiert wird, beispielsweise auch aktualisierend durch Generierung von Trainingsdaten, wie soeben beschrieben, während des täglichen Betriebs, oder aber der aktuelle Bediener kann zumindest bei der Auswahl und/oder Anpassung des Benutzerinterfaces berücksichtigt werden, indem hier beispielsweise Vorlieben, die in einem Benutzerprofil gespeichert werden können, ebenso in Betracht gezogen werden. Auf diese Weise kann auch auf Eigenheiten bestimmter Bediener eingegangen werden.
  • In zweckmäßiger Weiterbildung können die Workflowdaten wenigstens teilweise bereits erledigte Workflowschritte des Medizintechnikworkflows beschreibend ermittelt werden. Das bedeutet, die Workflowdaten können eine aktuelle Position in dem aktuellen Medizintechnikworkflow anzeigen, was eine wesentliche, nützliche Information bei der Auswahl des korrekten, benötigten Benutzerinterfaces darstellt. Beispielsweise können in Phasen, in denen gerade die Medizintechnikeinrichtung auf den Patienten eingestellt wird, Benutzerinterfaces hinsichtlich bereits abgeschlossener Workflowschritte weitgehend ausgeschlossen oder zumindest als unwahrscheinlich angesehen werden, während den Abschluss bestimmter, noch nicht abgeschlossener Workflowschritte erfordernde weitere Workflowschritte und zugehörige Benutzerinterfaces ebenso weitgehend ausgeschlossen werden können.
  • In besonders zweckmäßiger Weiterbildung des erfindungsgemäßen Verfahrens kann vorgesehen sein, dass die Auswahl und Anzeige eines Benutzerinterfaces getriggert durch ein ein Verbringen in einer Benutzungsposition anzeigendes Triggersignal erfolgt. Beispielsweise kann mithin ständig, insbesondere aufgrund einer Sensorik des Bediengeräts selbst, überwacht werden, ob das Bediengerät in eine Benutzungsposition verbracht wird, beispielsweise flach in der Hand des Bedieners liegend, mit dem Touchscreen den Augen des Bedieners zugewandt. Ein solches Verbringen in einer Benutzungsposition findet beispielsweise statt, wenn das bislang abgelegte Bediengerät von dem Bediener aufgenommen und so gehalten wird, dass eine sinnvolle Betätigung in den Benutzerinterfaces möglich wäre. Auch bei bereits in der Hand gehaltenem Bediengerät können entsprechende Bewegungen/Positionsänderungen beobachtet werden, um die Herstellung der Benutzungsposition festzustellen. Das Einnehmen der Benutzungsposition aus einer Nichtbenutzungsposition kennzeichnet den Wunsch des Bedieners, das Bediengerät zu nutzen, und stellt somit ein hervorragendes Triggersignal zur Ermittlung von Prädiktionsdaten und zur Auswahl und/oder Anpassung eines Benutzerinterfaces dar, so dass der Bediener unmittelbar die benötigte Information und/oder die benötigte Funktionalität bereitgestellt bekommt. Dabei sei angemerkt, dass grundsätzlich selbstverständlich auch andere Triggersignale denkbar sind, insbesondere auch solche, die durch Betätigung eines entsprechenden Unterstützungsbedienelements in einem gerade angezeigten Benutzerinterface erzeugt werden, beispielsweise, wenn der Benutzer selbst um eine aktuelle, intelligente, zielführende Unterstützung während der Bedienung bittet. Ein solches Unterstützungsbedienelement kann bevorzugt in allen angezeigten Benutzerinterfaces vorgesehen werden.
  • Zur Ermittlung eines ein Verbringen in eine Benutzungsposition anzeigenden Triggersignals kann vorgesehen sein, dass das Triggersignal durch Auswertung von die Position des Bediengeräts anzeigenden Positionsdaten und/oder die Bewegung des Bediengeräts anzeigenden Bewegungsdaten ermittelt wird. Ähnlich wie bei den Teil der Eingangsdaten bildenden Positionsdaten ist es vorliegend besonders bevorzugt, wenn zur Ermittlung der Positionsdaten und/oder der Bewegungsdaten wenigstens teilweise Bediengerätesensoren des Bediengeräts selbst verwendet werden.
  • Bei einer Ausgestaltung des Bediengeräts als Smartdevice ist es hierbei besonders bevorzugt, wenn die dort üblicherweise bereits ohnehin vorgesehenen Bediengerätesensoren verwendet werden. Beispielsweise kann das insbesondere als Smartdevice ausgebildete Bediengerät wenigstens einen die Bewegung und/oder die Position des Bediengeräts wenigstens in dem Raum, in dem die Medizintechnikeinrichtung befindlich ist, beschreibende Sensordaten aufnehmenden Bediengerätesensor aufweisen, wobei die Position und die Orientierung des Bediengeräts beschreibende Positionsdaten und/oder eine Bewegung des Bediengeräts beschreibende Bewegungsdaten aus den Sensordaten ermittelt und bei der Ermittlung des Triggersignals und/oder als Eingangsdaten berücksichtigt werden.
  • Eine konkrete Ausgestaltung in diesem Zusammenhang sieht vor, dass das insbesondere als Smartdevice ausgebildete Bediengerät wenigstens einen die Bewegung und/oder die Position des Bediengeräts in dem Raum, in dem die Medizintechnikeinrichtung befindlich ist, beschreibende Sensordaten aufnehmenden Bediengerätesensor aufweist, wobei die Position und die Orientierung des Bediengeräts zu einzustellenden Komponenten der Medizintechnikeinrichtung beschreibende Positionsdaten und/oder eine Bewegung relativ zu den Komponenten beschreibende Bewegungsdaten aus den Sensordaten ermittelt und als Eingangsdaten bei der Ermittlung der Prädiktionsdaten berücksichtigt werden. Derartige Informationen geben insbesondere Hinweise zur Auswahl wenigstens einer der Komponenten zur Einstellung/Benutzung. Bevorzugt kann ferner auch eine Auswertung zur Ermittlung einer Bedienereingabe bezüglich wenigstens einer der Komponenten erfolgen. Dabei wird mit besonderem Vorteil die im Smart-Device bereits vorhandene Sensorik verwende, um eine vollständige Lage- und Positionserkennung (und somit auch Bewegungserkennung) des Smartdevice in dem Raum, in dem sich die Medizintechnikeinrichtung befindet, zu erlauben.
  • Die Medizintechnikeinrichtung weist dabei bevorzugt Mittel auf, um aktuelle Einstellungsinformationen der Komponenten, die deren Position im Raum beschreiben, zu ermitteln, wie dies grundsätzlich bekannt ist, so dass beispielsweise in der Steuereinheit der Medizintechnikeinrichtung die Systemgeometrie genauso bekannt sein kann wie die aktuelle Stellung der Aktoren zur Bewegung/Einstellung der Komponenten, welche beispielsweise durch Motorencoder oder entsprechende Sensoren ermittelbar ist. Nachdem auch die Position der Medizintechnikeinrichtung im Raum bekannt ist, lassen sich mithin die relativen Positionen und Ausrichtungen und/oder Bewegungen der wenigstens einen Komponente und des Smartdevice feststellen und hinsichtlich der Fernbedienung der Komponenten auswerten. Damit ist es insbesondere möglich, intuitiv auf Komponenten zu zeigen und/oder zur Fernbedienung von Komponenten entsprechende Bewegungen mit dem Smartdevice durchzuführen, so dass komfortabel und mit Blick auf die zu steuernde Komponente eine Bedienung möglich wird. Hierzu ist das Bediengerät bevorzugt länglich ausgebildet, insbesondere also von im Wesentlichen rechteckiger und flacher Grundform, so dass das Bediengerät auf zu bedienende Komponenten gerichtet werden kann.
  • Wird als Bediengerätesensor eine Kamera verwendet, können in deren Bilddaten in dem Raum angeordnete optische Marker, deren Position im Raum bekannt ist, detektiert und zur Ermittlung der Positionsdaten und/oder der Bewegungsdaten verwendet werden. Auch sind aktive Marker denkbar, zu denen eine Kurzstrecken-Funkverbindung aufgebaut werden kann. Die Möglichkeit zum Aufbau einer solchen Kurzstrecken-Funkverbindung, insbesondere über Bluetooth/Bluetooth Low Energy, bzw. deren Eigenschaften lassen sich auch auswerten, um die Nähe des Bedieners zu den einzustellenden Komponenten zu überprüfen und beispielsweise in deren Abhängigkeit das entsprechende Einstellungs-Benutzerinterface zu aktivieren. Auch anderen Sensoren als Kameras können selbstverständlich als Bediengerätesensoren eingesetzt werden, beispielsweise Beschleunigungssensoren und/oder Drehratensensoren zur Realisierung einer Koppelnavigation (Dead Reckoning), insbesondere zusätzlich zu einer Markernavigation, beispielsweise wenn diese ausfällt und/oder plausibilisiert werden muss.
  • In einer besonders vorteilhaften Weiterbildung der vorliegenden Erfindung kann vorgesehen sein, dass der Analysealgorithmus auch zur Ermittlung einer Fehlerinformation als Prädiktionsdaten ausgebildet ist, falls einander widersprechende Eingangsdaten verwendet werden, wobei bei Vorliegen einer Fehlerinformation eine die Fehlerinformation beschreibende Ausgabe in dem anzuzeigenden Benutzerinterface erfolgt. Das bedeutet, der Analysealgorithmus der künstlichen Intelligenz kann auch die Plausibilität der Eingangsdaten überprüfen, insbesondere im Hinblick auf bestimmte, auszuschließende Aspekte, beispielsweise die Verwendung von Komponenten der Medizintechnikeinrichtung, die für ein ausgewähltes Medizintechnikprotokoll und/oder den Patienten nicht geeignet sind und dergleichen. Wird beispielsweise ein Medizintechnikprotokoll ausgewählt, bei dem bei einer Röntgeneinrichtung als Medizintechnikeinrichtung der Patient auf einer Patientenliege positioniert und untersucht werden soll, zeigen die Positionsdaten jedoch an, dass der Patient vor einem Bucky-Wandstativ steht, wo sich auch der Bediener mit dem Bediengerät befindet, kann von einem Fehler ausgegangen werden und ein entsprechender Hinweis an den Bediener ausgegeben werden, beispielsweise, dass der Patient nicht mit dem Bucky-Wandstativ, sondern mittels der Patientenliege untersucht werden soll. Überwacht werden können selbstverständlich auch sonstige Widersprüche, beispielsweise Einstellungen auf falsche Untersuchungs- und/oder Behandlungsbereiche eines Patienten, wobei dann entsprechend gleich das Benutzerinterface zur korrekten Einstellung der entsprechenden Komponente der Medizintechnikeinrichtung ausgewählt und, beispielsweise um die zusätzliche Ausgabe der Fehlerinformation, angepasst werden kann. Auf diese Weise können Fehler während des Untersuchungs- und/oder Behandlungsvorgangs des Patienten vermieden werden.
  • In sozusagen „abgeschwächter“ Form kann sich eine solche Fehlerkorrektur auch durch die übliche Funktionsweise des hier vorgeschlagenen Analysealgorithmus ergeben, nachdem beispielsweise die Analyse der relativen Position des Patienten und von relevanten Komponenten der Medizintechnikeinrichtung Hinweise darauf geben, ob und welche Komponenten noch einzustellen sind. Ist beispielsweise der Kollimator noch nicht gemäß dem ausgewählten Medizintechnikprotokoll bei einer Röntgenuntersuchung eingestellt, kann antizipiert werden, dass der Bediener dies als nächstes tun wird und das entsprechende Benutzerinterface angezeigt werden. Auf der anderen Seite führt das Anzeigen des entsprechenden Benutzerinterfaces selbstverständlich dazu, dass der Bediener eine gegebenenfalls bereits vorgenommene Einstellung nochmals hinterfragt und korrigiert bzw. verbessert, wenn dies zur Erhöhung der Qualität des Untersuchungsvorgangs und/oder Behandlungsvorgangs zweckmäßig erscheint. Insbesondere kann auch eine entsprechende Information mit in dem Benutzerinterface dargestellt werden, beispielsweise eine aktuell gegebene Genauigkeit einer Einstellung. Auf diese Weise führt das erfindungsgemäße Vorgehen auch zu einer Verbesserung der Qualität des Untersuchungs- und/oder Behandlungsvorgangs.
  • Neben dem Verfahren betrifft die Erfindung auch ein kabelloses, handgehaltenes, mobiles Bediengerät zur Steuerung einer Medizintechnikeinrichtung, aufweisend einen Touchscreen und eine zur Durchführung des erfindungsgemäßen Verfahrens ausgebildete Steuereinheit. Die Durchführung des erfindungsgemäßen Verfahrens kann jedoch auch verteilt werden, so dass die Erfindung ferner ein Bediensystem zur Steuerung des Betriebs einer Medizintechnikeinrichtung betrifft, aufweisend ein kabelloses, handgehaltenes, mobiles Bediengerät mit einem Touchscreen und eine eine Steuereinheit des Bediengeräts und eine Steuereinheit der Medizintechnikeinrichtung umfassende, zur Ausführung des erfindungsgemäßen Verfahrens ausgebildete Steuereinrichtung. Sämtliche Ausführungen bezüglich des erfindungsgemäßen Verfahrens lassen sich analog auf das erfindungsgemäße Bediengerät und das erfindungsgemäße Bediensystem übertragen, so dass auch mit diesen die bereits genannten Vorteile erhalten werden können.
  • Schließlich betrifft die Erfindung auch eine Medizintechnikeinrichtung, insbesondere eine Bildaufnahmeeinrichtung, aufweisend ein erfindungsgemäßes Bediengerät oder ein erfindungsgemäßes Bediensystem. Auch auf die Medizintechnikeinrichtung lassen sich die bisherigen Ausführungen selbstverständlich analog übertragen.
  • Die Medizintechnikeinrichtung kann insbesondere als eine bildgebende Röntgeneinrichtung ausgebildet sein, welche in einem Raum, in dem sie angeordnet ist, eine Strahlenschutzwand umfasst. Insbesondere dann, wenn aufgrund eines ganzheitlichen Bedienkonzepts auf einen Vorraum zur Steuerung der Medizintechnikeinrichtung verzichtet wird, ist es zweckmäßig, bei Strahlung verwendenden Medizintechnikeinrichtungen, insbesondere Röntgeneinrichtungen, eine Strahlenschutzwand im eigentlichen Untersuchungsraum zu verwenden.
  • Ein erfindungsgemäßes Computerprogramm ist beispielsweise direkt in einem Speicher einer Steuereinheit eines Bediengeräts bzw. einer Steuereinrichtung eines Bediensystems ladbar und weist Programmmittel auf, um die Schritte eines erfindungsgemäßen Verfahrens auszuführen, wenn das Computerprogramm in der Steuereinheit des Bediengeräts bzw. der Steuereinrichtung des Bediensystems ausgeführt wird. Das Computerprogramm kann auf einem erfindungsgemäßen elektronisch lesbaren Datenträger gespeichert sein, welcher mithin darauf gespeicherte elektronisch lesbare Steuerinformationen umfasst, welche zumindest ein erfindungsgemäßes Computerprogramm umfassen und derart ausgestaltet sind, dass sie bei Verwendung des Datenträgers in einer Steuereinheit eines Bediengeräts bzw. einer Steuereinrichtung eines Bediensystems ein erfindungsgemäßes Verfahren durchführen. Bei dem elektronisch lesbaren Datenträger kann es sich insbesondere um einen nichttransienten Datenträger, beispielsweise eine CD-ROM, handeln.
  • Weitere Vorteile und Einzelheiten der vorliegenden Erfindung ergeben sich aus den im Folgenden beschriebenen Ausführungsbeispielen sowie anhand der Zeichnungen. Dabei zeigen:
    • 1 eine Prinzipskizze von Komponenten einer erfindungsgemäßen Medizintechnikeinrichtung,
    • 2 eine Darstellung zur Erläuterung einer Lokalisierung mittels Markern und einer Kamera eines Bediengeräts,
    • 3 eine Skizze zur Erläuterung eines Ausführungsbeispiels des erfindungsgemäßen Verfahrens,
    • 4 eine erste Bediensituation,
    • 5 eine zweite Bediensituation,
    • 6 eine dritte Bediensituation,
    • 7 eine vierte Bediensituation, und
    • 8 eine fünfte Bediensituation.
  • 1 zeigt eine Prinzipskizze eines Ausführungsbeispiels einer erfindungsgemäßen Medizintechnikeinrichtung 1, die in einem Raum 2 angeordnet und vorliegend als Röntgeneinrichtung ausgebildet ist. Die Medizintechnikeinrichtung 1 weist mehrere einstellbare Komponenten 3 auf, die beispielsweise durch Fernbedienung bewegbar sein können. Die Komponenten 3 können beispielsweise einen Röntgenstrahler, einen Röntgendetektor, eine Blendeneinrichtung und einen Patiententisch umfassen. Der Betrieb der Medizintechnikeinrichtung 2 wird durch eine Steuereinheit 4 gesteuert.
  • Als Bedieneinrichtung der Medizintechnikeinrichtung 1 ist ein hier als Smartdevice, konkret Smartphone, ausgebildetes, kabelloses, handgehaltenes und mobiles Bediengerät 5 vorgesehen, dessen Steuereinheit 6 über eine entsprechende, hier nicht näher gezeigte Funkschnittstelle, insbesondere ein Bluetooth-Interface und/oder bevorzugt ein WLAN-Interface, eine drahtlose Kommunikationsverbindung 7 zu der Steuereinheit 4 aufbauen kann. Das Bluetooth-Interface, wobei hier Bluetooth Low Energy (BLE) verwendet wird, wird im Übrigen auch zum Aufbau von Kurzstrecken-Funkverbindungen 8 zu wenigstens einem Teil von optischen Markern 9 verwendet, konkret wenigstens zu aktiven optischen Markern 9, die mithin zur Ausgabe optischer, zu detektierender Signale angesteuert werden können. Die Marker 9 können auch reine BLE-Marker bzw. BLE-Beacons sein.
  • Das Bediengerät 5 umfasst ferner, wie grundsätzlich bekannt, einen Touchscreen 10 als Bedienmittel und Display. Ferner weist das Bediengerät 5 Bediengerätesensoren 11 auf, vorliegend zwei Kameras, nämlich eine Frontkamera und eine Rückkamera, Beschleunigungssensoren, Drehratensensoren und einen Magnetfeldsensor, der als Kompass wirkt.
  • Den einstellbaren Komponenten 3 sind durch die Steuereinheit 4 ansteuerbare Aktoren 12 zur Herstellung der Einstellbarkeit, beispielsweise Motoren, zugeordnet, die im Übrigen auch ihre jeweilige Stellung an die Steuereinheit 4 zurückmelden, so dass diese aufgrund der ihr ebenso bekannten Systemgeometrie der Medizintechnikeinrichtung 1 ständig die Einstellungen, insbesondere Positionen, der Komponenten 3 kennt. Die Steuereinheit 4 kennt im Übrigen auch die Position der Medizintechnikeinrichtung 1 im Raum 2. Dies ermöglicht es insbesondere, bei bekannter Position und Orientierung bzw. bekannter Bewegung des Bediengeräts 5 im Raum 2 als entsprechende Positionsdaten bzw. Bewegungsdaten diese in Beziehung zu den jeweiligen Komponenten 3 zu setzen, so dass mittels des Bediengeräts 5 Einstellungen dieser Komponenten 3 vorgenommen werden können. Insbesondere kann mittels des Bediengeräts 5 eine Komponente 3 zur Einstellung ausgewählt werden und mittels des Bediengeräts 5 durch dessen Bewegung eine Vorgabe zur Einstellung gegeben werden.
  • Positionsdaten und/oder Bewegungsdaten des Bediengeräts 5 im Raum 2 und auch außerhalb des Raums 2 können im Rahmen der vorliegenden Erfindung, also insbesondere während eines Medizingeräteworkflows zur Durchführung eines Untersuchungsvorgangs eines Patienten, als Eingangsdaten eines Analysealgorithmus eingesetzt werden. Zur Bestimmung der Positionsdaten und der Bewegungsdaten, mithin der Orientierung, Position und auch Bewegung des Bediengeräts 5, werden im Raum 2 wenigstens teilweise die Marker 9 eingesetzt, die mittels der Kameras erfassbar sind. Dies sei im Hinblick auf 2 näher erläutert.
  • 2 zeigt eine perspektivische Ansicht auf den Raum 2. Zu erkennen ist zunächst die Medizintechnikeinrichtung 1 mit dem Patiententisch 13, dem Röntgenstrahler 14 und dem Röntgendetektor 15 als Komponenten 3. Die hier der Übersichtlichkeit halber nicht näher dargestellte Blendeneinrichtung ist in Baueinheit mit dem Röntgenstrahler 14 realisiert. Eine Hand 16 eines Bedieners hält das Bediengerät 5 im Raum 2, wobei der Erfassungsbereich 17 der vorderen Kamera 18 als Bediengerätesensor 11 angedeutet ist. Die in ihrem optisch wahrnehmbaren Mustern deutlich unterscheidbaren Marker 9 sind ersichtlich an verschiedenen Stellen im Raum 2, vorliegend der Übersichtlichkeit halber wenigstens an der Decke und den Wänden, verteilt; eine Anordnung von optischen Markern 9 am Boden ist selbstverständlich auch möglich. Dabei weisen die aktiven Marker 9 vorliegend Infrarot-LEDs 19 in verschiedenen Mustern auf.
  • Nachdem das Bediengerät 5 flach und länglich ist, weist es, in der Hand 16 liegend, auch eine klar definierte Zeigerichtung 20, symbolisiert durch einen Pfeil, auf, nämlich die Verlängerung der Längsachse des Bediengeräts 5.
  • Zumindest dann, wenn sich das Bediengerät 5 im Raum 2 befindet, werden zumindest teilweise die Marker 9 genutzt, um hochgenaue Positionsdaten und Bewegungsdaten des Bediengeräts 5 zu ermitteln, was in der Steuereinheit 4 und/oder der Steuereinheit 6 kontinuierlich geschieht. Sind die Marker 9 oder nicht genügend erfassbar, beispielsweise, weil sich das Bediengerät 5 außerhalb des Raumes 2 befindet, können dennoch über externe Sensoren, sonstige Marker, funkbasierte Positionsbestimmungen und dergleichen Positionsdaten und/oder Bewegungsdaten ermittelt werden, wobei Bewegungsdaten auch und/oder ausschließlich aus Daten der Beschleunigungssensoren und/oder Drehratensensoren bestimmt werden können. Diese weiteren Bestimmungsmöglichkeiten können auch allgemein alternativ zu optischen Markern 9 eingesetzt werden.
  • Nachdem die Position und die Eigenschaften der Marker 9 in einer Konfigurationsphase ermittelt wurden, sind diese nun, beispielsweise in einer Datenbank, abgelegt und verfügbar. Die von der Kamera 18 erfassten Marker 9 können mithin zur Positionsbestimmung dienen, wobei die aktiven Marker 9 über die Kurzstrecken-Funkverbindungen 8 angesteuert werden, in Synchronisation mit dem Bediengerät 5 entsprechende, detektierbare Signale auszugeben. Die Infrarot-LEDs 19 ermöglichen eine verlässliche Erkennung der Marker 9. Aufgrund der Kurzstrecken-Funkverbindung 8 wirken die aktiven Marker 9 zudem auch als Funk-Beacons bzw. Funk-Leuchtfeuer, was bereits eine zumindest grobe Positionsbestimmung ermöglich (Laufzeit und Feldstärkemessungen). Eine derartige grobe Positionsbestimmung ließe sich im Übrigen auch mit aktiv Licht aussendenden, durch Aufmodulation eines Identifikationssignals als Licht-Beacons wirkenden optischen Markern erreichen. Unterstützend zu den Sensordaten der Kamera werden auch die Sensordaten der Beschleunigungssensoren (Kippung im Raum), der Drehratensensoren (Bewegung) und des Magnetfeldsensors (Ausrichtung nach Nord grob ermittelbar) berücksichtigt.
  • Wie 1 ferner zeigt, befindet sich in dem Raum 2 zusätzlich zu der Medizintechnikeinrichtung 1 (bzw. als Teil derselben) eine Strahlenschutzwand 21, hinter der ein Bediener stehen kann, sobald Strahlung ausgelöst wird.
  • Auf dem Touchscreen 10 des Bediengeräts 5 kann ein intelligentes, adaptives Benutzerinterface realisiert werden. Dazu kann ein auf der Steuereinheit 6 und/oder der Steuereinheit 4 ablaufender Analysealgorithmus der künstlichen Intelligenz genutzt werden, der die aktuelle Bediensituation analysiert und zu prädizieren sucht, welche Funktionalitäten und/oder Informationen der Bediener als nächstes benötigen wird. Dies sei im Hinblick auf 3 näher erläutert.
  • 3 zeigt auf ihrer rechten Seite den Bereich der „situation awareness“, in dem die Bediensituation durch Eingangsdaten 22 abgebildet wird. Die Eingangsdaten 22 umfassen dabei wenigstens den aktuellen Patienten betreffende Patientendaten 23, den Betriebszustand der Medizintechnikeinrichtung 1 betreffende Betriebszustandsdaten 24, die Position des Bediengeräts 5 und des Patienten bezüglich der Medizintechnikeinrichtung 1 beschreibende Positionsdaten 25 und den Medizintechnikworkflow und eine aktuelle Position in dem Medizintechnikworkflow beschreibende Workflowdaten 26. Weitere Eingangsdaten 22 können ebenso verwendet werden, beispielsweise die Bewegungsdaten hinsichtlich des Bediengeräts 5, wie sie im Hinblick auf 1 und 2 bereits beschrieben wurden.
  • Die Eingangsdaten 22 werden dem Analysealgorithmus 27 der künstlichen Intelligenz zugeführt, welcher mittels eines Deep-Learning-Verfahrens trainiert wurde und im Übrigen auch kontinuierlich weiter trainiert wird, nachdem tatsächliche Bedienhandlungen des Bedieners als Grundwahrheit zu entsprechenden Bediensituationen ständig aufgezeichnet werden können und somit genutzt werden können, um die Qualität des Analysealgorithmus 27 zu verbessern.
  • Der Analysealgorithmus 27 prädiziert letztendlich, welche Bedienhandlung am wahrscheinlichsten als nächstes durch den Bediener vorgenommen wird und/oder welche Informationen der Bediener am wahrscheinlichsten benötigt. Diese Prädiktionsdaten 28 können jedoch zusätzlich auch eine Fehlerinformation 29 enthalten, wenn der Analysealgorithmus 27 feststellt, dass Eingangsdaten 22 einander widersprechen, so dass mithin auch eine Plausibilitätsprüfung der Bediensituation durchgeführt wird. Wird beispielsweise festgestellt, dass der Patient falsch für eine ausgewählte konkrete Röntgenuntersuchung positioniert ist, widersprechen sich die entsprechenden Workflowdaten und die Betriebszustandsdaten der Medizintechnikeinrichtung gemeinsam mit den Positionsdaten 25 des Patienten, was als Fehlerinformation 29 in den Prädiktionsdaten 28 enthalten sein kann und zu einer entsprechenden Anpassung des anzuzeigenden Benutzerinterfaces, insbesondere einer Erweiterung um die Fehlerinformation 29, führen kann. Auch die Auswahl kann durch die Fehlerinformation 29 beeinflusst werden, beispielsweise, indem dem Bediener sogleich das Benutzerinterface angeboten wird, in dem der Fehler korrigiert werden kann.
  • In einem Schritt 30 erfolgt dann die Auswahl und/oder Anpassung des anzuzeigenden Benutzerinterfaces, welches die vom Bediener am wahrscheinlichsten benötigten Funktionalitäten bereitstellt bzw. die vom Bediener am wahrscheinlichsten benötigte Information enthält und sich gegebenenfalls auch an der Fehlerinformation 29 orientiert bzw. diese aufnimmt. Das so ermittelte Benutzerinterface wird auf dem Touchscreen 10 des Bediengeräts 5 angezeigt.
  • Der in Bezug auf 3 beschriebene Vorgang der intelligenten, adaptiven Ermittlung eines Benutzerinterfaces aufgrund des Auswahlalgorithmus 27 der künstlichen Intelligenz kann durch ein Triggersignal ausgelöst werden. Dabei wird durch die Steuereinheit 4 und/oder die Steuereinheit 6, insbesondere durch Auswertung der Positionsdaten 25 des Bediengeräts 5 und/oder der Bewegungsdaten des Bediengeräts 5, überprüft, ob ein Verbringen des Bediengeräts 5 in eine Benutzungsposition erfolgt. Eine derartige Benutzungsposition kann durch Halten des Bediengeräts 5 in der Hand 16 derart gegeben sein, dass der Touchscreen 10 auf die Augen des Bedieners ausgerichtet ist. Das Verbringen in die Benutzungsposition zeigt an, dass der Bediener das Bediengerät 5 nutzen möchte. Hierzu bekommt er aufgrund der beschriebenen Vorgänge gemäß 3 sogleich ein geeignetes Benutzerinterface angezeigt.
  • Im vorliegend beschriebenen Ausführungsbeispiel kann eine Unterstützung durch den Analysealgorithmus 27 auch aus jedem Benutzerinterface mittels eines in 2 angedeuteten Unterstützungsbedienelements 31 angefordert werden, welches entsprechend auf dem Touchscreen abgebildet ist und durch den Bediener betätigt werden kann, um ebenso ein Triggersignal für die Nutzung des Analysealgorithmus auszugeben.
  • Es sei an dieser Stelle noch angemerkt, dass der Analysealgorithmus 27 bzw. die Auswahl und/oder Anpassung des Benutzerinterfaces im Schritt 30 auch benutzerspezifisch erfolgen kann, wobei der Bediener bevorzugt zu Beginn seiner Bedientätigkeit identifiziert wird.
  • Die 4 bis 8 zeigen nun verschiedene beispielhafte Bediensituationen und die entsprechende Auswahl und/oder Anpassung des Benutzerinterfaces. Dabei ist in allen Situationen wiederum schematisch der Raum 2 mit der Medizintechnikeinrichtung 1 gezeigt, die vorliegend im Übrigen zusätzlich zu dem Patiententisch 13 auch ein Bucky-Wandstativ 32 aufweist, welches alternativ verwendet werden kann. Gezeigt ist schematisch auch jeweils ein an den Raum 2 anschließender Warteraum 33. Der Bediener trägt das Bezugszeichen 34, der Patient das Bezugszeichen 35. Es sind ferner im Übrigen auch Kameras 36 innerhalb des Raums 2 gezeigt, die als Sensoren ebenso Eingangsdaten liefern können.
  • In der Bediensituation der 4 wurden bereits mittels eines Erfassungs-Benutzerinterfaces der Patient 35 und somit die Patientendaten 23 des Patienten erfasst. Mittels eines Auswahl-Benutzerinterfaces wurde auch bereits ein für den Patienten 35 durchzuführendes, Betriebsparameter enthaltendes Medizintechnikprotokoll ausgewählt. Eine Vorpositionierung von Komponenten 3 der Medizintechnikeinrichtung 1 kann optional ebenso bereits stattgefunden haben. Der Patient 35 befindet sich offensichtlich bereits im Raum 2 und wurde vom Bediener 34 zum Bucky-Wandstativ 32 geführt. Der Bediener hat auch bereits den Patienten 35 am Bucky-Wandstativ 32 positioniert. Die Positionsdaten des Patienten sowie des Bediengeräts 5 zeigen an, dass der Bediener 34 und der Patient 35 nahe des Bucky-Wandstativs 32 positioniert sind. Der Bediener 34 hat gerade das Bediengerät 5 in eine Benutzungsposition verbracht.
  • Anhand der entsprechenden Eingangsdaten 22 stellt der Analysealgorithmus 27 fest, dass entweder die Feinjustierung der Höhe des Bucky-Wandstativs 32 oder die Kollimierung ein nächster Schritt sein kann. Beschreiben die Eingangsdaten 22 nun, dass die Patientengröße, beispielsweise gescannt durch die Kamera 36, anzeigt, dass die Position des Bucky-Wandstativs 32 sowie des Röntgenstrahlers 14 zu niedrig ist, ist es am wahrscheinlichsten, dass eine Höhenanpassung mittels des Bediengeräts 5 erfolgen soll, so dass das entsprechende Benutzerinterface dargestellt wird. Wird jedoch festgestellt, dass die Patientengröße, die Position des Bucky-Wandstativs 32 und die Position des Röntgenstrahlers 14 korrekt gewählt sind, wird davon ausgegangen, dass die Kollimierung eingestellt werden soll, und ein entsprechendes Benutzerinterface wird auf dem Touchscreen 10 des Bediengeräts 5 angezeigt.
  • Hinsichtlich der Fehlerinformation 29 sei noch angemerkt, dass diese beispielsweise erzeugt werden kann, wenn das ausgewählte Medizintechnikprotokoll anzeigt, dass der Patient 35 eigentlich mittels des Patiententisches 13 untersucht werden soll.
  • 5 zeigt ein vergleichbares Szenario, nur dass nun der Patient 35 auf dem Patiententisch 13 untersucht werden soll und bereits zu diesem geführt wurde. Nachdem der nächste Schritt nun die Einstellung des Patiententisches 13 ist, wird auch hier ein entsprechendes Benutzerinterface zur Einstellung des Patiententisches 13 ausgewählt und angezeigt, entsprechend der ermittelten Prädiktionsdaten 28.
  • In 6 ist der Patient 35 bereits auf dem Patiententisch 13 positioniert. Stellt der Analysealgorithmus 27 in dieser Situation beispielsweise fest, dass der Patient 35 größer/ kleiner als der durchschnittliche Patient ist, kann eine Anpassung von die Stärke der Bestrahlung beschreibenden Betriebsparametern empfohlen werden, indem ein entsprechendes Benutzerinterface auf dem Touchscreen 10 des Bediengeräts 5 angezeigt wird. Ansonsten kann die Information angezeigt werden, dass alles bereit zur Aufnahme eines Röntgenbildes ist und der Benutzer 34 sich hinter die Strahlenschutzwand 21 begeben soll.
  • In der Bediensituation in 7, die sich wiederum auf die Bediensituation in 4 zurückbezieht, ist der Patient 35 vor dem Bucky-Wandstativ 32 korrekt positioniert und der Benutzer 34 befindet sich hinter der Strahlenschutzwand 21. Nachdem aufgrund der Workflowdaten 26 bekannt ist, dass alle vorherigen Schritte bis zur Kollimierung erfolgreich abgeschlossen sind und sich der Benutzer 34 zudem hinter der Strahlenschutzwand 21 befindet, kann ein entsprechendes Auslöse-Benutzerinterface ausgewählt und auf dem Touchscreen 10 des Bediengeräts 5 angezeigt werden.
  • Wird jedoch beispielsweise festgestellt, dass sich der Bediener 34 hinter der Strahlenschutzwand 21 befindet, ohne dass der Patient 35 positioniert/ohne dass kollimiert wurde bzw. ohne dass überhaupt ein Patient 35 anwesend ist, sieht das ausgewählte und/oder angepasste Benutzerinterface anders aus und hängt von anderen Eingangsdaten/Systembedingungen ab, so dass beispielsweise eine Patientenliste, eine Untersuchungsliste oder eine vorläufige Bildbetrachtung der letzten Aufnahme auf dem Bediengerät 5 dargestellt werden kann.
  • 8 zeigt schließlich eine Situation, in der sich der Bediener 34 nicht in dem Raum 2 befindet, sondern im Raum 33. Der vorherige Untersuchungsvorgang ist abgeschlossen. Wurde nun bereits ein neuer Patient 35 ausgewählt, wird ein Auswahl-Benutzerinterface zur Auswahl eines Medizintechnikprotokolls auf dem Touchscreen 10 des Bediengeräts 5 angezeigt; wurde noch kein neuer Patient 35 ausgewählt, kann eine Patientenliste und/oder ein Erfassungs-Benutzerinterface angezeigt werden; sind keine Patienten in der Patientenliste verfügbar, kann ein allgemeines Benutzerinterface bzw. eine entsprechende Information in einem Benutzerinterface auf dem Touchscreen 10 des Bediengeräts 5 angezeigt werden.
  • Obwohl die Erfindung im Detail durch das bevorzugte Ausführungsbeispiel näher illustriert und beschrieben wurde, so ist die Erfindung nicht durch die offenbarten Beispiele eingeschränkt und andere Variationen können vom Fachmann hieraus abgeleitet werden, ohne den Schutzumfang der Erfindung zu verlassen.
  • Bezugszeichenliste
  • 1
    Medizintechnikeinrichtung
    2
    Raum
    3
    Komponente
    4
    Steuereinheit
    5
    mobiles Bediengerät
    6
    Steuereinheit
    7
    drahtlose Kommunikationsverbindung
    8
    Kurzstrecken-Fundverbindung
    9
    Marker
    10
    Touchscreen
    11
    Bediengerätesensor
    12
    Aktor
    13
    Patiententisch
    14
    Röntgenstrahler
    15
    Röntgendetektor
    16
    Hand
    17
    Erfassungsbereich
    18
    Kamera
    19
    Infrarot-LED
    20
    Zeigerichtung
    21
    Strahlenschutzwand
    22
    Eingangsdaten
    23
    Patientendaten
    24
    Betriebszustandsdaten
    25
    Positionsdaten
    26
    Workflowdaten
    27
    Analysealgorithmus
    28
    Prädiktionsdaten
    29
    Fehlerinformation
    30
    Schritt
    31
    Bedienelement
    32
    Bucky-Wandstativ
    33
    Warteraum
    34
    Bediener
    35
    Patient
    36
    Kamera
  • ZITATE ENTHALTEN IN DER BESCHREIBUNG
  • Diese Liste der vom Anmelder aufgeführten Dokumente wurde automatisiert erzeugt und ist ausschließlich zur besseren Information des Lesers aufgenommen. Die Liste ist nicht Bestandteil der deutschen Patent- bzw. Gebrauchsmusteranmeldung. Das DPMA übernimmt keinerlei Haftung für etwaige Fehler oder Auslassungen.
  • Zitierte Patentliteratur
    • DE 102013219195 A1 [0003]
    • DE 102013219194 A1 [0003]
    • DE 102013219145 A1 [0003]
    • DE 102017217128 [0004]
    • EP 17152779 [0004]
    • EP 17202205 [0005, 0017]

Claims (13)

  1. Verfahren zur Steuerung des Betriebs einer Medizintechnikeinrichtung (1), insbesondere einer Bildaufnahmeeinrichtung, wobei ein kabelloses, handgehaltenes, mobiles Bediengerät (5) mit einem Touchscreen (10) verwendet wird und für einen Untersuchungs- und/oder Behandlungsvorgang eines Patienten (35) mit der Medizintechnikeinrichtung (1) mehrere Funktionen eines Medizintechnikworkflows mittels des Bediengeräts (5) realisiert werden, wobei zur Ermittlung eines anzuzeigenden Benutzerinterfaces - eine aktuelle Bediensituation beschreibende Eingangsdaten (22), umfassend den Patienten (35) betreffende Patientendaten (23), den Betriebszustand der Medizintechnikeinrichtung (1) betreffende Betriebszustandsdaten (24), die Position des Bediengeräts (5) und/oder eines Patienten (35) bezüglich der Medizintechnikeinrichtung (1) beschreibende Positionsdaten (25) und den Medizintechnikworkflow und/oder eine aktuelle Position in dem Medizintechnikworkflow beschreibende Workflowdaten (26), ermittelt werden, - mittels eines Analysealgorithmus (27) der künstlichen Intelligenz eine folgende Bedienhandlung des Bedieners (34) und/oder eine durch den Bediener (34) als nächstes benötigte Information beschreibende Prädiktionsdaten (28) ermittelt werden, und - das anzuzeigende Benutzerinterface in Abhängigkeit von den Prädiktionsdaten (28) ausgewählt und/oder angepasst und sodann angezeigt wird.
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass zum Trainieren des Analysealgorithmus (27) ein Deep-Learning-Verfahren eingesetzt wird.
  3. Verfahren nach Anspruch 1 oder 2, dadurch gekennzeichnet, dass während der Benutzung des Bediengeräts (5) die Bedienhandlungen des Bedieners (34) beschreibende Bediendaten aufgenommen und aktuellen Eingangsdaten (22) zugeordnet werden, wobei die so erhaltenen Trainingsdaten zum weiteren Trainieren des Analysealgorithmus (27) verwendet werden.
  4. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Bediener (34), insbesondere wenigstens zu Beginn seiner Bedientätigkeit, identifiziert wird, wobei ein bedienerspezifischer Analysealgorithmus (27) verwendet wird und/oder die Identität des Bedieners (34) bei der Auswahl und/oder Anpassung des Benutzerinterfaces berücksichtigt wird.
  5. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Workflowdaten (26) wenigstens teilweise bereits erledigte Workflowschritte des Medizintechnikworkflows beschreibend ermittelt werden.
  6. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass die Auswahl und Anzeige eines Benutzerinterfaces getriggert durch ein ein Verbringen des Bediengeräts (5) in eine Benutzungsposition anzeigendes Triggersignal erfolgt.
  7. Verfahren nach Anspruch 6, dadurch gekennzeichnet, dass das Triggersignal durch Auswertung von die Position des Bediengeräts (5) anzeigenden Positionsdaten (25) und/oder die Bewegung des Bediengeräts (5) anzeigenden Bewegungsdaten ermittelt wird.
  8. Verfahren nach einem der vorangehenden Ansprüche, dadurch gekennzeichnet, dass der Analysealgorithmus (27) auch zur Ermittlung einer Fehlerinformation (29) als Prädiktionsdaten (28) ausgebildet ist, falls einander widersprechende Eingangsdaten (22) verwendet werden, wobei bei Vorliegen einer Fehlerinformation (29) eine die Fehlerinformation (29) beschreibende Ausgabe in dem anzuzeigenden Benutzerinterface erfolgt.
  9. Kabelloses, handgehaltenes, mobiles Bediengerät (5) zur Steuerung des Betriebs einer Medizintechnikeinrichtung (1), aufweisend einen Touchscreen (10) und eine zur Durchführung eines Verfahrens nach einem der vorangehenden Ansprüche ausgebildete Steuereinheit (6).
  10. Bediensystem zur Steuerung des Betriebs einer Medizintechnikeinrichtung (1), aufweisend ein kabelloses, handgehaltenes, mobiles Bediengerät (5) mit einem Touchscreen (10) und eine eine Steuereinheit (6) des Bediengeräts (5) und eine Steuereinheit (4) der Medizintechnikeinrichtung (1) umfassende, zur Ausführung eines Verfahrens nach einem der Ansprüche 1 bis 8 ausgebildete Steuereinrichtung.
  11. Medizintechnikeinrichtung (1), aufweisend ein Bediengerät (5) nach Anspruch 8 oder ein Bediensystem nach Anspruch 10.
  12. Computerprogramm, welches die Schritte eines Verfahrens nach einem der Ansprüche 1 bis 8 durchführt, wenn es auf einer Steuereinheit eines Bediengeräts (5) nach Anspruch 9 oder einer Steuereinrichtung eines Bediensystems nach Anspruch 10 ausgeführt wird.
  13. Elektronisch lesbarer Datenträger, auf dem ein Computerprogramm nach Anspruch 12 gespeichert ist.
DE102018205496.7A 2018-04-11 2018-04-11 Verfahren zur Steuerung des Betriebs einer Medizintechnikeinrichtung, Bediengerät, Bediensystem, Medizintechnikeinrichtung, Computerprogramm und elektronisch lesbarer Datenträger Pending DE102018205496A1 (de)

Priority Applications (4)

Application Number Priority Date Filing Date Title
DE102018205496.7A DE102018205496A1 (de) 2018-04-11 2018-04-11 Verfahren zur Steuerung des Betriebs einer Medizintechnikeinrichtung, Bediengerät, Bediensystem, Medizintechnikeinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
US17/041,662 US11298099B2 (en) 2018-04-11 2019-04-02 Method for controlling the operation of a medical apparatus, operating device, operating system, medical apparatus, computer program and electronically readable data carrier
CN201980025062.9A CN111954908B (zh) 2018-04-11 2019-04-02 用于控制医学技术装置的运行的方法、操作设备、操作***、医学技术装置、计算机程序产品和电子可读的数据载体
PCT/EP2019/058298 WO2019197222A1 (de) 2018-04-11 2019-04-02 Verfahren zur steuerung des betriebs einer medizintechnikeinrichtung, bediengerät, bediensystem, medizintechnikeinrichtung, computerprogramm und elektronisch lesbarer datenträger

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
DE102018205496.7A DE102018205496A1 (de) 2018-04-11 2018-04-11 Verfahren zur Steuerung des Betriebs einer Medizintechnikeinrichtung, Bediengerät, Bediensystem, Medizintechnikeinrichtung, Computerprogramm und elektronisch lesbarer Datenträger

Publications (1)

Publication Number Publication Date
DE102018205496A1 true DE102018205496A1 (de) 2019-10-17

Family

ID=66240052

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102018205496.7A Pending DE102018205496A1 (de) 2018-04-11 2018-04-11 Verfahren zur Steuerung des Betriebs einer Medizintechnikeinrichtung, Bediengerät, Bediensystem, Medizintechnikeinrichtung, Computerprogramm und elektronisch lesbarer Datenträger

Country Status (3)

Country Link
US (1) US11298099B2 (de)
DE (1) DE102018205496A1 (de)
WO (1) WO2019197222A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3958103A1 (de) * 2020-08-18 2022-02-23 Siemens Aktiengesellschaft Adaptive mensch-maschinen-schnittstelle auf basis künstlicher intelligenz
DE102021210499B3 (de) 2021-09-21 2023-02-23 Siemens Healthcare Gmbh Verfahren und Vorrichtung zur Unterdrückung von bei Magnetresonanzaufnahmen emittierten elektrischen und/oder magnetischen Feldern

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102018205496A1 (de) * 2018-04-11 2019-10-17 Siemens Healthcare Gmbh Verfahren zur Steuerung des Betriebs einer Medizintechnikeinrichtung, Bediengerät, Bediensystem, Medizintechnikeinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
WO2019208006A1 (ja) * 2018-04-26 2019-10-31 株式会社島津製作所 放射線撮影装置
EP3643240B1 (de) * 2018-10-24 2021-03-17 Siemens Healthcare GmbH Medizinische bildgebungseinrichtung und verfahren zum betrieb einer medizinischen bildgebungseinrichtung

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008062032A1 (de) * 2008-12-12 2010-07-01 Siemens Aktiengesellschaft Medizinischer Arbeitsplatz und Verfahren zu dessen Betreiben
DE102013219195A1 (de) 2013-09-24 2015-03-26 Siemens Aktiengesellschaft Fernbedienung und Verfahren zur Steuerung eines Gerätes mit zumindest einem Bewegungsfreiheitsgrad
DE102013219194A1 (de) 2013-09-24 2015-03-26 Siemens Aktiengesellschaft Medizinsystem
DE102013219145A1 (de) 2013-09-24 2015-04-09 Siemens Aktiengesellschaft Medizinsystem
DE102017217128A1 (de) 2017-09-26 2019-03-28 Siemens Healthcare Gmbh Erweiterungseinheit für ein mobiles Endgerät

Family Cites Families (28)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
FR2861778B1 (fr) 2003-10-29 2008-02-08 Participations G Dispositif d'ancrage de securite permanent a fixation securisee
US8379154B2 (en) 2006-05-12 2013-02-19 Tong Zhang Key-frame extraction from video
DE102006046319B4 (de) * 2006-09-29 2008-07-03 Siemens Ag Verfahren zum Auffinden und zur Anzeige von Informationen in einem Informationssystem einer medizinischen Einrichtung
US8114063B2 (en) * 2008-05-07 2012-02-14 Sacco John J RFID-tagged urinary catheter
US8543415B2 (en) * 2008-11-26 2013-09-24 General Electric Company Mobile medical device image and series navigation
US8692774B2 (en) * 2009-11-24 2014-04-08 General Electric Company Virtual colonoscopy navigation methods using a mobile device
WO2011100715A1 (en) * 2010-02-12 2011-08-18 Service Heartbeat Llc Workflow and resource management system with integrated bi-directional communications
CN103403568B (zh) * 2011-03-01 2016-06-29 皇家飞利浦有限公司 对磁共振成像脉冲序列协议分类的确定
US20150142457A1 (en) * 2013-11-20 2015-05-21 Toshiba Medical Systems Corporation Apparatus for, and method of, data validation
GB201411565D0 (en) 2014-06-30 2014-08-13 Digital Clipboard Ltd Clinical data capture
WO2017015393A1 (en) * 2015-07-21 2017-01-26 The Arizona Board Of Regents On Behalf Of The University Of Arizona Health information (data) medical collection, processing and feedback continuum systems and methods
US20170372026A1 (en) * 2016-06-28 2017-12-28 Alodeep Sanyal Non-Invasive continuous and adaptive health monitoring eco-system
DE102016217204A1 (de) * 2016-09-09 2018-03-15 Siemens Healthcare Gmbh Verfahren zu einem Planen und/oder Steuern einer medizinischen Bildgebungsuntersuchung mittels eines mobilen Endgeräts
DE102016218138A1 (de) * 2016-09-21 2018-03-22 Siemens Healthcare Gmbh System mit einem mobilen Steuerungsgerät und Verfahren zum Ausgeben eines Steuersignals an eine Komponente einer medizinischen Bildgebungsvorrichtung
EP3352030B1 (de) 2017-01-24 2019-11-20 Siemens Healthcare GmbH Tragbare erweiterungseinheit für die bedienung eines medizintechnischen geräts und verfahren zum betrieb eines medizintechnischen geräts
WO2018187603A1 (en) * 2017-04-05 2018-10-11 Sensus Healthcare, Inc. Radiotherapy mobile and wireless device workflow management system
US10854335B2 (en) * 2017-06-16 2020-12-01 Htc Corporation Computer aided medical method and medical system for medical prediction
EP3486915B1 (de) * 2017-11-17 2023-11-08 Siemens Healthcare GmbH Verfahren zur steuerung des betriebs einer medizintechnikeinrichtung, bediengerät, bediensystem und medizintechnikeinrichtung
DE102018205496A1 (de) * 2018-04-11 2019-10-17 Siemens Healthcare Gmbh Verfahren zur Steuerung des Betriebs einer Medizintechnikeinrichtung, Bediengerät, Bediensystem, Medizintechnikeinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
US11958050B2 (en) * 2018-05-24 2024-04-16 John Collins Fluidic devices for closed cell culture applications under current good manufacturing practice
US11307892B2 (en) * 2018-06-27 2022-04-19 Optum Services (Ireland) Limited Machine-learning for state determination and prediction
US20200013501A1 (en) * 2018-07-09 2020-01-09 General Electric Company Predictive medical equipment maintenance management
US20200075157A1 (en) * 2018-08-29 2020-03-05 Shelley Monheiser Healthcare tracking system to improve service satisfaction, communication, and patient experience
EP3895178A4 (de) * 2018-12-11 2022-09-14 K Health Inc. System und verfahren zur bereitstellung von gesundheitsinformationen
US11488708B2 (en) * 2018-12-19 2022-11-01 Stryker Corporation System for managing patient support apparatuses and clinical rounds
WO2020160326A1 (en) * 2019-01-30 2020-08-06 The Regents Of The University Of Colorado, A Body Corporate Health sticker: a modular adhesive platform monitoring vital signals
US11490835B2 (en) * 2019-03-29 2022-11-08 Stryker Corporation System for managing patient support apparatuses and patient fall risks
US11837361B2 (en) * 2020-02-28 2023-12-05 Aetna Inc. System or method for real-time analysis of remote health data aggregated with vital signs to provide remote assistance

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102008062032A1 (de) * 2008-12-12 2010-07-01 Siemens Aktiengesellschaft Medizinischer Arbeitsplatz und Verfahren zu dessen Betreiben
DE102013219195A1 (de) 2013-09-24 2015-03-26 Siemens Aktiengesellschaft Fernbedienung und Verfahren zur Steuerung eines Gerätes mit zumindest einem Bewegungsfreiheitsgrad
DE102013219194A1 (de) 2013-09-24 2015-03-26 Siemens Aktiengesellschaft Medizinsystem
DE102013219145A1 (de) 2013-09-24 2015-04-09 Siemens Aktiengesellschaft Medizinsystem
DE102017217128A1 (de) 2017-09-26 2019-03-28 Siemens Healthcare Gmbh Erweiterungseinheit für ein mobiles Endgerät

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3958103A1 (de) * 2020-08-18 2022-02-23 Siemens Aktiengesellschaft Adaptive mensch-maschinen-schnittstelle auf basis künstlicher intelligenz
DE102021210499B3 (de) 2021-09-21 2023-02-23 Siemens Healthcare Gmbh Verfahren und Vorrichtung zur Unterdrückung von bei Magnetresonanzaufnahmen emittierten elektrischen und/oder magnetischen Feldern

Also Published As

Publication number Publication date
US11298099B2 (en) 2022-04-12
US20210007701A1 (en) 2021-01-14
CN111954908A (zh) 2020-11-17
WO2019197222A1 (de) 2019-10-17

Similar Documents

Publication Publication Date Title
EP3486915B1 (de) Verfahren zur steuerung des betriebs einer medizintechnikeinrichtung, bediengerät, bediensystem und medizintechnikeinrichtung
DE102018205496A1 (de) Verfahren zur Steuerung des Betriebs einer Medizintechnikeinrichtung, Bediengerät, Bediensystem, Medizintechnikeinrichtung, Computerprogramm und elektronisch lesbarer Datenträger
EP3229161B1 (de) System mit einem mobilen steuerungsgerät und verfahren zum ausgeben eines steuersignals an eine komponente einer medizinischen bildgebungsvorrichtung
DE102011006574B4 (de) Verfahren und System zur Unterstützung des Arbeitsablaufs in einer Operationsumgebung
DE102015206230B4 (de) CT-System und Verfahren zur Positions- und Bereichsbestimmung eines mobilen Bedienelementes zur Steuerung des CT-Systems
DE102012210821A1 (de) Verfahren zu einer Kommunikation zwischen einer Steuereinheit und einem Patienten und/oder einem Bedienpersonal sowie eine medizinische Bildgebungsvorrichtung hierzu
DE102005021604A1 (de) Medizinische Untersuchungs- oder Behandlungseinrichtung, insbesondere Röntgen- oder CT-Einrichtung
DE102013226242A1 (de) Einstellung eines Aufnahmebereichs
DE102017220532B4 (de) Verfahren und Bediensystem zur Steuerung einer Medizintechnikeinrichtung mit einer bewegbaren Komponente
DE102008024837A1 (de) Mit tragbarer visueller Anzeige ausgestattetes Röntgengerät
EP3305232A1 (de) Bedienvorrichtung und bedienverfahren zum bedienen eines medizinischen geräts
DE102009013572A1 (de) Verfahren zur automatischen Positionierung einer Röntgenquelle eines Röntgensystems und Röntgensystem
EP2830526A1 (de) Medizinisches navigationssystem mit drahtlos verbundenem, berührungsempfindlichem bildschirm
DE102014008852A1 (de) Kalibrierung eines Kraftfahrzeug-Eyetrackingsystems
DE102012202990A1 (de) Vorrichtung und Verfahren zum Vermessen und Befunden von Körperteil- und Extremitätenbeweglichkeiten
DE102013219195B4 (de) Fernbedienung und Verfahren zur Steuerung eines Gerätes mit zumindest einem Bewegungsfreiheitsgrad
DE102016107853A1 (de) Operations-Assistenz-System und Verfahren zur Erzeugung von Steuersignalen zur Ansteuerung einer motorisch gesteuerten bewegbaren Roboterkinematik eines derartigen Operations-Assistenz-Systems
DE10200534A1 (de) Verfahren zum kollisionsfreien Bewegen wenigstens zweier gegeneinander bewegbarer Gegenstände
DE102017207805A1 (de) Verfahren zum automatisierten Parken eines Kraftfahrzeugs
DE102012205238B4 (de) Verfahren zur Unterstützung eines Benutzers bei Aufnahme mit symmetrischer Kollimierung und Röntgeneinrichtung
DE102020200959A1 (de) Aufnahme eines Panoramadatensatzes eines Untersuchungsobjektes mittels eines beweglichen medizinischen Röntgengerätes
DE102016217204A1 (de) Verfahren zu einem Planen und/oder Steuern einer medizinischen Bildgebungsuntersuchung mittels eines mobilen Endgeräts
DE102017220529A1 (de) Verfahren zur Bedienung einer Blendeneinrichtung einer Röntgeneinrichtung und Röntgeneinrichtung
EP1733693B1 (de) Medizintechnisches Trackingsystem mit Infrarotdatenübertragung
DE102006046791B4 (de) Verfahren und Medizinisches Diagnose- und/oder Therapiegerät

Legal Events

Date Code Title Description
R012 Request for examination validly filed
R016 Response to examination communication
R081 Change of applicant/patentee

Owner name: SIEMENS HEALTHINEERS AG, DE

Free format text: FORMER OWNER: SIEMENS HEALTHCARE GMBH, MUENCHEN, DE