DE102007019652A1 - Benutzerschnittstelle und Verfahren zum Anzeigen von Informationen bei einem Ultraschallsystem - Google Patents

Benutzerschnittstelle und Verfahren zum Anzeigen von Informationen bei einem Ultraschallsystem Download PDF

Info

Publication number
DE102007019652A1
DE102007019652A1 DE102007019652A DE102007019652A DE102007019652A1 DE 102007019652 A1 DE102007019652 A1 DE 102007019652A1 DE 102007019652 A DE102007019652 A DE 102007019652A DE 102007019652 A DE102007019652 A DE 102007019652A DE 102007019652 A1 DE102007019652 A1 DE 102007019652A1
Authority
DE
Germany
Prior art keywords
image
displayed
text
marker
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
DE102007019652A
Other languages
English (en)
Inventor
Zvi Friedman
Sergei Goldenberg
Peter Lysansky
Gunnar Hansen
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
General Electric Co
Original Assignee
General Electric Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by General Electric Co filed Critical General Electric Co
Publication of DE102007019652A1 publication Critical patent/DE102007019652A1/de
Withdrawn legal-status Critical Current

Links

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/465Displaying means of special interest adapted to display user selection data, e.g. icons or menus
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H30/00ICT specially adapted for the handling or processing of medical images
    • G16H30/40ICT specially adapted for the handling or processing of medical images for processing medical images, e.g. editing
    • YGENERAL TAGGING OF NEW TECHNOLOGICAL DEVELOPMENTS; GENERAL TAGGING OF CROSS-SECTIONAL TECHNOLOGIES SPANNING OVER SEVERAL SECTIONS OF THE IPC; TECHNICAL SUBJECTS COVERED BY FORMER USPC CROSS-REFERENCE ART COLLECTIONS [XRACs] AND DIGESTS
    • Y10TECHNICAL SUBJECTS COVERED BY FORMER USPC
    • Y10TTECHNICAL SUBJECTS COVERED BY FORMER US CLASSIFICATION
    • Y10T428/00Stock material or miscellaneous articles
    • Y10T428/24Structurally defined web or sheet [e.g., overall dimension, etc.]
    • Y10T428/24802Discontinuous or differential coating, impregnation or bond [e.g., artwork, printing, retouched photograph, etc.]

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Public Health (AREA)
  • Medical Informatics (AREA)
  • General Health & Medical Sciences (AREA)
  • Radiology & Medical Imaging (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Surgery (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Biophysics (AREA)
  • Animal Behavior & Ethology (AREA)
  • Pathology (AREA)
  • Physics & Mathematics (AREA)
  • Veterinary Medicine (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Human Computer Interaction (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

Es werden eine Benutzerschnittstelle und ein Verfahren zum Anzeigen von Informationen im Zusammenhang mit einem Ultraschallsystem zur Verfügung gestellt. Gemäß einer Ausführungsform der vorliegenden Erfindung wird ein Verfahren (130) zum automatischen Anzeigen von Informationen im Zuge einer medizinischen Bildverarbeitung zur Verfügung gestellt. Das Verfahren (130) umfasst die Bestimmung (134) einer Ansicht für ein angezeigtes Bild (126), das aus erfassten Abtastdaten generiert wurde, und die Bestimmung (136) eines Textes (124), der im Zusammenhang mit dem Marker (122), der auf dem dargestellten Bild (126) angezeigt wird, auf der Grundlage der festgelegten Bildansicht angezeigt wird. Der Text (124) verweist auf einen Bereich des angezeigten Bildes, der mit dem Marker (122) identifiziert werden soll. Das Verfahren umfasst ferner das automatische Anzeigen (138) des bestimmten Textes (124) auf dem dargestellten Bild (126) in Verbindung mit dem Marker (122).

Description

  • HINTERGRUND DER ERFINDUNG
  • Ausführungsformen der vorliegenden Erfindung beziehen sich im Allgemeinen auf medizinische Bildgebungssysteme und insbesondere auf medizinische Bildgebungssysteme, die mit Funktionen ausgestattet sind, die einen Benutzer bei der Verarbeitung von medizinischen Bilddaten unterstützen.
  • Ultraschallsysteme werden in einer Vielzahl von Anwendungen und von Personen mit unterschiedlichem Kenntnisstand verwendet. In vielen Untersuchungen muss die Person, die das Ultraschallsystem bedient, Dateneingaben durchführen, damit das System die Informationen für die spätere Analyse richtig verarbeiten kann. Zum Beispiel kann es sein, dass ein Benutzer bestimmte Bereiche oder Punkte auf einem Bild auswählen muss, um die Daten für dieses vorliegende Bild verarbeiten zu können. Oft ist es für den Benutzer notwendig, einen Überblick über die verschiedenen Eingaben zu behalten, um sicherzustellen, dass die Auswahl korrekt durchgeführt wird, d. h. dass dies in der richtigen Reihenfolge und/oder so geschieht, dass alle für einen bestimmten Verarbeitungsvorgang notwendigen Eingaben eingespeist werden. Werden die Eingaben durch den Benutzer nicht richtig oder nicht vollständig durchgeführt, kann es bei der nachfolgenden Verarbeitung der Daten zu Fehlern kommen, was zu einer fehlerhaften Analyse und/oder unangemessener Diagnose führen kann.
  • Zusätzlich könnte die Durchführung der notwendigen Dateneingaben durch Informationen erschwert werden, die an Benutzer des Systems geliefert werden. So könnte es beispielsweise für eine bedienende Person schwierig sein, zwei verschiedene Bereiche auf einem angezeigten Bild zu unterscheiden. Das kann zu Fehlern bei den Bedienereingaben führen, zum Beispiel bei der Auswahl der Referenz- oder Identifikationspunkte auf dem Bild, welche von dem System zur Verarbeitung der erfassten Bilddaten herangezogen werden.
  • So müssen sich die Benutzer, die die bekannten Schnittstellen verwenden, oft einen gesonderten Überblick über die Auswahl verschaffen, um eine richtige Verarbeitung zu gewährleisten. Das könnte in Form einer Notierung der Informationen auf einem separaten Notizblatt geschehen, so dass man in Erinnerung behalten kann, welche Informationen eingegeben wurden. Das kann zu Fehlern führen, wenn der Benutzer die bereits eingegebenen Informationen und/oder die Reihenfolge der eingegebenen Informationen falsch erinnert. Zusätzlich könnten diese Benutzerschnittstellen schwierig zu navigieren sein und keine Hinweise auf verschiedene Benutzereingaben liefern. Folglich können diese bekannten Systeme durchgehend zu verlängerten Verarbeitungszeiten und eingeschränkten Arbeitsabläufen oder eingeschränkten Untersuchungen führen.
  • KURZBESCHREIBUNG DER ERFINDUNG
  • In Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung wird ein Verfahren zur automatischen Informationsanzeige während einer medizinischen Bildverarbeitung zur Verfügung gestellt. Das Verfahren umfasst die Bestimmung einer Bildansicht für ein angezeigtes Bild, das aus erfassten Abtastdaten generiert wurde, und die Bestimmung eines Textes, der im Zusammenhang mit einem Marker, der auf dem angezeigten Bild angezeigt wird und auf der festgelegten Bildansicht beruht, angezeigt wird. Der Text verweist auf einen Bereich auf dem angezeigten Bild, welcher mit dem Marker identifiziert werden soll. Das Verfahren umfasst ferner das automatische Anzeigen des festgelegten Textes auf dem angezeigten Bild im Zusammenhang mit dem Marker.
  • In Übereinstimmung mit einer anderen Ausführungsform der vorliegenden Erfindung wird ein Verfahren zur automatischen Anzeige von Statusinformationen während der medizinischen Bildverarbeitung zur Verfügung gestellt. Das Verfahren umfasst die Bestimmung des Status einer laufenden Verarbeitungsoperation, die Bestimmung des Status einer übergreifenden Verarbeitungsoperation und die Lieferung eines Hinweises auf den Status der laufenden Verarbeitungsoperation und der übergreifenden Verarbeitungsoperation auf einem angezeigten Segment-Statusindikator.
  • In Übereinstimmung mit einer weiteren Ausführungsform der vorliegenden Erfindung wird ein medizinisches Bilddisplay zur Verfügung gestellt, welches einen Bildabschnitt einschließt, der ein Bild von einer erfassten medizinischen Bildgebungsabtastung anzeigt, und einen Nicht-Bildabschnitt, der Informationen bezüglich des angezeigten Bildes anzeigt. Der Nicht-Bildabschnitt umfasst einen Statusindikator, der eine Vielzahl von Segmenten aufweist, die auf den Status einer im Zusammenhang mit dem angezeigten Bild durchgeführten Operation hinweisen.
  • In Übereinstimmung mit einer weiteren Ausführungsform der vorliegenden Erfindung wird ein medizinisches Bilddisplay zur Verfügung gestellt, welches einen Bildabschnitt, der ein Bild von einer erfassten medizinischen Bildgebungsabtastung einschließt, und einen Nicht-Bildabschnitt umfasst, der Informationen anzeigt, die mit dem angezeigten Bild im Zusammenhang stehen. Das medizinische Bilddisplay umfasst ferner einen virtuellen Marker und einen dazugehörigen Text, der auf dem Bildabschnitt angezeigt wird. Der dazugehörige Text wird automatisch auf der Grundlage einer festgelegten Bildansicht eines Bildes angezeigt, welches in dem Bildabschnitt dargestellt wird.
  • KURZBESCHREIBUNG DER ZEICHNUNGEN
  • 1 ist ein Blockdiagramm von einem diagnostischen Ultraschallsystem in Übereinstimmung mit einer Ausführungsform der vorliegenden Erfindung.
  • 2 ist ein Blockdiagramm eines Ultraschallprozessormoduls des diagnostischen Ultraschallsystems aus 1, welches gemäß einer Ausführungsform der Erfindung gestaltet ist.
  • 3 illustriert ein Fenster, welches auf dem Display zur Nutzung bei der Verarbeitung der Bildinformationen gemäß einer Ausführungsform der Erfindung gezeigt wird.
  • 4 ist ein Flussdiagramm eines Verfahrens zur Bestimmung eines Textes, der in dem Fenster von 3 gemäß einer Ausführungsform der Erfindung angezeigt werden soll.
  • 5 illustriert ein Bild mitsamt einem Marker und einem dazugehörigen Text, das gemäß einer Ausführungsform der Erfindung auf einem Display angezeigt wird.
  • 6 illustriert ein weiteres Bild mitsamt einem Marker und einem dazugehörigen Text, das gemäß einer Ausführungsform der Erfindung auf dem Display angezeigt wird.
  • 7 illustriert das Fenster aus 3, das auf einem Display angezeigt wird und mit einem Kontrollpanel gemäß einer Ausführungsform der Erfindung ausgestattet ist.
  • 8 illustriert das Kontrollpanel von 7, das auf dem Display gemäß einer Ausführungsform der Erfindung angezeigt wird.
  • 9 illustriert einen Statusindikator in einem Zustand gemäß einer Ausführungsform der Erfindung.
  • 10 illustriert den Statusindikator in einem anderen Zustand gemäß einer Ausführungsform der Erfindung.
  • 11 illustriert den Statusindikator in einem weiteren Zustand gemäß einer Ausführungsform der Erfindung.
  • 12 illustriert den Statusindikator in einem weiteren Zustand gemäß einer Ausführungsform der Erfindung.
  • 13 illustriert den Statusindikator in einem weiteren Zustand gemäß einer Ausführungsform der Erfindung.
  • 14 illustriert den Statusindikator in einem weiteren Zustand gemäß einer Ausführungsform der Erfindung.
  • DETAILLIERTE BESCHREIBUNG DER ERFINDUNG
  • Im Folgenden werden beispielhafte Ausführungsformen von Ultraschallsystemen und -verfahren detailliert beschrieben, die der Erleichterung der Benutzereingaben dienen. Insbesondere wird zunächst eine detaillierte Beschreibung eines beispielhaften Ultraschallsystems geliefert, die dann gefolgt wird von detaillierten Beschreibungen von verschiedenen Ausführungsformen von Verfahren und Systemen zur Lieferung von Informationen auf einem Display, die der Vereinfachung von Benutzereingaben bei der Verarbeitung von erfassten Bilddaten dienen. Ein technischer Effekt der verschiedenen Ausführungsformen der hier beschriebenen Systeme und Verfahren umfasst mindestens die Vereinfachung des Prozesses zur richtigen Eingabe und Auswahl von Informationen unter Verwendung einer Schnittstelle eines Ultraschallsystems.
  • Es soll darauf hingewiesen werden, dass obgleich die verschiedenen Ausführungsformen in Verbindung mit einem Ultraschallsystem beschrieben werden, die hier beschriebenen Verfahren und Systeme nicht auf die Ultraschallbildgebung beschränkt sind. Insbesondere können die verschiedenen Ausführungsformen in Verbindung mit verschiedenen Arten der medizinischen Bildgebung, wozu beispielsweise die Kernspintomographie (MRI) und die Computertomographie (CT) gehören, implementiert werden. Ferner können die verschiedenen Ausführungsformen in anderen nicht-medizinischen Bildgebungssystemen implementiert werden, beispielsweise in nicht-destruktiven Testsystemen.
  • 1 illustriert ein Blockdiagramm eines Ultraschallsystems 20, genauer gesagt eines diagnostischen Ult raschallsystems 20, welches gemäß einer Ausführungsform der vorliegenden Erfindung ausgeführt ist. Das Ultraschallsystem 20 umfasst einen Sender 22, der unter Einsatz eines Wandlers 26 eine Anordnung von Elementen 24 (z. B. piezoelektrische Kristalle) antreibt, so dass gepulste Ultraschallsignale in einen Körper oder ein Volumen ausgesendet werden. Es kann eine Vielzahl von Geometrien eingesetzt werden, und der Wandler 26 kann beispielsweise als Teil von verschiedenen Ultraschallsonden-Typen ausgeführt werden. Die Ultraschallsignale werden von körpereigenen Strukturen, wie z. B. Blutzellen oder Muskelgewebe, zurückgeworfen, so dass Echos entstehen, welche zu den Elementen 24 zurückkehren. Die Echos werden von einem Empfänger 28 aufgenommen. Die empfangenen Echos werden an einen Strahlformer 30 geleitet, welcher die Formung der Strahlen durchführt und ein Messsucher-Signal ausgibt. Das Messsucher-Signal wird dann an den Messsucher-Prozessor 32 geleitet, welcher das Messsucher-Signal verarbeitet. Alternativ kann der Messsucher-Prozessor 32 auch einen komplexen Demodulator (nicht gezeigt) umfassen, welcher das Messsucher-Signal demoduliert, so dass Installationsqualifizierungs-Datenpaare gebildet werden, welche die Echosignale repräsentieren. Die Messsucher- oder Installationsqualifizierungs-Signaldaten können dann direkt an den Datenspeicher 34 zur Speicherung (z. B. zur temporären Speicherung) geleitet werden.
  • Das Ultraschallsystem 20 umfasst ferner ein Prozessormodul 36 zur Verarbeitung der gewonnenen Ultraschallinformationen (z. B. Messsucher-Signaldaten oder Installationsqualifizierungs-Datenpaare) und zur Vorbereitung von Frames von Ultraschallinformationen zur Anzeige auf dem Display 38. Das Prozessormodul 36 wird so angepasst, dass es die erfassten Ultraschallinformationen einer oder mehreren Ver arbeitungsoperationen in Übereinstimmung mit einer Vielzahl von auswählbaren Ultraschallmodalitäten unterziehen kann. Die erfassten Ultraschallinformationen können während einer Abtastsitzung beim Empfang der Echosignale in Echtzeit verarbeitet werden. Zusätzlich oder alternativ kann die Ultraschallinformation während einer Abtastsitzung temporär in einem Datenspeicher 34 gespeichert werden und bei einer Live- oder einer unabhängigen Operation in weniger als Echtzeit verarbeitet werden. Für die Speicherung der verarbeiteten Frames von erfasster Ultraschallinformation, die nicht für die unmittelbare Anzeige vorgesehen sind, ist ein Bilddatenspeicher 40 vorhanden. Der Bilddatenspeicher 40 kann aus einem beliebigen bekannten Datenspeichermedium bestehen, beispielsweise aus einem dauerhaften Speichermedium, einem überspielbaren Speichermedium, etc.
  • Das Prozessormodul 36 ist an eine Benutzerschnittstelle 42 angeschlossen, welche die Funktion des Prozessormoduls 36 kontrolliert, was unten eingehender beschrieben wird, und so konfiguriert ist, dass sie Dateneingaben von einem Bediener aufnehmen kann. Das Display 38 umfasst einen oder mehrere Monitore, welche dem Benutzer die aktuellen Patienteninformationen, zu denen auch diagnostische Ultraschallbilder gehören, zum Zwecke der Begutachtung, der Diagnose und der Analyse automatisch anzeigen. Das Display 38 kann z. B. mehrere Ebenen eines dreidimensionalen (3D) Ultraschall-Datensatzes, welcher im Datenspeicher 34 oder 40 gespeichert ist, automatisch anzeigen. Einer oder beide der Datenspeicher 34 und 40 können 3D-Datensätze von Ultraschalldaten für die Fälle speichern, bei denen auf solche 3D-Datensätze zugegriffen wird, um 2D- und 3D-Bilder anzeigen zu können. Beispielsweise kann ein 3D-Ultraschalldatensatz in den entsprechenden Datenspeicher 34 und 40 wie auch in eine oder mehrere Referenzebenen eingetragen werden. Die Verarbeitung der Daten, welche die Datensätze miteinschließen, gründet sich zum Teil auf Benutzereingaben, z. B. auf durch den Benutzer vorgenommene Auswahlen, die von der Benutzerschnittstelle 42 empfangen werden.
  • Während des Betriebs werden vom System 20 Daten, z. B. volumetrische Datensätze, mit Hilfe von verschiedenen Techniken (z. B. 3D-Abtastung, Echtzeit-3D-Bildgebung, Volumenabtastung, 2D-Abtastung mit Hilfe von Wandlern mit Positionierungssensoren, Freihand-Scanning unter Verwendung einer Voxel-Korrelationstechnik, Abtastung unter Verwendung von 2D- oder Matrixanordnungs-Wandlern etc.) erfasst. Die Daten werden durch die Bewegung des Wandlers 26 beispielsweise entlang eines linearen oder eines bogenförmigen Weges erfasst, während der fragliche Bereich (FB) abgetastet wird. An jeder linearen oder bogenförmigen Position gewinnt der Wandler 26 Abtastebenen, die im Datenspeicher 34 gespeichert werden.
  • 2 illustriert ein beispielhaftes Blockdiagramm eines Ultraschallprozessor-Moduls 36 von 1, welches gemäß einer Ausführungsform der vorliegenden Erfindung gestaltet ist. Das Ultraschallprozessor-Modul 36 wird konzeptionell als eine Ansammlung von Submodulen illustriert, wobei es aber unter Anwendung einer beliebigen Kombination von geeigneten Hardwareplatten, digitalen Signalprozessoren, Prozessoren etc. implementiert werden kann. Alternativ können die Submodule von 2 unter Anwendung eines serienmäßig hergestellten PCs mit einem einzigen Prozessor oder einem Mehrfachprozessor implementiert werden, wobei die funktionalen Operationen auf die Prozessoren verteilt werden. Als weitere Option können die Submodule von 2 unter Anwendung einer Hybridkonfiguration implementiert werden, bei der bestimmte modulare Funktionen unter Verwendung von geeigneter Hardware durchgeführt werden, während die übrigen modularen Funktionen unter Verwendung eines serienmäßig hergestellten PCs o. Ä. durchgeführt werden. Die Submodule können auch als Softwaremodule innerhalb einer Verarbeitungseinheit implementiert werden.
  • Die Funktionen der in 2 illustrierten Submodule können mit Hilfe eines lokalen Ultraschallreglers 50 oder mit Hilfe eines Prozessormoduls 36 reguliert werden. Die Submodule 52-68 führen Mittelprozessor-Operationen durch. Das Ultraschall-Prozessormodul 36 kann Ultraschalldaten 70 in einer von vielen Formen empfangen. In der Ausführungsform von 2 bilden die empfangenen Ultraschalldaten 70 Installationsqualifizierungs-Datenpaare, welche die tatsächlichen und die imaginären Komponenten repräsentieren, die zu jeder Datenprobe gehören. Die Installationsqualifizierungs-Datenpaare werden an eines oder mehrere der folgenden geleitet: ein Farbfluss-Submodul 52, ein Power-Doppler-Submodul 54, ein B-Modus-Submodul 56, ein Spektral-Doppler-Submodul 58 und ein M-Modus-Submodul 60. Optional können weitere Submodule wie unter anderem ein ARFI-Submodul 62 (Acoustic Radiation Force Impulse), ein Farbstoffmodul 64, ein Farbstoffanteil-Submodul 66, ein Gewebe-Doppler(GD)-Submodul 68. Das Farbstoff-Submodul 62, das Farbstoffanteil-Submodul 66 und das GD-Submodul 68 können zusammen einen echokardiographischen Verarbeitungsabschnitt bilden.
  • Jedes der Module 52-68 ist so konfiguriert, dass es Installationsqualifizierungs-Datenpaare in einer entsprechenden Art und Weise verarbeiten kann, so dass Farbfluss- Daten 72, Power-Doppler-Daten 74, B-Modus-Daten 76, Spektral-Doppler-Daten 78, M-Modus-Daten 80, ARFI-Daten 82, echokardiographische Farbstoffdaten 82, echokardiographische Farbanteildaten 86 und Gewebe-Doppler-Daten 88 generiert werden, die alle temporär im Datenspeicher 90 (oder im Datenspeicher 34 oder in dem in 1 gezeigten Bilddatenspeicher 40) gespeichert werden können, bevor sie im Folgenden verarbeitet werden. Beispielsweise können die Daten 72-88 als Sätze von Vektordatenwerten gespeichert werden, wobei jeder Satz einen individuellen Ultraschallbild-Frame bildet. Die Vektordatenwerte werden im Allgemeinen auf der Grundlage eines polaren Koordinatensystems angeordnet.
  • Ein Scanwandler-Submodul 92 greift auf die zu einem Bildframe gehörenden Vektordatenwerte aus dem Datenspeicher 90 zu und wandelt den Satz von Vektordatenwerten in kartesische Koordinaten um, so dass ein für die Anzeige formatiertes Ultraschallbildframe 94 generiert wird. Die Ultraschallbild-Frames 94, die von dem Scanwandler-Modul 92 generiert werden, können zur nachfolgenden Bearbeitung an den Datenspeicher 90 zurückgesendet werden, oder sie können an den Datenspeicher 34 oder den Bilddatenspeicher 40 gesendet werden.
  • Sobald das Scanwandler-Submodul 92 die Ultraschallbild-Frames 94 generiert hat, die z. B. zu den Farbstoffdaten, den Farbstoffanteildaten u. Ä. gehören, können die Bildframes im Datenspeicher 90 wiederhergestellt oder über einen Datenbus 96 an eine Datenbank (nicht gezeigt), den Datenspeicher 34, den Bilddatenspeicher 40 und/oder an andere Prozessoren (nicht gezeigt) übermittelt werden.
  • Zum Beispiel könnte es erwünscht sein, dass verschiedene Arten von Ultraschallbildern, die sich auf echokardiographische Funktionen beziehen, in Echtzeit auf dem Display 38 (in 1 gezeigt) betrachtet werden können. Um das zu ermöglichen, gewinnt das Scanwandler-Submodul 92 Farbstoff- oder Farbstoffanteil-Vektordatensätze für die im Datenspeicher 90 gespeicherten Bilder. Sofern dies notwendig ist, werden die Vektordaten interpoliert und zum Zwecke einer Anzeige im Videoformat in ein X,Y-Format umgewandelt, so dass Ultraschallbild-Frames hervorgebracht werden. Die scanumgewandelten Ultraschallbild-Frames werden an einen Displayregler (nicht gezeigt) geleitet, welcher einen Videoprozessor umfassen kann, der das Video zum Zwecke der Darstellung in Videoformat auf eine Grauskala-Abbildung überträgt. Die Grauskala-Abbildung kann eine Übertragungsfunktion haben, bei der rohe Bilddaten in angezeigten Graustufen dargestellt werden. Sobald die Videodaten auf die Grauskala-Werte übertragen worden sind, reguliert der Displayregler das Display 38, welches einen oder mehrere Displaymonitore oder -fenster umfassen kann, so dass der Bildframe angezeigt wird. Das echokardiographische Bild, welches auf dem Display 38 angezeigt wird, wird aus einem Bildframe von Daten hergestellt, bei dem jeder Bezugspunkt die Intensität oder Helligkeit eines entsprechenden Pixels auf dem Display anzeigt. In diesem Beispiel stellt das Displaybild die Muskelbewegung in einem abgebildeten fraglichen Bereich dar.
  • Unter Bezug auf 2 wird ein 2D-Videoprozessor-Submodul dargestellt, welches ein oder mehrere der Frames, die aus den verschiedenen Arten von Ultraschallinformationen generiert werden, kombiniert. Zum Beispiel kann das 2D-Videoprozessor-Submodul 94 verschiedene Bildframes kombi nieren, indem es zum Zwecke der Videoanzeige einen Typ von Daten in Form einer Grau-Abbildung und den anderen Typ von Daten in Form einer Farb-Abbildung darstellt. In dem angezeigten Endbild werden die Farbpixeldaten auf die Grauskala-Pixeldaten aufgesetzt, so dass sie einen einzigen Multi-Modus Bildframe 98 bilden, der wieder im Datenspeicher 90 rückgespeichert oder über den Datenbus 96 übermittelt wird. Nachfolgende Bildframes können als Filmschleife im Datenspeicher 90 oder im Datenspeicher 40 (in 1 gezeigt) gespeichert werden. Die Filmschleife stellt einen First in/First out-Bild-Ringpuffer zum Aufnehmen von Bilddaten dar, die einem Benutzer in Echtzeit angezeigt werden. Der Benutzer kann die Filmschleife anhalten, indem er über die Benutzerschnittstelle 42 ein Anhaltebefehl eingibt. Die Benutzerschnittstelle 42 kann z. B. eine Tastatur, eine Maus und alle anderen Input-Regler umfassen, die mit der Eingabe von Informationen in ein Ultraschallsystem 20 (in 1 gezeigt) im Zusammenhang stehen.
  • Ein 3D-Prozessor-Submodul 100 wird ebenfalls durch die Benutzerschnittstelle 42 reguliert und greift auf den Datenspeicher 90 zu, um räumlich aufeinander folgende Gruppen von Ultraschallbild-Frames zu erhalten und dreidimensionale Bilddarstellungen von diesen zu generieren, wie z. B. durch die bekannten Volumendarstellungs- oder Oberflächendarstellungs-Algorithmen. Die dreidimensionalen Bilder können unter Verwendung von verschiedenen Bildgebungstechniken generiert werden, wie z. B. Strahlwurf, maximal intensive Pixelprojektion o. Ä.
  • Verschiedene Ausführungsformen der vorliegenden Erfindung verweisen auf einen Bildschirmdisplay, der zur Anwendung durch einen Benutzer dient, wenn dieser z. B. unter Benutzung der Benutzerschnittstelle 42 (in 1 gezeigt) Informationen eingibt oder fragliche Bereiche oder Punkte auswählt. 3 ist ein beispielhaftes Fenster 110 (oder Displaypanel), das auf dem Display 38 (in 1 gezeigt) oder einem Teil davon angezeigt werden und mit Hilfe die Benutzerschnittstelle 42 reguliert werden kann. Der Benutzer kann auf verschiedene zur Benutzerschnittstelle 42 gehörende Eingabemittel wie z. B. eine Maus, eine Steuerkugel, eine Tastatur u. a. zurückgreifen. Das Fenster 110 umfasst im Allgemeinen einen Bildabschnitt 112 und einen Nicht-Bildabschnitt 114, welcher verschiedene Informationen bezüglich des gerade angezeigten Bildes, des Systemstatus etc. liefern kann. Beispielsweise kann der Nicht-Bildabschnitt 112 Zeit- und Datumsangaben 116, eine Bildtyp-Kennzeichnung 118 und einen Statusindikator 120 umfassen. Genauer gesagt kann die Zeit- und Datumsangabe 116 die aktuelle Zeit und das aktuelle Datum angeben oder aber die Zeit und das Datum anzeigen, an dem das Bild, das gerade auf dem Bildabschnitt 112 angezeigt wird, gemacht wurde. Die Bildtyp-Markierung 118 liefert z. B. Hinweise auf die Ansicht des angezeigten Bildes, welches in dem beispielhaften Fenster 110 eine Apex-Längsachsen-Ansicht ist. Der Statusindikator 120 liefert Hinweise auf den Status der aktuellen Systemverarbeitung und der übergreifenden Systemverarbeitung, wie sie unten genauer beschrieben wird.
  • Verschiedene Ausführungsformen umfassen auch einen virtuellen Marker 122 mit einem dazugehörigen Text 124, welcher ebenfalls auf dem Bildabschnitt 112 angezeigt wird. Genauer gesagt wird auf der Grundlage des gerade angezeigten Bildtyps, wie er durch die Bildtyp-Kennzeichnung 118 bezeichnet wird, ein virtueller Marker 122, der in dieser Ausführungsform als ein Kreis mit Fadenkreuz konfiguriert ist, in Verbindung mit dem dazugehörigen Text 124 geliefert, welcher einen zu identifizierenden Bereich auf dem Bild 126 beschreiben kann. Der dazugehörige Text 124 kann auf der Grundlage der Verarbeitungsart, die durchgeführt werden soll, angezeigt werden. Zum Beispiel könnte es sein, dass in den Verarbeitungsoperationen verschiedene Punkte des angezeigten Bildes 126 markiert werden müssen, damit Informationen, die sich auf das Bild 126 beziehen, bestimmt werden können, so dass die Grenze einer im Bild 126 gezeigten Struktur generiert werden kann (z. B. endokardiale Grenze). Genauer gesagt verweist der dazugehörige Text 124 auf den Bereich des Bildes 126, der identifiziert werden soll, z. B. einen Punkt auf dem Bild 126, der von einem Benutzer auszuwählen ist, indem beispielsweise der Marker 122 zu dem Punkt bewegt wird und der Punkt ausgewählt wird, indem die Eingabemittel der Benutzereingabe 42 benutzt werden.
  • So müssen z. B. bestimmte Punkte auf den Bildern 126 in verschiedenen Ansichten in einer bestimmten Reihenfolge identifiziert werden, wenn die endokardiale Grenze unter Anwendung eines beliebigen bekannten Prozesses bestimmt wird. Insbesondere in einer Ausführungsform müssen drei Punkte auf jeder von drei Ansichten identifiziert und ausgewählt werden, um die endokardiale Grenze zu generieren. Diese Punkte müssen in einer bestimmten Reihenfolge ausgewählt werden. Gemäß verschiedener Ausführungsformen der Erfindung verändert sich der dazugehörige Text 124 automatisch je nach dem Punkt, der zu identifiziert und ausgewählt werden soll. Ein beispielhaftes Verfahren 130 zur Bestimmung des dazugehörigen Textes 124 zum Zwecke der Anzeige wird in 4 gezeigt. Das Verfahren 130 umfasst einen Benutzer, der eingangs bei 132 eine Operation auswählt, die vom Ultraschallsystem 20 durchgeführt werden soll, wobei diese Verarbeitung durch das Verarbeitungsmodul 36 durchgeführt werden kann, indem es eines der in 2 gezeigten Submodule verwendet. Entsprechend kann ein Benutzer auf einem Auswahlbildschirm (nicht gezeigt) oder auf einem Fenster 110 beispielsweise in einem Aktionsmenu oder auf einer Feldauswahl (nicht gezeigt) eingeben, dass die durchzuführende Operation aus der Bestimmung der endokardialen Grenze des angezeigten Bildes besteht. Sobald die durchzuführende Operation ausgewählt worden ist und ein Bild 126 angezeigt wird, wird die Bildansicht des Bildes 126, das gerade angezeigt wird, bei 124 identifiziert. Beispielsweise könnte ein Benutzer auf einer Tastatur der Benutzerschnittstelle 42 die Bildansicht eingeben. Dieser Ansichtstyp wird dann von der Bildtyp-Kennzeichnung 118 angezeigt. Es wird darauf hingewiesen, dass auf das anzuzeigende Bild 126 über eine lokale Speichervorrichtung, beispielsweise den Bilddatenspeicher 40 (in 1 gezeigt), zugegriffen werden kann. In einer alternativen Ausführungsform wird die Ansicht automatisch auf der Grundlage des Bildes, auf das von einer lokalen Speichervorrichtung aus zugegriffen wird, identifiziert.
  • Sobald die Bildansicht eingegeben wurde, werden die Punkte, die identifiziert werden sollen und die einem anzuzeigenden Text entsprechen, bei 136 bestimmt. Um mit dem spezifischen Beispiel der Bestimmung der endokardialen Grenze fortzufahren, wird dabei auf eine Tabelle zugegriffen, die die spezifischen Punkte, die auf dem Bild 126 identifiziert und ausgewählt werden sollen, die Reihenfolge der Identifikation und den dazugehörigen Text 124, der mit dem Marker 122 angezeigt werden soll, identifiziert. Eine beispielhafte Tabelle, die unten als Tabelle 1 bezeichnet wird, illustriert die Reihenfolge der Auswahl und den dazugehörigen Text 124, der auf der Grundlage der Bildansicht anzuzeigen ist.
    Figure 00170001
    Tabelle 1
  • Tabelle 1 definiert für jede Bildansicht, die bei 134 ausgewählt wurde, den dazugehörigen Text 124, der mit dem Marker 122 angezeigt werden soll, und die Reihenfolge des Textes 124, nämlich Dazugehöriger Text 1, gefolgt von Dazugehörigem Text 2 und schließlich dazugehörigem Text 3. Es sei darauf hingewiesen, dass der angezeigte Text eine Abkürzung des in Tabelle 1 aufgeführten Textes oder eine Variation davon sein kann. Entsprechend wird bei 138 der dazugehörige Text 124 angezeigt. Beim Betrieb wird beispielsweise bei der Apex-Längsachsen-Ansicht zuerst „posterior" (d. h. Dazugehöriger Text 1) als dazugehöriger Text 124 im Zusammenhang mit dem Marker 122 angezeigt. Sobald der entsprechende Punkt auf dem Bild 126 identifiziert wurde (z. B. durch einen Benutzer mit dem Marker 122 ausgewählt wurde), wird der Dazugehörige Text 2 angezeigt, der wie in 5 gezeigt, ein abgekürzter Text, nämlich „AntSept" sein kann. Sobald der entsprechende Punkt in dem Bildidentifiziert wurde, wird der letzte Text, der Dazugehörige Text 3, angezeigt, und genauer gesagt wird der dazugehörige Text 124 „Apex" in Verbindung mit dem Marker 122 angezeigt, wie in 6 gezeigt. Es sei darauf hingewiesen, dass sobald ein Punkt auf dem Bild 126 markiert wurde, der Marker 122 und/oder der dazugehörige Text 124 an dem identifizierten Punkt ausgeblendet oder weiterhin angezeigt werden können.
  • Sobald alle drei Punkte identifiziert wurden, kann das Verfahren 130 für andere Bildansichten, beispielsweise eine Zweikammer- und eine Vierkammer-Ansicht, wiederholt werden. Bei 140a wird spezifisch bestimmt, ob ein weiteres Bild 126 verarbeitet werden soll. Sofern ein weiteres Bild 126 verarbeitet werden soll, wird das Bild bei 134 identifiziert. Wenn gemäß der Bestimmung bei 140 keine weiteren Bilder verarbeitet werden sollen, wird bei 142 bestimmt, ob eine weitere Operation 142 durchgeführt werden soll. Wenn eine weitere Operation durchgeführt werden soll, wird die Operation bei 132 ausgewählt. Wenn gemäß der Bestimmung bei 142 keine weitere Operation durchgeführt werden soll, kehrt das System bei 144 zum normalen Betrieb zurück.
  • So liefern verschiedene Ausführungsformen unter Verwendung des Markers 122 und des dazugehörigen Textes 124 Anleitungen zur Eingabe von Informationen, die zu einer spezifischen Verarbeitungsoperation gehören. Zum Beispiel kann das Prozessormodul 36 (in 1 gezeigt) durch die Markierung bestimmter Punkte in verschiedenen Bildansichten (z. B. zwei Punkte an der Basis des Herzens und ein Punkt am Apex) automatisch die endokardiale Grenze zwischen dem Herzmuskel und der Herzhöhle unter Verwendung eines beliebigen bekannten Prozesses bestimmen.
  • Es sei darauf hingewiesen, dass das Fenster 110 so konfiguriert sein kann, dass die Bildwände und Segmente bei den verschiedenen Ausführungsformen entsprechend neu gekennzeichnet werden, wenn das angezeigte Bild 126 beispielsweise in der Links-/Rechtsausrichtung umgekehrt wird. Insbesondere kann die obige Tabelle 1 außerdem auch Informationen enthalten, die sich auf eine erwartete Position eines Punktes in Relation zu einem anderen Punkt beziehen, wenn beispielsweise erwartet wird, dass ein Punkt in einer der Ansichten sich links von einem anderen Punkt befindet. Wenn bestimmt wird, dass statt dessen der Punkt rechts vom anderen Punkt ausgewählt wird, was mit Hilfe eine Karte der Pixelelemente, welche in einer beliebigen bekannten Form vorliegen kann, erfolgen kann, werden die Kennzeichnungen für jede der Wände des Herzens und der darin befindlichen Segmente automatisch neu benannt. Wenn eine hintere Wand auf der linken Seite des Bildes 126 und die anteroseptale Wand auf der rechten Seite des Bildes 126 markiert wird, wie es in 3 gezeigt wird, was mit Hilfe der vom Benutzer festgelegten Punkte festgelegt werden kann, werden beim Drehen des Bildes die Kennzeichnungen vertauscht, so dass sich die Kennzeichnung als hintere Wand auf der rechten Seite des Bildes 126 und die Kennzeichnung als anteroseptale Wand auf der linken Seite des Bildes 126 befindet.
  • Die verschiedenen Ausführungsformen sind auch mit einer Visualisierungsfunktion versehen, die beispielsweise bei der Identifikation und Auswahl von Punkten unter Verwendung des Markers 122 eingesetzt werden kann. Insbesondere kann das Fenster 110 ein Kontrollpanel 160 umfassen, wie in 7 gezeigt, welches verschiedene Optionen aufweist, die auf der gerade angezeigten Abtastung oder der gerade durchgeführten Operation beruhen. Das Fenster 110 kann auch einen Menuabschnitt 162 umfassen, welcher es dem Benutzer erlaubt, verschiedene Optionen auszuwählen. Beispielsweise können verschiedene auswählbare Elemente 164, wie z. B. Archiv, Patient, Bildbrowser, etc. vom Benutzer mit einer Maus ausgewählt werden, und danach werden verschiedene Optionen (wie z. B. ein Aktionsmenu) oder verschiedenen Funktionalitäten zur Auswahl gestellt.
  • Das Kontrollpanel 160, das in 7 gezeigt wird und von dem ein Abschnitt in 8 genauer dargestellt wird, umfasst auswählbare Elemente, um eine Visualisierungsfunktion einzuleiten. Insbesondere wird ein auswählbares YOYO-Element 166 zur Auswahl der Visualisierungsfunktion geliefert. Wenn z. B. ein Bild 126 in einer bestimmten Ansicht angezeigt wird, leitet die Aktivierung des auswählbaren YOYO-Elements 166 eine Visualisierungsfunktion ein, bei der auf den Bilddatenspeicher 40 zugegriffen wird und eine kurze Schleife von Bildframes, die vor und nach dem aktuellen Bildframe liegen, z. B. in einer vorwärts und rückwärts laufenden Filmschleife angezeigt wird. Ein Benutzer kann die Anzahl der Frames für die Anzeige auf beiden Seiten des aktuellen Frames (Referenzframe) auswählen, indem er ein auswählbares Referenzframe-Element 168 benutzt. Es sei darauf hingewiesen, dass das Referenzframe vorwärts bewegt oder umgekehrt werden und die Anzahl der Referenzframes, die vor und nach dem Referenzframe aufgenommen werden, erhöht oder reduziert werden kann, indem die auswählbaren Pfeilelemente 170 benutzt werden. Ein auswählbares Abbruch-Element 172 kann aktiviert werden, um die Visualisierungsfunktion abzubrechen, und ein auswählbares Exit-Element 174 kann aktiviert werden, um das Kontrollpanel 160 zu verlassen. Es sei darauf hingewiesen, dass die Anzahl von Frames, die zum Ansehen in der Schleife ausgewählt wird im Allge meinen weniger als ein ganzer Herzzyklus beträgt, z. B. drei Frames vorwärts und rückwärts, fünf Frames vorwärts und rückwärts oder zehn Frames vorwärts und rückwärts. Allerdings werden auch andere Anzahlen von Frames in Betracht gezogen. Auch andere Teilzyklen werden innerhalb einer bestimmten Periode eines Herzaktivitätsereignisses (z. B. 250 Millisekunden nach dem Beginn der Herzkontraktion) in Betracht gezogen, z. B. auf der Grundlage des Prozentanteils des ganzen Herzzyklus (z. B. Bilder, die 30 Prozent des Herzzyklus entsprechen), und zwar indem Standardformeln zum Aufteilen des Herzzyklus in Systolen- und Diastolenframes benutzt werden, die unter anderem auf EKG basieren. In einer Ausführungsform werden die Bilder vorwärts und rückwärts von dem ersten zu dem letzten Bildframe innerhalb der ausgewählten Bildframegruppe angezeigt.
  • Die Visualisierungsfunktion kann bei der Markierung der Punkte im Bild 126 benutzt werden, um z. B. die Grenze zwischen dem angezeigten Herzmuskel und der mit Blut gefüllten angezeigten Höhle auszumachen. Der Marker 122 kann an einen Punkt des Bildes 126 bewegt und ausgewählt werden, während sich das Bild 126 während der Schleife bewegt bzw. an einem Punkt der Schleife oder auf einem statischen Referenzbild angehalten wird.
  • Mit Bezug auf 3 ist der Statusindikator 120 als graphische Indikation des Status einer laufenden Operation oder des Status einer übergreifenden Operation konfiguriert. Die Abtönung der Segmente 180 des Statusindikators liefert einen visuellen Hinweis auf den Status einer Systemverarbeitung. Nimmt man Bezug auf das Beispiel der Bestimmung der endokardialen Grenze durch die Auswahl von drei Punkten in jeder der drei verschiedenen Ansichten, so ist der Statusindikator 120 so konfiguriert, dass zwei gegenüberliegende Segmente 180 einen Hinweis auf den Status der Verarbeitung einer der Bildansichten liefern. Beispielsweise illustrieren die 9 und 10 die Abtönung während der Verarbeitung der Apex-Längsachsen-Bildansicht, 11 und 12 illustrieren die Abtönung während der Zweikammer-Bildansicht und 13 und 14 illustrieren die Abtönung während der Verarbeitung der Vierkammeransicht. Insbesondere wenn eine aktuelle Ansicht verarbeitet werden soll, wird ein Abschnitt der äußeren Kante oder des Randes der Segmente 180 für diese Ansicht hell hervorgehoben. Insbesondere, wenn die zu verarbeitende aktuelle Ansicht die Apex-Längsachsen-Ansicht ist, beinhalten die oberen und unteren Mittelsegmente 180 einen hervorgehobenen äußeren Rand, wie es in 9 gezeigt wird. Wenn die Verarbeitung der Apex-Längsachsen-Bildansicht abgeschlossen ist, wenn z. B. alle drei Punkte wie hier beschrieben ausgewählt wurden, werden die gesamten oberen und unteren Mittelsegmente, wie in 10 gezeigt, abgetönt. Eine ähnliche Abtönungsvorrichtung wird für jede der anderen Bildansichten, wie in 11 bis 14 gezeigt, zur Verfügung gestellt.
  • Es sei darauf hingewiesen, dass bei Abschluss oder beim Start der Bildansichtsverarbeitung die hervorgehobene äußere Kante oder der hervorgehobene Rand einen Hinweis auf die als nächstes zu verarbeitende Bildansicht liefern. Auf diese Weise kann die Hervorhebung der äußeren Kante oder des Randes auf die Bildansicht hinweisen, die von einem Benutzer zur Verarbeitung ausgewählt werden soll. Wenn ferner alle Ansichten verarbeitet worden sind, wird jedes Segment 180 wie in 14 gezeigt abgetönt, und wenn eines der Segmente 180 nicht hervorgehoben wird, ist das ein Hinweis darauf, dass eine oder mehrere Ansichten verarbeitet werden müssen. Alternativ können die Segmente 180 je nach aktuellem Status mit verschiedenen Farben abgetönt werden, z. B. können sie für nicht erfasste und nicht verarbeitete Bildansichten gelb und für erfasste und verarbeitete Bildansichten grün abgetönt werden. Die Bestimmung, wann eine Bildansicht verarbeitet worden ist, kann auf dem Abschluss von verschiedenen Operationen beruhen. Beispielsweise ist eine Bildansicht in einer Ausführungsform verarbeitet, wenn die drei Punkte markiert wurden, die Berechnung abgeschlossen, die Nachverfolgung zugelassen und die Operation bestätigt worden ist. So liefert der Statusindikator 120 eine kontinuierliche und dynamische Indikation für den Status der Verarbeitung und/oder auf die gerade durchgeführten oder noch durchzuführenden Operationen.
  • Verschiedene Ausführungsformen verweisen auf die Anwendung eines Bildschirms für die Verarbeitung von Daten, die von einem medizinischen Bildgebungssystem, z. B. einem Ultraschall-Bildgebungssystem, stammen. Beispielsweise können die Hinweise den Benutzer bei der Dateneingabe und/oder der Auswahl von Bildabschnitten anleiten und Statusinformationen liefern. Zusätzlich kann auch eine Visualisierungsfunktion geliefert werden, um den Benutzer bei der Eingabe von Auswahlen, insbesondere bei der Auswahl von Punkten auf dem Bild, zu unterstützen.
  • Es werden eine Benutzerschnittstelle und ein Verfahren zum Anzeigen von Informationen im Zusammenhang mit einem Ultraschallsystem zur Verfügung gestellt. Gemäß einer Ausführungsform der vorliegenden Erfindung wird ein Verfahren 130 zum automatischen Anzeigen von Informationen im Zuge einer medizinischen Bildverarbeitung zur Verfügung ge stellt. Das Verfahren 130 umfasst die Bestimmung 134 einer Ansicht für ein angezeigtes Bild 126, das aus erfassten Abtastdaten generiert wurde, und die Bestimmung 136 eines Textes 124, der im Zusammenhang mit dem Marker 122, der auf dem dargestellten Bild 126 angezeigt wird, auf der Grundlage der festgelegten Bildansicht angezeigt wird. Der Text 124 verweist auf einen Bereich des angezeigten Bildes, der mit dem Marker 122 identifiziert werden soll. Das Verfahren umfasst ferner das automatische Anzeigen 138 des bestimmten Textes 124 auf dem dargestellten Bild 126 in Verbindung mit dem Marker 122.
  • Obgleich die Erfindung in Bezug auf verschiedene spezifische Ausführungsformen beschrieben wurde, werden auf diesem Gebiet fachkundige Personen erkennen, dass die Erfindung mit Modifikationen in Übereinstimmung mit der Wesensart und innerhalb des Schutzumfanges der Patentansprüche ausgeführt werden kann. BEZUGSZEICHENLISTE
    Figure 00250001
    Figure 00260001
    Figure 00270001

Claims (10)

  1. Verfahren (130) zum automatischen Anzeigen von Informationen während einer medizinischen Bildverarbeitung, wobei das Verfahren umfasst: Bestimmung (134) einer Bildansicht für das angezeigte Bild (126), das aus erfassten Abtastdaten generiert wurde; Bestimmung (136) eines Textes (124), der im Zusammenhang mit einem Marker (122) angezeigt werden soll, welcher auf dem angezeigten Bild (126) dargestellt wird, auf der Grundlage der bestimmten Bildansicht, wobei der Text (124) auf einen Bereich des angezeigten Bildes verweist, der mit dem Marker (122) identifiziert werden soll; und automatisches Anzeigen (138) des bestimmten Textes (124) im Zusammenhang mit dem Marker (122) auf dem angezeigten Bild (126).
  2. Verfahren nach Anspruch 1, dadurch gekennzeichnet, dass die Bestimmung die Festlegung einer Reihenfolge für den angezeigten Text (124) auf der Grundlage der Bildansicht umfasst.
  3. Verfahren nach Anspruch 1, ferner umfassend die automatische Veränderung des angezeigten Textes nach der Identifizierung eines Bereiches auf dem angezeigten Bild.
  4. Verfahren nach Anspruch 1 ferner die Verbindung des Textes (124) mit dem Marker (122) umfassend, so dass der Text (124) sich mit dem Marker (122) bewegt.
  5. Verfahren nach Anspruch 1, ferner die Lieferung eines Textes (124) umfassend, der auf der Grundlage der ausgewählten Bereiche auf Abschnitte des Bildes (126) verweist.
  6. Medizinisches Bilddisplay (110) umfassend: einen Bildabschnitt (112), auf welchem ein Bild (126) von einer erfassten medizinischen Bildgebungsabtastung angezeigt wird; und einen Nicht-Bildabschnitt (114), auf welchem Informationen bezüglich des angezeigten Bildes angezeigt werden, wobei der Nicht-Bildabschnitt einen Statusindikator (120) umfasst, der mit einer Vielzahl von Segmenten (180) ausgestattet ist, die auf den Status einer im Zusammenhang mit dem angezeigten Bild durchgeführten Operation verweisen.
  7. Medizinisches Bilddisplay (110) nach Anspruch 6, dadurch gekennzeichnet, dass der Statusindikator (120) eine Vielzahl von Segmenten (180) umfasst, die so konfiguriert sind, dass sie je nach Verarbeitungsstatus automatisch abgetönt oder hell hervorgehoben werden.
  8. Medizinisches Bilddisplay (110) nach Anspruch 6, dadurch gekennzeichnet, dass der Nicht-Bildabschnitt (114) Kennzeichnungen umfasst, welche Abschnitte des angezeigten Bildes identifizieren, wobei die Kennzeichnungen vertauscht werden, wenn die Bildansicht des angezeigten Bildes (126) vertauscht wird.
  9. Medizinisches Bilddisplay (110) umfassend: einen Bildabschnitt (112), auf welchem ein Bild aus einer erfassten medizinischen Bildgebungsabtastung angezeigt wird; einen Nicht-Bildabschnitt (114), auf dem Informationen angezeigt werden, die sich auf das dargestellte Bild beziehen; und einen virtuellen Marker (122) und dazugehörigen Text (124), die auf dem Bildabschnitt (112) angezeigt werden, wobei der dazugehörige Text (124) auf der Grundlage einer bestimmten Bildansicht eines Bildes (126), das auf dem Bildabschnitt (112) dargestellt wird, automatisch angezeigt wird, wobei der Text (124) auf einen Bereich des angezeigten Bildes (126) verweist, der mit dem Marker (122) zu identifizieren ist.
  10. Medizinisches Bilddisplay (112) nach Anspruch 9, dadurch gekennzeichnet, dass eine Reihenfolge für das Anzeigen des Textes auf der Grundlage der bestimmten Bildansicht festgelegt wird.
DE102007019652A 2006-05-05 2007-04-26 Benutzerschnittstelle und Verfahren zum Anzeigen von Informationen bei einem Ultraschallsystem Withdrawn DE102007019652A1 (de)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US11/418,778 US20070259158A1 (en) 2006-05-05 2006-05-05 User interface and method for displaying information in an ultrasound system
US11/418,778 2006-05-05

Publications (1)

Publication Number Publication Date
DE102007019652A1 true DE102007019652A1 (de) 2007-11-08

Family

ID=38565064

Family Applications (1)

Application Number Title Priority Date Filing Date
DE102007019652A Withdrawn DE102007019652A1 (de) 2006-05-05 2007-04-26 Benutzerschnittstelle und Verfahren zum Anzeigen von Informationen bei einem Ultraschallsystem

Country Status (4)

Country Link
US (1) US20070259158A1 (de)
JP (1) JP2007296334A (de)
CN (1) CN101066210B (de)
DE (1) DE102007019652A1 (de)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009036414A1 (de) * 2009-08-06 2011-02-17 Erbe Elektromedizin Gmbh Versorgungseinrichtung für mindestens ein medizinisches Instrument und Verfahren zur Konfiguration einer entsprechenden Versorgungseinrichtung
EP2669830A1 (de) * 2012-06-01 2013-12-04 Kabushiki Kaisha Toshiba, Inc. Herstellung und Anzeige abgeleiteter Serien medizinischer Bilder

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5616232B2 (ja) * 2007-12-17 2014-10-29 コーニンクレッカ フィリップス エヌ ヴェ 弾性イメージングにおけるひずみ利得補償の方法およびシステム
US8600133B2 (en) * 2008-10-01 2013-12-03 Koninklijke Philips N.V. Selection of snapshots of a medical image sequence
EP2382600A1 (de) * 2008-12-23 2011-11-02 Koninklijke Philips Electronics N.V. System zum überwachen von medizinischen abnormitäten und betriebsverfahren dafür
US20100250367A1 (en) * 2009-03-31 2010-09-30 Microsoft Corporation Relevancy of virtual markers
JP5421756B2 (ja) * 2009-12-11 2014-02-19 富士フイルム株式会社 画像表示装置および方法並びにプログラム
CN102194037B (zh) * 2010-03-03 2014-08-20 深圳市理邦精密仪器股份有限公司 超声波诊断仪及该诊断仪显示用户界面公共区的控制方法
US20110320515A1 (en) * 2010-06-25 2011-12-29 Zahiruddin Mohammed Medical Imaging System
CN102542145A (zh) * 2010-12-31 2012-07-04 上海西门子医疗器械有限公司 一种实时的指导方法和装置
CN102542598B (zh) * 2011-12-20 2014-05-21 浙江工业大学 一种面向医学体数据的局部特征加强体绘制方法
US10076313B2 (en) 2012-12-06 2018-09-18 White Eagle Sonic Technologies, Inc. System and method for automatically adjusting beams to scan an object in a body
US9983905B2 (en) 2012-12-06 2018-05-29 White Eagle Sonic Technologies, Inc. Apparatus and system for real-time execution of ultrasound system actions
US9529080B2 (en) 2012-12-06 2016-12-27 White Eagle Sonic Technologies, Inc. System and apparatus having an application programming interface for flexible control of execution ultrasound actions
US10499884B2 (en) 2012-12-06 2019-12-10 White Eagle Sonic Technologies, Inc. System and method for scanning for a second object within a first object using an adaptive scheduler
US9530398B2 (en) 2012-12-06 2016-12-27 White Eagle Sonic Technologies, Inc. Method for adaptively scheduling ultrasound system actions
US20150086959A1 (en) * 2013-09-26 2015-03-26 Richard Hoppmann Ultrasound Loop Control
CN104765558A (zh) * 2015-03-24 2015-07-08 苏州佳世达电通有限公司 超音波装置及其控制方法
CN107835661B (zh) * 2015-08-05 2021-03-23 深圳迈瑞生物医疗电子股份有限公司 超声图像处理***和方法及其装置、超声诊断装置
US20170055952A1 (en) * 2015-08-27 2017-03-02 Ultrasonix Medical Imager touch panel with worksheet and control regions for concurrent assessment documenting and imager control
KR102519424B1 (ko) * 2015-09-25 2023-04-10 삼성메디슨 주식회사 초음파 이미지 디스플레이 방법 및 이를 위한 장치
US20170307755A1 (en) 2016-04-20 2017-10-26 YoR Labs Method and System for Determining Signal Direction
CN105957469A (zh) * 2016-04-27 2016-09-21 南京巨鲨显示科技有限公司 一种具有图像冻结功能的显示***及方法
US10499882B2 (en) 2016-07-01 2019-12-10 yoR Labs, Inc. Methods and systems for ultrasound imaging
CN109688938B (zh) 2016-09-12 2021-09-03 富士胶片株式会社 超声波诊断***及超声波诊断***的控制方法
EP3530193A1 (de) 2018-02-26 2019-08-28 Koninklijke Philips N.V. Bereitstellung eines dreidimensionalen ultraschallbildes
US11607200B2 (en) * 2019-08-13 2023-03-21 GE Precision Healthcare LLC Methods and system for camera-aided ultrasound scan setup and control
US11712224B2 (en) * 2019-10-11 2023-08-01 GE Precision Healthcare LLC Method and systems for context awareness enabled ultrasound scanning
US11998391B1 (en) 2020-04-02 2024-06-04 yoR Labs, Inc. Method and apparatus for composition of ultrasound images with integration of “thick-slice” 3-dimensional ultrasound imaging zone(s) and 2-dimensional ultrasound zone(s) utilizing a multi-zone, multi-frequency ultrasound image reconstruction scheme with sub-zone blending
US11547386B1 (en) 2020-04-02 2023-01-10 yoR Labs, Inc. Method and apparatus for multi-zone, multi-frequency ultrasound image reconstruction with sub-zone blending
JP7438038B2 (ja) * 2020-06-25 2024-02-26 富士フイルムヘルスケア株式会社 超音波診断装置及び診断支援方法
US11344281B2 (en) 2020-08-25 2022-05-31 yoR Labs, Inc. Ultrasound visual protocols
US11832991B2 (en) 2020-08-25 2023-12-05 yoR Labs, Inc. Automatic ultrasound feature detection
JP7102480B2 (ja) * 2020-09-29 2022-07-19 ジーイー・プレシジョン・ヘルスケア・エルエルシー 超音波画像表示装置及びその制御プログラム
US11704142B2 (en) 2020-11-19 2023-07-18 yoR Labs, Inc. Computer application with built in training capability
US11751850B2 (en) 2020-11-19 2023-09-12 yoR Labs, Inc. Ultrasound unified contrast and time gain compensation control

Family Cites Families (37)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5454371A (en) * 1993-11-29 1995-10-03 London Health Association Method and system for constructing and displaying three-dimensional images
WO1995015521A2 (en) * 1993-11-29 1995-06-08 Perception, Inc. Pc based ultrasound device with virtual control user interface
US5842473A (en) * 1993-11-29 1998-12-01 Life Imaging Systems Three-dimensional imaging system
JPH07323024A (ja) * 1994-06-01 1995-12-12 Konica Corp 画像診断支援装置
US6468212B1 (en) * 1997-04-19 2002-10-22 Adalberto Vara User control interface for an ultrasound processor
US6490474B1 (en) * 1997-08-01 2002-12-03 Cardiac Pathways Corporation System and method for electrode localization using ultrasound
US6032120A (en) * 1997-12-16 2000-02-29 Acuson Corporation Accessing stored ultrasound images and other digital medical images
US6674879B1 (en) * 1998-03-30 2004-01-06 Echovision, Inc. Echocardiography workstation
US6116244A (en) * 1998-06-02 2000-09-12 Acuson Corporation Ultrasonic system and method for three-dimensional imaging with opacity control
JP4476400B2 (ja) * 1999-11-12 2010-06-09 株式会社東芝 超音波診断装置
US20030013959A1 (en) * 1999-08-20 2003-01-16 Sorin Grunwald User interface for handheld imaging devices
US20020173721A1 (en) * 1999-08-20 2002-11-21 Novasonics, Inc. User interface for handheld imaging devices
US6740039B1 (en) * 1999-08-20 2004-05-25 Koninklijke Philips Electronics N.V. Methods and apparatus for displaying information relating to delivery and activation of a therapeutic agent using ultrasound energy
US20010051881A1 (en) * 1999-12-22 2001-12-13 Aaron G. Filler System, method and article of manufacture for managing a medical services network
US7379885B1 (en) * 2000-03-10 2008-05-27 David S. Zakim System and method for obtaining, processing and evaluating patient information for diagnosing disease and selecting treatment
US6561980B1 (en) * 2000-05-23 2003-05-13 Alpha Intervention Technology, Inc Automatic segmentation of prostate, rectum and urethra in ultrasound imaging
US6980682B1 (en) * 2000-11-22 2005-12-27 Ge Medical Systems Group, Llc Method and apparatus for extracting a left ventricular endocardium from MR cardiac images
US6675038B2 (en) * 2001-05-14 2004-01-06 U-Systems, Inc. Method and system for recording probe position during breast ultrasound scan
US7853312B2 (en) * 2001-06-07 2010-12-14 Varian Medical Systems, Inc. Seed localization system for use in an ultrasound system and method of using the same
US6673018B2 (en) * 2001-08-31 2004-01-06 Ge Medical Systems Global Technology Company Llc Ultrasonic monitoring system and method
US7155043B2 (en) * 2001-11-21 2006-12-26 Confirma, Incorporated User interface having analysis status indicators
US7289652B2 (en) * 2001-11-21 2007-10-30 Koninklijke Philips Electronics, N. V. Medical viewing system and method for detecting and enhancing structures in noisy images
US7020844B2 (en) * 2001-11-21 2006-03-28 General Electric Company Method and apparatus for managing workflow in prescribing and processing medical images
US20040077952A1 (en) * 2002-10-21 2004-04-22 Rafter Patrick G. System and method for improved diagnostic image displays
US6991605B2 (en) * 2002-12-18 2006-01-31 Siemens Medical Solutions Usa, Inc. Three-dimensional pictograms for use with medical images
US20040167800A1 (en) * 2003-02-26 2004-08-26 Duke University Methods and systems for searching, displaying, and managing medical teaching cases in a medical teaching case database
CN100507928C (zh) * 2003-03-11 2009-07-01 美国西门子医疗解决公司 用于确保医学图像中计算机标记的人工审查的计算机辅助检测***和方法
US20040267122A1 (en) * 2003-06-27 2004-12-30 Desikachari Nadadur Medical image user interface
US20060210544A1 (en) * 2003-06-27 2006-09-21 Renomedix Institute, Inc. Internally administered therapeutic agents for cranial nerve diseases comprising mesenchymal cells as an active ingredient
US20080021297A1 (en) * 2004-02-10 2008-01-24 Koninklijke Philips Electronic, N.V. Method,a System for Generating a Spatial Roadmap for an Interventional Device and Quality Control System for Guarding the Spatial Accuracy Thereof
US20060004291A1 (en) * 2004-06-22 2006-01-05 Andreas Heimdal Methods and apparatus for visualization of quantitative data on a model
WO2006038182A1 (en) * 2004-10-08 2006-04-13 Koninklijke Philips Electronics N.V. Ultrasonic imaging system with body marker annotations
US20060242143A1 (en) * 2005-02-17 2006-10-26 Esham Matthew P System for processing medical image representative data from multiple clinical imaging devices
US7751874B2 (en) * 2005-04-25 2010-07-06 Charles Olson Display for ECG diagnostics
US8303505B2 (en) * 2005-12-02 2012-11-06 Abbott Cardiovascular Systems Inc. Methods and apparatuses for image guided medical procedures
US20070160275A1 (en) * 2006-01-11 2007-07-12 Shashidhar Sathyanarayana Medical image retrieval
US8911147B2 (en) * 2007-06-15 2014-12-16 Fluke Corporation System and method for analyzing a thermal image using configurable markers

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102009036414A1 (de) * 2009-08-06 2011-02-17 Erbe Elektromedizin Gmbh Versorgungseinrichtung für mindestens ein medizinisches Instrument und Verfahren zur Konfiguration einer entsprechenden Versorgungseinrichtung
DE102009036414B4 (de) * 2009-08-06 2017-11-02 Erbe Elektromedizin Gmbh Versorgungseinrichtung für mindestens ein medizinisches Instrument und Verfahren zur Konfiguration einer entsprechenden Versorgungseinrichtung
EP2669830A1 (de) * 2012-06-01 2013-12-04 Kabushiki Kaisha Toshiba, Inc. Herstellung und Anzeige abgeleiteter Serien medizinischer Bilder
CN103455703A (zh) * 2012-06-01 2013-12-18 株式会社东芝 计算机***、医用图像诊断装置以及图像显示方法
CN103455703B (zh) * 2012-06-01 2019-11-01 东芝医疗***株式会社 计算机***、医用图像诊断装置以及图像显示方法

Also Published As

Publication number Publication date
CN101066210A (zh) 2007-11-07
JP2007296334A (ja) 2007-11-15
CN101066210B (zh) 2012-11-28
US20070259158A1 (en) 2007-11-08

Similar Documents

Publication Publication Date Title
DE102007019652A1 (de) Benutzerschnittstelle und Verfahren zum Anzeigen von Informationen bei einem Ultraschallsystem
DE102007021515A1 (de) Benutzerschnittstelle und Verfahren zum Identifizieren von in Beziehung stehenden Daten, die in einem Ultraschallsystem auf einem Display angezeigt werden
DE102018218751A1 (de) Machinengestützter arbeitsablauf bei der ultraschallbildgebung
DE102018216296A1 (de) Bestimmung des Messpunktes in der medizinischen diagnostischen Bildgebung
DE102007015527B4 (de) Querverweis-Messung für die diagnostische medizinische Bildgebung
DE69831138T2 (de) System zur darstellung eines zweidimensionalen ultraschallbildes in einer dreidimensionalen bildbetrachtungsumgebung
DE102009026110A1 (de) Vorrichtung und Verfahren zur Darstellung eines Ultraschallmesskopfes relativ zu einem Objekt
DE102010015973A1 (de) System und Verfahren zur funktionellen Ultraschallbildgebung
DE102007019859A1 (de) Benutzerschnittstelle für Ultraschallsystem mit automatischer Mehrfachebenenbildung
DE102010015937A1 (de) System und Verfahren zur Anzeige von Ultraschallbewegungsverfolgungsinformationen
DE102007020862A1 (de) Benutzerschnittstelle und Verfahren zum Anzeigen von Informationen in einem Ultraschallsystem
EP1609421A1 (de) Verfahren und Vorrichtung zum Definieren eines Protokolls für ein Ultraschallgerät
US7433504B2 (en) User interactive method for indicating a region of interest
DE102011001819A1 (de) Verfahren und System zur Bestimmung eines interessierenden Bereichs in Ultraschalldaten
DE112006002162T5 (de) Verfahren und System zur Kartierung von pysiologischen Informationen auf anatomische Strukturen, welche auf Ultraschall beruhen
DE102016105690A1 (de) Dreidimensionales Volumen von Interesse für die Ultraschall-Bildgebung
DE102005037806A1 (de) Verfahren und Vorrichtung zur Vergrösserung des Sichtfelds bei der Ultraschallbildgebung
DE112004000607T5 (de) Verfahren und Vorrichtung für eine wissensbasierte diagnostische Bildgebung
DE102013106705A1 (de) Diagnosesystem und Verfahren zur Gewinnung eines Ultraschalleinzelbildes
DE102008037453A1 (de) Verfahren und System zur Visualisierung von registrierten Bildern
DE102005025835A1 (de) Verfahren und Vorrichtung zur Nebeneinanderdarstellung von Inversmodus-Ultraschallbildern und Histogrammen
DE202004021722U1 (de) Vorrichtung zum Gewinnen eines Volumenscans eines sich periodisch bewegenden Objekts
DE102016104263A1 (de) Kontinuierlich ausgerichtete verbesserte Ultraschallbildgebung eines Teilvolumens
DE102007020314A1 (de) Verfahren und Vorrichtung zur Messung eines Flusses durch eine Herzklappe
DE102007057884A1 (de) Speicherung von Bildgebungsparametern

Legal Events

Date Code Title Description
8181 Inventor (new situation)

Inventor name: HANSEN, GUNNAR, HORTEN, NO

Inventor name: GOLDENBERG, SERGEI, KIRYAT-ATA, IL

Inventor name: FRIEDMAN, ZVI, KIRYAT BIALIK, IL

Inventor name: LYSANSKY, PETER, HAIFA, IL

R012 Request for examination validly filed
R082 Change of representative

Representative=s name: RUEGER ] ABEL PATENT- UND RECHTSANWAELTE, DE

Representative=s name: RUEGER ABEL PATENT- UND RECHTSANWAELTE, DE

Representative=s name: RUEGER, BARTHELT & ABEL PATENTANWAELTE, DE

R012 Request for examination validly filed

Effective date: 20140307

R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee
R119 Application deemed withdrawn, or ip right lapsed, due to non-payment of renewal fee

Effective date: 20141101