CN108735290B - 医疗成像设备和用于支持使用医疗成像设备的人的方法 - Google Patents

医疗成像设备和用于支持使用医疗成像设备的人的方法 Download PDF

Info

Publication number
CN108735290B
CN108735290B CN201810348562.3A CN201810348562A CN108735290B CN 108735290 B CN108735290 B CN 108735290B CN 201810348562 A CN201810348562 A CN 201810348562A CN 108735290 B CN108735290 B CN 108735290B
Authority
CN
China
Prior art keywords
medical imaging
user
imaging device
aid
smart glasses
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201810348562.3A
Other languages
English (en)
Other versions
CN108735290A (zh
Inventor
H.施魏策尔
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens Healthcare GmbH
Original Assignee
Siemens Healthcare GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens Healthcare GmbH filed Critical Siemens Healthcare GmbH
Publication of CN108735290A publication Critical patent/CN108735290A/zh
Application granted granted Critical
Publication of CN108735290B publication Critical patent/CN108735290B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/462Displaying means of special interest characterised by constructional features of the display
    • GPHYSICS
    • G16INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR SPECIFIC APPLICATION FIELDS
    • G16HHEALTHCARE INFORMATICS, i.e. INFORMATION AND COMMUNICATION TECHNOLOGY [ICT] SPECIALLY ADAPTED FOR THE HANDLING OR PROCESSING OF MEDICAL OR HEALTHCARE DATA
    • G16H40/00ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices
    • G16H40/60ICT specially adapted for the management or administration of healthcare resources or facilities; ICT specially adapted for the management or operation of medical equipment or devices for the operation of medical equipment or devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/04Positioning of patients; Tiltable beds or the like
    • A61B6/0492Positioning of patients; Tiltable beds or the like using markers or indicia for aiding patient positioning
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/08Auxiliary means for directing the radiation beam to a particular spot, e.g. using light beams
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/464Displaying means of special interest involving a plurality of displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/465Displaying means of special interest adapted to display user selection data, e.g. graphical user interface, icons or menus
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/461Displaying means of special interest
    • A61B6/466Displaying means of special interest adapted to display 3D data
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/46Arrangements for interfacing with the operator or the patient
    • A61B6/467Arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/54Control of apparatus or devices for radiation diagnosis
    • A61B6/548Remote control of the apparatus or devices
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B6/00Apparatus or devices for radiation diagnosis; Apparatus or devices for radiation diagnosis combined with radiation therapy equipment
    • A61B6/58Testing, adjusting or calibrating thereof
    • A61B6/589Setting distance between source unit and patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • A61B90/98Identification means for patients or instruments, e.g. tags using electromagnetic means, e.g. transponders
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61FFILTERS IMPLANTABLE INTO BLOOD VESSELS; PROSTHESES; DEVICES PROVIDING PATENCY TO, OR PREVENTING COLLAPSING OF, TUBULAR STRUCTURES OF THE BODY, e.g. STENTS; ORTHOPAEDIC, NURSING OR CONTRACEPTIVE DEVICES; FOMENTATION; TREATMENT OR PROTECTION OF EYES OR EARS; BANDAGES, DRESSINGS OR ABSORBENT PADS; FIRST-AID KITS
    • A61F9/00Methods or devices for treatment of the eyes; Devices for putting-in contact lenses; Devices to correct squinting; Apparatus to guide the blind; Protective devices for the eyes, carried on the body or in the hand
    • A61F9/02Goggles
    • A61F9/029Additional functions or features, e.g. protection for other parts of the face such as ears, nose or mouth; Screen wipers or cleaning devices
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/017Head mounted
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04812Interaction techniques based on cursor appearance or behaviour, e.g. being affected by the presence of displayed objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04815Interaction with a metaphor-based environment or interaction object displayed as three-dimensional, e.g. changing the user viewpoint with respect to the environment or object
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0487Interaction techniques based on graphical user interfaces [GUI] using specific features provided by the input device, e.g. functions controlled by the rotation of a mouse with dual sensing arrangements, or of the nature of the input device, e.g. tap gestures based on pressure sensed by a digitiser
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00203Electrical control of surgical instruments with speech control or speech recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00207Electrical control of surgical instruments with hand gesture control or hand gesture recognition
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00212Electrical control of surgical instruments using remote controls
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00017Electrical control of surgical instruments
    • A61B2017/00216Electrical control of surgical instruments with eye tracking or head position tracking control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00477Coupling
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B17/00Surgical instruments, devices or methods, e.g. tourniquets
    • A61B2017/00831Material properties
    • A61B2017/00876Material properties magnetic
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/10Computer-aided planning, simulation or modelling of surgical operations
    • A61B2034/107Visualisation of planned trajectories or target regions
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B34/00Computer-aided surgery; Manipulators or robots specially adapted for use in surgery
    • A61B34/25User interfaces for surgical systems
    • A61B2034/254User interfaces for surgical systems being adapted depending on the stage of the surgical procedure
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/08Accessories or related features not otherwise provided for
    • A61B2090/0813Accessories designed for easy sterilising, i.e. re-usable
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/361Image-producing devices, e.g. surgical cameras
    • A61B2090/3616Magnifying glass
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B2090/364Correlation of different images or relation of image positions in respect to the body
    • A61B2090/365Correlation of different images or relation of image positions in respect to the body augmented reality, i.e. correlating a live optical image with another image
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/36Image-producing devices or illumination devices not otherwise provided for
    • A61B90/37Surgical systems with images on a monitor during operation
    • A61B2090/372Details of monitor hardware
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/50Supports for surgical instruments, e.g. articulated arms
    • A61B2090/502Headgear, e.g. helmet, spectacles
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B2560/00Constructional details of operational features of apparatus; Accessories for medical measuring apparatus
    • A61B2560/04Constructional details of apparatus
    • A61B2560/0487Special user inputs or interfaces
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B90/00Instruments, implements or accessories specially adapted for surgery or diagnosis and not covered by any of the groups A61B1/00 - A61B50/00, e.g. for luxation treatment or for protecting wound edges
    • A61B90/90Identification means for patients or instruments, e.g. tags
    • A61B90/94Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text
    • A61B90/96Identification means for patients or instruments, e.g. tags coded with symbols, e.g. text using barcodes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2203/00Indexing scheme relating to G06F3/00 - G06F3/048
    • G06F2203/01Indexing scheme relating to G06F3/01
    • G06F2203/012Walk-in-place systems for allowing a user to walk in a virtual environment while constraining him to a given position in the physical environment
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/016Input arrangements with force or tactile feedback as computer generated output to the user
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0484Interaction techniques based on graphical user interfaces [GUI] for the control of specific functions or operations, e.g. selecting or manipulating an object, an image or a displayed text element, setting a parameter value or selecting a range
    • G06F3/04847Interaction techniques to control parameter settings, e.g. interaction with sliders or dials
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/24Indexing scheme for image data processing or generation, in general involving graphical user interfaces [GUIs]

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Medical Informatics (AREA)
  • Physics & Mathematics (AREA)
  • Surgery (AREA)
  • Biomedical Technology (AREA)
  • General Health & Medical Sciences (AREA)
  • Public Health (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Veterinary Medicine (AREA)
  • Human Computer Interaction (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Molecular Biology (AREA)
  • Theoretical Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Pathology (AREA)
  • Optics & Photonics (AREA)
  • Biophysics (AREA)
  • High Energy & Nuclear Physics (AREA)
  • Radiology & Medical Imaging (AREA)
  • General Physics & Mathematics (AREA)
  • Otolaryngology (AREA)
  • Robotics (AREA)
  • Vascular Medicine (AREA)
  • Ophthalmology & Optometry (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Hardware Design (AREA)
  • Business, Economics & Management (AREA)
  • General Business, Economics & Management (AREA)
  • Epidemiology (AREA)
  • Primary Health Care (AREA)
  • Electromagnetism (AREA)
  • User Interface Of Digital Computer (AREA)
  • Apparatus For Radiation Diagnosis (AREA)
  • Computer Vision & Pattern Recognition (AREA)

Abstract

一种医疗成像设备(1),其中用户界面设备用于显示关于成像过程的信息给用户和/或接收关于成像过程的用户输入,和至少一个部件,其可根据使用用户界面设备输入的用户指令控制,其中用户界面设备包括至少一副混合现实智能眼镜(6)。

Description

医疗成像设备和用于支持使用医疗成像设备的人的方法
技术领域
本发明涉及一种医疗成像设备,包括用户界面设备,用于显示关于成像过程的信息到用户和/或接收关于成像过程的用户输入,和至少一个部件,其可依照使用用户界面设备输入的用户指令来控制。本发明还涉及用于在成像过程和/或在使用这样的医疗成像设备的影像监视作用下的外科手术介入期间支撑人的方法。
背景技术
当前的医疗成像设备提供大量功能且由此大量复杂操作元件。例如,成像过程的具体实施方式且由此成像参数根据成像区域和诊断目标而大大地改变。尽管已普遍的成像过程有时已经操作起来困难,如果医疗成像设备被用于无菌环境(例如在外科手术介入期间)中,这个问题变得更严峻。例如,具有c形臂和用于c形臂的可移动载体的医疗成像设备通常被用作介入性形态。在这样的环境中,操作器件必须被提供,其一方面允许复杂功能的符合人体工学的使用,另一方面满足无菌操作的需求。
在这方面,已提出使用无菌透明箔、片或帘子覆盖用户界面设备的操作元件,其应该无菌地操作。这个措施是必须的,因为由于它们包括电子部件例如显示器,通常提供的操作意见不适于杀菌,特别是蒸汽杀菌。因此,它们不满足关于卫生和无菌的要求。使用无菌覆盖物的缺点在于当准备外科手术或成像过程时,由于覆盖箔(其操纵起来很复杂)必须围绕相关的操作元件缠绕,操作的人体工学的减少和需要附加的耗时步骤。
应注意的是在已知的医疗成像设备中的用户界面设备的操作元件往往被提供在设备上的多个不同位置处。例如X射线成像设备可包括在X射线探测器的壳体处的按钮和用于控制额外功能的触摸屏幕,该触摸屏幕位于独立的显示单元或显示推车上。当前技术的另外的缺点由此在于相对于医疗成像设备在某一位置处工作的用户可能不能使用所有功能和操作选项。关于具有c形臂的医疗成像设备,可能地接近于c形臂的用户位置在不移动的情况下不允许使用关于c形臂的所有功能。附加地,常常需要在无菌环境中工作的用户可能必须离开无菌区域以操作这些功能。另一问题在于一些显示器没有被适当地放置以使用户可看到成像过程的当前状态相关的所有信息。
现今的医疗成像设备的主要问题是,总的来说,无菌的需求减少人体工学,用户界面设备的操作元件在医疗成像设备的部件之上散布,且当被需要时信息不总是可接近的。
发明内容
本发明的目的是提供一种医疗成像设备和一种支持方法,其允许被改进的医疗成像设备的直观操作,同时满足关于无菌的需求。
这个目标通过依照权利要求1中的医疗成像设备和依照权利要求18中的方法而实现。本发明的优选实施例被描述在从属权利要求中。
一种发明医疗成像设备,包括用户界面设备,用于显示关于成像过程的信息给用户和/或接收关于成像过程的用户输入,和至少一个部件,可依照使用用户界面设备输入的用户指令来控制,还具有至少一副混合现实智能眼镜作为用户界面设备的一部分。
该混合现实智能眼镜被配置为显示成像过程相关信息的至少一部分和/或接收成像过程相关用户输入的至少一部分。这样的混合现实智能眼镜在本领域中已经被提出,且也可称为增强现实智能眼镜。这样的智能眼镜例如可在商标“HoloLens”(微软公司)或“MetaVision”下购得。这些设备通常覆盖用户的眼睛穿戴。增强现实通过投影附加计算机产生信息进入用户的视野而被提供。这副智能眼镜可包括多个传感器,特别是3D-和/或RGB摄像机,和/或至少一个移动传感器(其用于追踪戴着智能眼镜的头部)。此外,它还包括用于每个眼睛的投影单元,提供立体视图,控制设备和/或扬声器/麦克风。智能眼镜的控制单元可被配置为映射增强现实对象到特别感知的环境几何且使用投影单元显示视角正确且立体的图形元素(增强现实对象)。控制单元还可被配置为检测且识别由用户执行的操作手势。应注意的是控制单元或控制单元的至少一部分还可位于智能眼镜外部,例如计算机设备内。这对于传感器也是可能的。例如,惯例的智能眼镜的“由内而外”追踪可由外部追踪设备(“由外而内”追踪)来支持或替换,例如通过使用智能眼镜上的外部可追踪标记。这可提高追踪的精确度。
还已经提出为使得多于一个用户穿戴这样的智能眼镜。这些副智能眼镜可直接地或间接地通讯,允许匹配为每个用户产生的增强现实。由此,所有用户可看到相同的目标/图形元素,其适应于他们各自的视点。
本发明的目的在于使用这样的一副智能眼镜从医疗成像设备的操作和通知用户方面来改进成像过程。操作元件(其可能难以或甚至不可能杀菌)可被省略,因为它们可由投影入用户的视野的与它们的目的和功能相关的位置处的虚拟操作元素替代。这样的虚拟操作元素完全不需要被杀菌,且可例如被修改以适合个人用户的需要。工作流程可被改进,因为在某些情况下需要的所有操作元素可被放置在用户附近。成像过程的整体工作流程被改进。
这也适用于作为图形元素的信息的呈现,也就是信息元素,特别是具有某些空间关系的信息,例如成像几何体,辐射曝光等。信息可贴近或甚至在它涉及的部件上被显示,以使直观理解被促进。
本发明的应用的优选领域是x射线成像设备,使得在优选实施例中,医疗成像设备是,特别是可移动x射线设备,特别被配置为用于过程内影像。其中部件的至少一个是或构成影像组件(至少包括x射线源和x射线探测器,且特别还包括c形臂)。这样的可移动设备操作复杂,因为存在许多自由度,特别是关于成像几何。某些部件(优选至少x射线源和探测器,优选还有c形臂)可移动以限定成像过程的成像几何。在这个场景中,用户的命令可限定这些部件的移动。当然,本发明还可被应用于固定c形臂。尽管本说明书中提及的大部分具体实施例可涉及x射线医疗成像设备,本发明还可应用于其他医疗成像方式,例如超声波或磁共振成像。
应注意的是用户指令可特别包括选择限定成像过程的某一成像参数,特别涉及成像几何的成像参数,如在下文中进一步描述的。
优选地,该智能眼镜被配置为投影关于成像过程的至少一个信息元素进入穿戴智能眼镜的用户的视野。特别地,如果信息元素涉及某一部件或空间位置,它可接近于或在该部件/位置上显示。由此,信息可直观地显示在它的环境中。
在一个具体实施例中,至少一个信息元素中的至少一个包括成像设备的观察区域,被显示在它的实际位置处。在x射线设备中,观察区域可包括辐射区域;在这种情况下,优选地,在锥形束或扇形束几何的情况下,该信息元素或额外的信息元素还包括中心束。
显示观察区域作为信息元素是可能的,因为限定观察区域的医疗成像设备的部件可通过多不同方式被定位,允许获得关于医疗成像设备的观察区域的位置的信息。如果医疗成像设备的控制设备保持相关部件的位置的追踪,相应的坐标系可被对齐到智能眼镜的坐标系,使得观察区域的位置由智能眼镜中的投影单元和控制单元得知。然而,也可或附加地可能使用智能眼镜的传感器定位医疗成像设备的部件,特别是光传感器比如摄像机,如下文进一步地描述。
在本发明的特别有利的实施例中,智能眼镜被配置为投影至少一个互动的虚拟操作元素到穿戴智能眼镜的用户的视野,其中智能眼镜的控制单元被配置为从用户与虚拟操作元素的互动(如由智能眼镜的至少一个传感器检测到的)获得至少一个用户指令。投影入用户的视野中的智能眼镜的图像元素由此包括互动的虚拟操作元素,如上所述,同时智能眼镜的传感器可检测用户与虚拟操作元素的互动。这些互动可被分析,例如使用本领域中已知的手势检测算法,以使用户指令可被得到。在简单实施例中,虚拟操作元素可包括按钮,其中互动可为虚拟操作元素的推动/按下。如果这样的手势从相应的传感器数据检测到,与推动虚拟操作元素的按钮相关联的用户指令被检测到且被实施。
信息元素和虚拟操作元素也可被结合,例如以信息元素是或包括虚拟操作元素这样的方式。在实施例中,可例如与信息元素互动,例如中心束,使用信息元素作为虚拟操作元素,提供直观方式来操作医疗成像设备。
如已被描述的,虚拟操作元素和/或信息元素可被显示在医疗成像设备的至少一个部件相关的预限定几何中。智能眼镜的控制单元可为此被配置为基于智能眼镜传感器的传感器数据识别和定位部件,例如通过使用模式识别算法和/或其他成像过程算法。为了帮助这个对传感器数据的评估或作为替代,医疗成像设备还可包括被附接到这些部件的视觉标记和/或条形码。在另一实施例中,附加地,或替代地,关于部件的定位信息可通过追踪这些部件的医疗成像设备的控制设备提供,其中坐标系(在该坐标系中部件被追踪)和智能眼镜的坐标系被对齐。
在具体实施例中,如果医疗成像设备是具有c形臂的X射线设备,c形臂可在传感器数据中被容易地检测到,特别是3D摄像机的传感器数据,通过使用模式识别技术。为了支持c形臂和x射线源以及被安装到c形臂的x射线探测器的识别和定位,该c形臂和/或其他部件,特别x射线源和/或x射线探测器,可被提供有视觉标记和/或条形码,例如QR码。一旦射线源和x射线探测器的位置是已知的,当前观察区域可被计算出且被投射入智能眼镜的用户视野内作为信息元素。例如,在扇形束几何体中,辐射场可被显示为x射线源和x射线探测器之间的棱锥的截头锥形。优选地,中心束也是可见的,例如作为一条线。即使这些信息元素不是互动的,该显示是有利地,因为通常无形的x射线使用虚拟投影变得可见。c形臂相对于病人的定位被促进,使得例如定位激光器等可被省略。
医疗成像设备的观察区域的基于几何的模型可通过增加附加信息而被增强,例如直接辐射和散射辐射的区域和/或辐射强度,以使这些附加信息也可被提供到用户。例如,表示医疗成像设备的观察区域的棱锥的截头锥形可使用颜色梯度投射入用户的视野以显示辐射强度。在实施例中,散射辐射的区域可被显示,其对于用户避免不必要的辐射暴露是有利的。还可根据由用户设置的辐射剂量着色信息元素。在这个点处应注意,当然,当计算观察区域时,影响观察区域的光学元件的成像参数(例如准直度和/或光圈)可被考虑。
在x射线设备的实施例中,其他可能的信息元素可被考虑。例如,信息元素可被投射/覆盖在c形臂上和/或其他部件上,例如用于x射线源的冷却装置的部件,例如x射线源的当前温度,其与长时间辐射相关。例如,保持用于x射线源的冷却介质的槽可根据温度被着色,以使温暖或热的槽可呈现为红色。
在具有c形臂的x射线设备的实施例中,存在优选实施例,其中信息元素也被使用为互动的虚拟操作元素。例如,中心束可被使用为虚拟操作元素,以使通过抓住中心束且移动,特别是旋转中心束,用户可输入用户指令,导致c形臂的移动以建立新选择的中心束的位置和/或方向。当使用中心束作为虚拟手柄,该中心束可通过旋转c形臂和/或在水平面中运动c形臂和/或垂直地下降或上升c形臂而被重新定位。替代地或附加地,观察区域还可通过使用指示手势(例如指向新的关注区域和/或指向可被使用为选择的中心束方向的方向)而被调整。c形臂的新位置被计算出,使得这些方向匹配和/或关注区域被包含在医疗成像设备的新的观察区域中。
在这样的实施例中,它还可能通过与作为虚拟操作元素的信息元素的互动控制光学元件的成像参数。例如,辐射准直度或光圈孔径可使用两个指部手势被控制,其中指部之间的距离可限定准直度或光圈孔径。
当然,它还可能增加额外的互动虚拟操作元素到信息元素。例如,另外的虚拟选择按钮可被投影入视野作为视野的一部分信息元素或另外图形元素。通过虚拟地推动这些选择按钮,用户可例如禁止某一运动轴或选择的特殊运动类型,其通过与作为另一虚拟操作元素的中心束互动产生。例如,c形臂的等中心轨道旋转或沿病人检查床的线性横向运动可被选择。
在本发明的一个特别优选实施例中,用户界面还包括至少一个操作辅助器件,其具有至少一个显示表面,其中控制单元被配置为识别和定位显示表面且投射至少一个虚拟操作元素中的至少一个以显示在显示表面上,用于穿戴智能眼镜的用户。已发现许多用户难以与仅虚拟显示而没有被绑定到任何物理部件或目标的操作元素互动。由此,建议使用操作辅助器件,其具有显示表面,且可被用作与虚拟操作元素相关联的物理对象,提供实际可触的但虚拟的操作元素。通常地,多个互动虚拟操作元素将被投射以显示在这样的显示表面上,特别与信息元素结合。
当然,应注意的是虚拟操作元素还可为或包括信息元素,也可投射纯信息元素到用户的视野,使得它们显示在显示表面上。例如,当前选择的辐射剂量可被显示为接近于允许增加或减少剂量的虚拟操作元素的信息元素。
此外,考虑操作辅助器件的使用,控制单元可优选被配置为依照人的观察角度计算虚拟操作元素相应透视图,如本领域已知的。
操作辅助器件可被提供为不同几何形式和变式,且优选为板,其可例如由(蒸汽)可杀菌塑料,陶瓷,玻璃或诸如此类制造。这样的板还可被称为无源投射板,因为实现操作元素的有源电子器件可被省略。操作辅助器件将在大部分情况下至少关于显示表面是白色的,但是也可为不同的颜色,其配入成像或手术环境。优选地,操作辅助器件具有可杀菌的表面,特别由塑料制造。由此,操作辅助器件可在没有与有问题的电子器件互动的情况下被杀菌,其中特别地蒸汽杀菌被设想。
然而,应注意的还有一次性的解决方案可被想到,但不那么优选。在这样的实施例中,操作辅助器件将被应用在无菌包装中且在成像过程之后由用户抛弃。
还优选地,操作辅助器件具有至少一个固定器件,特别是磁性固定器件和/或被配置为与磁性过程器件互动的固定器件和/或医疗成像设备的标准化固定器件,用于可逆地固定操作辅助器件到医疗成像设备的其他部件。在实施例中,操作辅助器件可例如具有磁性后部,以使它可在不必使用工具的情况下固定到适当的磁性或金属表面。替代地或附加地,操作辅助器件可包括通用接口,其被用于将操作辅助器件安装到特别用在外科手术中的已建立的标准化固定器件,例如病人检查床的外科扶手(附件扶手)。在其他实施例中,还可能使用包括操作辅助器件的固定器件的定做器件,和医疗成像设备的部件的相配固定器件,操作辅助器件被安装到该相配固定器件。
在优选实施例中,用于将操作辅助器件在至少一个使用位置和至少一个存储位置之间移动的再***件可被提供。该再***件可特别为枢转器件,以使当不被需要时操作辅助器件可简单地摇摆入存储位置。
在优选实施例中,多个虚拟操作元素,特别与信息元素结合,可被投影入显示表面以创造图形用户界面的错觉。一般而言,当虚拟操作元素可包括按钮和滑块时,这些在这样的虚拟用户界面中是特别有用的。例如,如果板被使用为操作辅助器件,这样的虚拟图形用户界面可充当虚拟触摸屏。
在许多情况下,有利的是使用多个操作辅助器件以显示虚拟操作元素和可能的信息元素在相应的显示表面上。特别在这样的实施例中,优选地,操作辅助器件包括至少一个标记和/或条形码,其包含操作辅助器件的识别信息或与其相关。控制单元可由此识别操作辅助器件且特别操作辅助器件的性能,例如,显示表面的尺寸,诸如此类。该控制单元还可被配置为依照识别的信息和/或操作辅助器件的性能(例如显示表面的尺寸)选择被投影到显示表面上的内容。标记和/或条形码,例如QR码,还允许操作辅助器件在不同情况下的明确检测。视觉标记和/或条形码还可促进操作辅助器件的立体定位的检测。特别,当多于一个操作辅助器件被同时使用时,携带识别信息的条形码或其他标记也可被使用。被投影到显示表面上的内容,特别是虚拟图形用户界面,可根据操作辅助器件的类型和/或操作辅助器件的其他性能被选择出。
在实施例中,当使用不同操作辅助器件时,全部器件可具有不用组的操作元素被投影到它们的显示表面,特别是不同的虚拟图形用户界面。如果例如被使用为操作辅助器件的两个板具有不同的尺寸显示表面,较大显示表面可被使用为投影完整的虚拟图形用户界面,而简化的图形用户界面被投影到较小的显示表面。
在特别有利的实施例中,操作辅助器件具有至少一个触觉表面结构(tactilesurface structure),对应于被显示在表面结构的位置处的虚拟操作元素。这样的触觉表面结构可包括突出物,凹处,呈波状和/或诸如此类。特别在设计图形用户界面,该图形用户截面要被以某些操作元素总是被显示在预定格栅位置处的方式被投影到显示表面上的情况下,有利但是在虚拟操作元素被显示的位置处具有触觉表面结构。这允许用户“感觉到”操作元素,提供更直观的操作。
优选地,操作辅助器件和/或部件(操作辅助器件被安装到该部件)包括至少一个压力开关,以指示至少局部按下和/或电容传感器,检测至少与操作辅助器件的局部互动,其中用户指令被分为安全相关指令和其他指令,且用户界面设备被配置为,在压力开关和/或电容开关指示压下操作辅助器件和/或与操作辅助器件的互动的情况下,仅仅解释对应于安全相关指令的与投影到显示表面上的虚拟操作元素的互动为相应的用户指令。在本发明的这个有利延伸中,可至少在安全相关供要***作的情况下,测得虚拟操作元素的促动。用于这样的安全相关用户指令的示例包括医疗成像设备的部件的那些相关运动,比如c形臂的运动。另外的压力开关可由此可被包括到操作辅助器件中或操作辅助器件的附接到医疗影像***的部件的区域中。当用户机械地推动操作辅助器件时,该压力开关产生附加的硬件信号以检测互动。仅在检测到的互动和硬件信号两者充当确认信号都存在的情况下,相关功能/用户指令被接收。以这样的方式,本发明还允许保险/安全相关的操作功能。作为压力开关的替代,同样地电容传感器的使用是可想到的,其检测与用户互动时电场中的变化。
当然,也可能用户界面设备包括确认辅助器件,例如手柄开关或脚踏开关的形式,产生进入安全相关指令所需的确认信号。这个确认辅助器件还可被使用在没有操作辅助器件出现的实施例中。如果例如虚拟操作元素(如辐射场的中心束)被使用,互动(例如随着其产生部件(例如c形臂,确认辅助器件例如脚踏开关或手操作开关)的运动)可能必须被额外地促动以允许安全相关用户指令,或换句话说医疗成像设备的相应部件的运动解锁。
手操作开关确认辅助器件可为例如可杀菌的或无菌包裹圆筒,其具有至少一个按钮。依照本发明的确认辅助器件优选与其它部件(例如智能眼镜的控制单元)无线线讯。
关于操作辅助器件,在操作辅助器件可被安装何处方面,许多可能性存在。例如,操作辅助器件可被安装在病人检查床上或探测器的壳体上,显示推车的后面上。投影辅助器件也可被安装到影像房或外科手术室的壁或天花板,例如使用适当的安装件或保持器。天花板安装操作辅助器件可被用于主要地或仅仅显示信息元素。
在实施例中,本发明还允许帮助用户操作没有绑定到物理、有形对象的虚拟操作元素,例如上述中心束。附加地,在这个实施例中,本发明可帮助更复杂用户指令的输入,比如符号。为了实现这个,在本发明的优选实施例中,用户界面设备还包括至少一个互动辅助器件,以由用户携带且被用于与虚拟操作元素互动。这个互动辅助器件可例如包括与至少一个显示表面有关的无源无菌笔,以帮助与操作元素的特定互动,例如画图互动。这样的笔不需要具有任何电子部件或诸如此类,且仅仅被用于帮助用户输入,其中互动辅助器件优选可通过智能眼镜的传感器容易地检测。互动辅助器件还可包括棒或其他方向限定辅助器件。例如,细长的互动做辅助器件可被使用为一般手柄和/或方向限定辅助器件。在中心束作为虚拟操作元素的上述实施例中,细长的互动辅助器件可允许虚拟投影的抓持触觉和方向的清晰定义。
该互动辅助器件还可充当确认辅助器件,在这种情况下包括至少一个确认开关以产生进入安全相关指令,如用户指令,所需的确认信号。例如,细长的互动辅助器件可具有在圆柱形体部的一个端部处的按钮激活确认开关。关于操作辅助器件的压力开关/电容传感器的任何评述也被应用在这里。
在优选实施例中,操作辅助器件和/或互动辅助器件包括触觉反馈器件,其基于用户输入产生反馈信号,特别是用户指令。这样的触觉反馈器件还可被提供在确认辅助器件中。触觉反馈器件优选与用户界面设备或医疗成像设备的控制设备大体无线通讯。触觉反馈器件允许检测到的用户指令的确认和/或用户指令的执行的确认。例如,触觉反馈器件(其有利地不危害相应辅助器件的杀菌)可振动以确认用户指令或执行。与不同用户指令和/或检测状态相关的多个不同触觉信号可被使用。
优选地,所有上述辅助器件也是可杀菌的,特别蒸汽杀菌。
在本发明的大体可适用的有利实施例中,智能眼镜可包括保持器件,用于至少一个视觉相关外科手术或成像附件。由此打算提供一种混合现实智能眼镜,其具有用于某些附件的保持器件,其在成像或执行外科手术时常被使用。保持器件可例如包括安装支架,和/或可被安装到或临近于智能眼镜的面罩。
优选地,保持器件被配置为用于可移除地接收至少一个附件和/或包括至少一个***件(其用于将附件在用户观察区域的和/或影响用户的视野的至少一个使用位置和非使用位置之间移动)。在可移除地安装附件的情况下,优选地,保持器件包括快扣件,例如磁性快扣件。***件优选包括枢转器件和/或电机,该电机用于自动地移动附件,特别响应使用用户界面设备的用户输入,例如手势。如果安装支架被使用为保持器件,它可为例如铰接,以使得透明平面可按需被添加在用户的视野中。尽管可手动地促动相应的***件和/或保持器件,***件还可包括促动单元,例如电机,以允许附件的自动定位。自动定位可优选通过由智能眼镜的传感器检测到的用户指令发动。
在实施例中,多于一个附件被固定到保持器件。促动***件于是可从用户的视野或影响它的位置移除附件和/或更换附件。
在特别优选实施例中,如果智能眼镜具有控制单元,其被配置为投影图形元素,特别是虚拟操作元素和/或信息元素进入穿戴智能眼镜的用户的视野,该智能眼镜可包括至少一个传感器,其被配置为测量描述附件的存在和/或附件的位置和/或类型的传感器数据,其中控制单元被配置为根据附件传感器数据控制图形元素的显示。使用的传感器也可为被用于检测用户与虚拟操作元素的互动的传感器,或可包括另外的传感器。如果附件被安装、且在用户视野内和/或影响用户视野,它可由此被检查到。智能眼镜的控制可于是相对于附件的当前情形调整。例如,在简单的实施例中,如果附件(例如包括放大镜)出现在用户视野中,图形元素的投射可被失效。在优选实施例中,附件可包括存储元件,特别RFID或NFC标签,被配置为由传感器读出,获得附件传感器数据。另外的附件信息,例如包括附件的类型,可被存储在存储元件中。使用这样的存储元件,关于附件的另外的信息可被获得。图形元素的投射可关于图形元素的内容和位置而针对附件调整。例如,关于附件的另外的操作元素可被添加和/或由附件遮蔽的图形元素可被运动到不同位置。
至少一个附件可为放大附件,该附件包括至少一个放大镜,过滤附件,头灯,防护附件,特别用于x射线保护和/或防御白内障,防溅保护和/或激光防护,诸如此类。
附件需要的电能可通过保持器件从智能眼镜的电池供应和/或从智能眼镜外部接口供应,例如微型USB接口。如果智能眼镜具有电接口,例如微型USB接口或感应充电接口,和/或能量源,特别电池,保持器件(在***件具有电机的情况下)和/或附件(如果它需要能量)可使用这些功能单元被供应电能。然而,也可能附件自身具有能量源。
应注意的是已知附件的至少一个功能元素还可被一体形成入智能眼镜,例如一体形成入面罩。例如,智能眼镜可包括在面罩上的x射线防护涂层或面罩中的x射线防护材料。
用于在成像过程和/或影像监督下的外科手术介入期间支持人的方法包括使用依照本发明的医疗成像设备的至少一副混合现实智能眼镜。智能眼镜被用于显示关于成像过程的信息给用户和/或接收关于成像过程的用户输入。关于成像设备的所有特征和评述也应用于依照本发明的方法。
附图说明
本发明的进一步细节和优点可参考附图在下列优选实施例的描述中指出,其中
图1示出了依照本发明的医疗成像设备的部件的原理图示,
图2是一副智能眼镜的第一视图,
图3是智能眼镜的第二视图,
图4示出了操作辅助器件,具有图形元素被投影其上,
图5是显示推车的第一视图,
图6是显示推车的第二视图,
图7示出了被安装到病人检查床的操作辅助器件,
图8示出了移动影像采集单元,
图9是x射线探测器的视图,
图10示出了移动采集单元和它的当前观察区域,
图11示出了作为虚拟操作元素的投影中心束,
图12是通过手势解释方向选择的图,
图13是使用手势解释光圈控制的图,以及
图14示出了关于观察区域的其它虚拟操作元素。
具体实施方式
图1是示出了依照本发明的医疗成像设备1的主要部件的原理图示。成像设备1包括成像装置2。该成像装置2进而包括影像采集单元3(作为成像组件)和病人检查床4。医疗成像设备1的另一主要部件包括显示推车5,其是可移动的且多个显示器被安装在其上。显示推车5是用户界面设备的一部分,用于显示信息和接收关于成像过程的用户输入。用户界面设备还包括至少一副混合现实智能眼镜6,可选确认辅助器件7,可选互动辅助器件8和多个操作辅助器件9,其为板或牌的形式,安装到医疗成像设备的各种部件,如下文进一步描述的。医疗成像设备1通过分布式的控制设备10控制,该控制设备10还包括用于智能眼镜6的控制单元11,其可至少部分地集成入智能眼镜6。
混合现实智能眼镜6可为任何已知类型,例如“微软公司”的“全息透镜(HoloLens)”。智能眼镜6在这种情况下包括用于双眼的投影单元30,用于获得关于环境,智能眼镜的用户,用于追踪目标和/或其它信息的智能眼镜的运动的传感器数据的传感器12,和可选声学设备13,其包括扬声器和麦克风。传感器12通常包括至少一个3D摄像机。
控制单元11被配置为映射增强现实对象,在这种情况下为包括信息元素和互动虚拟操作元素的图形元素,到使用传感器测量环境几何,以使增强现实对象可通过投影单元30被精确地投影且使用恰当的视角。控制单元11还评估传感器12的传感器数据以检测用户与虚拟操作元素和/或其他手势(其能够被解释为用户指令)的互动。由于这样的智能眼镜大体上是本领域已知的,它们将不进一步地描述。
图2示出了智能眼镜6的透视图。智能眼镜6包括面罩14,用户通过该面罩可看到他的视野中的环境,且其也被使用为用于投影单元30的投影表面。智能眼镜6还包括保持器件15,其为安装支架的形式,并保持附件16。附件16(其在这种情况下可为放大附件,过滤附件和/或防护附件)使用磁性快扣件可移除地安装到保持器件15。***件17帮助枢转保持器件15,允许附件16摇摆出用户的视野,如图3中所示。
***件17可包括电机18,允许附件16自动地枢转出用户的视野和进入用户的视野。这个自动运动可通过评估传感器12的传感器数据在检测到用户指令,特别是手势和/或声音指令之后被实现。
应注意的是智能眼镜6可附加地或替代地包括另外的保持器件,例如用于作为附件的头灯的保持器件。
该智能眼镜6包括至少一个传感器,其能获得附件16的位置和/或类型的信息,其可为传感器12或另外的传感器中的一个。使用这样的传感器,附件传感器数据可被测量且评估以获得关于附件16的位置和/或类型的附件信息。附件16可包括存储元件20,例如RFID标签,被存储在其中的附件信息可通过传感器读出。
根据附件信息,控制单元11可控制图形元素的投影,例如提供由附件覆盖的观察领域的区域中无效图形元素或提供不同的信息元素和/或附件16的相关虚拟操作元素和/或适用于附件16的相关虚拟操作元素。
在此实施例中,医疗成像装置1是x射线成像装置。面罩14包括x射线防护材料。
图1中已示出的操作辅助器件9也与智能眼镜6结合使用。图4示出了板形状操作辅助器件9,其具有显示表面21,也在图4中示出的图形元素使用智能眼镜6的投影单元30被投影在该显示表面21上。操作辅助器件9还包括至少一个条形码22,在这种情况下为QR码,作为光学标记。这些光学标记用于使用智能眼镜6的传感器12识别操作辅助器件9,在这个过程中获得关于显示表面21的尺寸和定位的更多信息。光学标记/条形码允许使用传感器12精确地测量光学辅助器件9的位置和定向。操作辅助器件9由白色的可灭菌材料制造,比如塑料,陶瓷,金属和/或玻璃,且可包括在显示表面21的区域中的表面结构,操作元素使用智能眼镜6投影而出现在显示表面21处。这些表面结构不示出在图4中。
反而,包括信息元素24和互动虚拟操作元素25以及它们的组合的虚拟图形用户界面23被示出。形成虚拟图形用户界面23的图形元素24,25通过智能眼镜6被投影入用户的视野,使得它们出现在显示表面21上,该操作元素25在空间上符合于上述表面结构。用户与操作元素25的互动可由传感器检测到,且用户指令可被得到。
图4还示出了互动辅助器件8,其为与操作辅助器件相关联的塑料或金属笔26的形式。互动辅助器件(笔26)可被用于绘制复杂的符号,且由此允许与虚拟操作元素25的更复杂的手势/互动。
操作辅助器件9具有至少一个固定器件27,28,其中在此实施例中,该固定器件27是磁性固定器件,帮助安装操作辅助器件9到磁性表面,该固定器件28是标准的通用固定器件,用于可逆地固定操作辅助器件9到医疗成像设备1的其他部件,例如病人检查床4的附件扶手。
操作辅助器件还可包括再***件29,允许操作辅助器件在至少一个使用位置和至少一个存储位置之间运动。这将在下文中进一步描述。
如参考图1已被描述的,多个操作辅助器件9可由于条形码22(其允许操作辅助器件9的识别)被使用。由此,控制设备10或特别控制单元11自动地选择适当的被投影的图形元素以出现在相应的显示表面21上。
图5和图6示出了被安装到显示推车5的操作辅助器件9,其在这种情况下具有两个显示器31。投影辅助器件9使用再***件29安装且由此在图5和图6中被示出在两个不同的使用位置中。
图7示出了安装操作辅助器件9到病人检查床4的附件扶手32。
图8示出了操作辅助器件9被安装到影像采集单元3,其在这种情况下包括c形臂33。x射线探测器34和x射线源35被安装到c形臂33的相对端部。操作辅助器件9在这种情况下被安装到支撑c形臂33的支撑单元。
图9示出了更小的操作辅助器件,其被安装到x射线探测器34。
应注意的是如果通过硬件引起的确认信号被附加地接收,安全相关用户指令也可使用投影虚拟操作元素25被接收。为了这个目的,操作辅助器件9或部件(操作辅助器件9被安装到该部件)可包括压力开关(和/或电容传感器),如示出在图9中的实例。如果虚拟操作元素25和由此操作辅助器件9中的一个被推动,压力开关36产生确认信号。安全相关用户指令仅仅在与相应虚拟操作元素25的相关互动由传感器12检测到且确认信号两者都出现的情况下认为被接收到。
如果,作为实例在下文中描述,互动操作元素25在没有相关的有形物理目标的情况下被使用,确认信号也可使用确认辅助器件7(如图1中所示,其可为手动开关或脚踏开关)产生。互动辅助器件8也可包括确认开关37,如图1中所示,能够发送确认信号。在这个点处也应注意,操作辅助器件9,确认辅助器件7和互动辅助器件8可每个包括触觉反馈器件38以给出反馈到用户,例如通过振动相应辅助器件确认用户指令的检测和/或执行。
图10再次示出了影像采集单元3,其包括c形臂,该c形臂具有x射线探测器34和x射线源35。智能眼镜6的传感器12的传感器数据可使用图案识别算法(pattern recognitionalgorithms)以检测c形臂33的“c”形。附加地,光学标记39(在此实施例中再次为QR码)被附着到某些部件(在此实施例中为x射线探测器34和x射线源35)以允许更好地检测和位置/取向测量。
如果这些部件的当前位置是已知的,医疗成像设备1的观察区域40可被计算,同样地中心束41也可被计算。
这个信息还可使用智能眼镜6和相应的信息元素显示到用户,如图11中所示。图形元素42对应于中心束41,图形元素43到观察区域40。然而,投影以匹配实际目标40和41的位置的这些图形元素42,43不仅仅是信息元素也是操作元素,如手44所示,该手看起来要抓住图形元素42,作为互动的形式。抓住中心束图形元素42且移动它可导致相应部件的运动,以按照通过与图形元素42互动的输入实现中心束的新的位置和方向。特别地,c形臂被控制为旋转,上升或下降和/或沿水平面运动。
图12示出了通过指向某一区域和/或某一方向来限定中心束41的新方向或指出感兴趣的新区域的另一可能性,如手44和图形元素45所示。
图13示出了指示观察区域40的图形元素43也可通过放置手44以抓住图形元素43且增加或减少指部46之间的距离以控制图形元素43所示的辐射区域的准直性,而被使用为互动虚拟操作元素。由于扇形束几何在这里被使用,图形元素43具有棱锥的截头锥形的形式。
如图14中所示,另外的互动虚拟操作元素25可被投影到图形元素43上,在这种情况下禁止静止c形臂33或其他部件的某一程度的运动自由度。例如,虚拟操作元素25中的一个可与c形臂33的水平运动相关联,一个虚拟操作元素25可与c形臂的等中心旋转相关联,且一个虚拟操作元素25可限制c形臂的运动到角度旋转。
应注意的是另一信息可通过着色图形元素43而被显示,例如指示辐射的被选择的剂量等。
为了指示方向或大体与中心束图形元素42互动,互动辅助器件8的使用可为有利的。互动辅助器件8于是可例如具有圆筒的形状。这个细长的形状允许方向的清晰定义。
尽管本发明已经参考优选实施例被详细地描述,本发明不局限于公开的实施例,从公开的实施例中技术人员能够获得其他变式而不背离本发明的范围。

Claims (20)

1.一种医疗成像设备(1),包括用户界面设备,用于显示关于成像过程的信息给用户和/或接收关于成像过程的用户输入,和至少一个部件,其可根据使用用户界面设备输入的用户指令控制,其中用户界面设备包括至少一副混合现实智能眼镜(6),
其特征在于,所述智能眼镜(6)包括保持器件(15),用于至少一个视觉相关外科手术或成像附件(16),
其中,智能眼镜(6)具有控制单元(11),所述控制单元被配置为投影图形元素(42,43,45)进入戴着智能眼镜(6)的用户的视野,其中所述智能眼镜(6)包括至少一个传感器(12),其被配置为测量描述附件(16)的存在和/或位置和/或类型的附件传感器数据,其中控制单元(11)被配置为根据附件传感器数据控制图形元素(42,43,45)的显示。
2.根据权利要求1所述的医疗成像设备,其中该设备具体为可移动x射线设备,被配置为用于过程内成像,其中所述部件中的至少一个是成像组件或者构成成像组件,所述成像组件至少包括x射线源(35)和x射线探测器(34),且还包括c形臂(33)。
3.根据权利要求1或2所述的医疗成像设备,其中智能眼镜(6)被配置为投影关于成像过程的至少一个信息元素(24)进入戴着智能眼镜(6)的用户的视野。
4.根据权利要求3所述的医疗成像设备,其中所述至少一个信息元素(24)中的至少一个包括医疗成像设备(1)的观察区域(40),被显示在它的实际位置处。
5.根据权利要求1或2所述的医疗成像设备,其中智能眼镜(6)被配置为投影至少一个互动虚拟操作元素(25)到戴着智能眼镜(6)的用户的视野,其中智能眼镜(6)的控制单元(11)被配置为从用户与虚拟操作元素(25)的互动获得至少一个用户指令,所述互动由智能眼镜(6)的至少一个传感器(12)检测到。
6.根据权利要求3所述的医疗成像设备,其中所述信息元素(24)是虚拟操作元素或包括虚拟操作元素(25)。
7.根据权利要求6所述的医疗成像设备,其中用户界面设备还包括至少一个操作辅助器件(9),其具有至少一个显示表面(21),其中控制单元(11)被配置为识别和定位显示表面(21)且投影虚拟操作元素(25)以呈现在显示表面(21)上,用于戴着智能眼镜(6)的用户。
8.根据权利要求7所述的医疗成像设备,其中操作辅助器件(9)具有可杀菌表面,和/或具有至少一个固定器件(27,28),和/或被配置为与相配的固定器件和/或医疗成像设备(1)的标准化固定器件相互作用,用于可逆地固定操作辅助器件(9)到医疗成像设备(1)的其他部件,和/或再***件(29),用于在至少一个使用位置和至少一个存储位置之间运动操作辅助器件(9)。
9.根据权利要求8所述的医疗成像设备,其中,所述可杀菌表面由塑料和/或陶瓷和/或金属和/或玻璃制造。
10.根据权利要求8所述的医疗成像设备,其中,所述至少一个固定器件(27,28)是磁性固定器件。
11.根据权利要求7所述的医疗成像设备,其中当使用多个不同操作辅助器件(9)时,操作辅助器件(9)包括至少一个标记和/或条形码(22),其包括操作辅助器件(9)的识别信息或与其相关联。
12.根据权利要求7所述的医疗成像设备,其中所述操作辅助器件(9)具有至少一个触觉表面结构,对应于被显示在表面结构的位置处的虚拟操作元素(25)。
13.根据权利要求7所述的医疗成像设备,其中操作辅助器件(9)或安装有操作辅助器件(9)的医疗成像设备(1)的部件包括至少一个压力开关(36),以至少指示操作辅助器件(9)的局部按压,其中用户指令被分为安全相关指令和其他指令,用户界面设备被配置为如果压力开关(36)指示操作辅助器件(9)的按下,则仅解释与被投影在显示表面(21)上的虚拟操作元素(25)的对应于安全相关指令的互动为相应用户指令。
14.根据权利要求5所述的医疗成像设备,其中用户界面设备还包括至少一个互动辅助器件(8),以由用户携带且被用于与虚拟操作元素(25)互动。
15.根据权利要求14所述的医疗成像设备,其中互动辅助器件(8)包括至少一个确认开关(37),以产生输入安全相关指令所需的确认信号。
16.根据权利要求7所述的医疗成像设备,其中操作辅助器件(9)和/或互动辅助器件(8)包括触觉反馈器件(38),其对用户输入产生反馈信号。
17.根据权利要求16所述的医疗成像设备,其中,所述用户输入是用户指令。
18.根据权利要求1所述的医疗成像设备,其中所述保持器件(15)被配置为用于可移除地接收至少一个附件(16)和/或包括至少一个***件(17),所述***件用于将附件(16)在用户视野中和/或影响用户视野的至少一个使用位置和非使用位置之间移动。
19.根据权利要求1所述的医疗成像设备,其中,所述图形元素(42,43,45)是虚拟操作元素(25)和/或信息元素(24)。
20.一种用于在成像过程和/或在影像监控下外科手术介入期间支持人的方法,其中依照上述权利要求中任一项所述的医疗成像设备(1)的至少一副混合现实智能眼镜(6)被用于显示关于成像过程的信息给用户和/或接收关于成像过程的用户输入。
CN201810348562.3A 2017-04-21 2018-04-18 医疗成像设备和用于支持使用医疗成像设备的人的方法 Active CN108735290B (zh)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP17167535.8A EP3318214B1 (en) 2017-04-21 2017-04-21 Medical imaging device with smartglasses and method for supporting a person using a medical imaging device
EP17167535.8 2017-04-21

Publications (2)

Publication Number Publication Date
CN108735290A CN108735290A (zh) 2018-11-02
CN108735290B true CN108735290B (zh) 2022-06-03

Family

ID=58632224

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201810348562.3A Active CN108735290B (zh) 2017-04-21 2018-04-18 医疗成像设备和用于支持使用医疗成像设备的人的方法

Country Status (3)

Country Link
US (1) US10709398B2 (zh)
EP (1) EP3318214B1 (zh)
CN (1) CN108735290B (zh)

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AU768220B2 (en) 1998-11-20 2003-12-04 Kosan Biosciences, Inc. Recombinant methods and materials for producing epothilone and epothilone derivatives
GB2536650A (en) 2015-03-24 2016-09-28 Augmedics Ltd Method and system for combining video-based and optic-based augmented reality in a near eye display
US10610179B2 (en) * 2017-06-05 2020-04-07 Biosense Webster (Israel) Ltd. Augmented reality goggles having X-ray protection
CZ2017777A3 (cs) * 2017-12-05 2019-07-03 Radalytica s.r.o. Způsob nedestruktivního zobrazování vnitřní struktury a zařízení k provádění tohoto způsobu
US11980507B2 (en) 2018-05-02 2024-05-14 Augmedics Ltd. Registration of a fiducial marker for an augmented reality system
WO2020025110A1 (en) 2018-07-31 2020-02-06 Brainlab Ag Medical imaging apparatus providing artificial reality support
CN109274914A (zh) * 2018-11-06 2019-01-25 北京智能决策医疗科技有限公司 一种基于ar眼镜的自动化手术记录整理的方法及***
US11766296B2 (en) 2018-11-26 2023-09-26 Augmedics Ltd. Tracking system for image-guided surgery
USD919090S1 (en) * 2019-03-04 2021-05-11 GE Precision Healthcare LLC Imaging apparatus
US11407474B2 (en) * 2019-07-29 2022-08-09 Shimano Inc. Operating device for human-powered vehicle
US11980506B2 (en) 2019-07-29 2024-05-14 Augmedics Ltd. Fiducial marker
US10991163B2 (en) * 2019-09-20 2021-04-27 Facebook Technologies, Llc Projection casting in virtual environments
US11189099B2 (en) 2019-09-20 2021-11-30 Facebook Technologies, Llc Global and local mode virtual object interactions
WO2021069336A1 (en) * 2019-10-08 2021-04-15 Koninklijke Philips N.V. Augmented reality based untethered x-ray imaging system control
CN110797109A (zh) * 2019-10-15 2020-02-14 山东朗润医疗***有限公司 一种磁共振图像的自动分类***
US11382712B2 (en) 2019-12-22 2022-07-12 Augmedics Ltd. Mirroring in image guided surgery
CN111403022B (zh) * 2020-03-13 2020-11-27 北京维卓致远医疗科技发展有限责任公司 一种医疗用可移动分体式操控***使用方法
IT202000011293A1 (it) * 2020-05-15 2021-11-15 Pont Franco Dal Sistema per lo spostamento a distanza di dispositivi per la visione e di dispositivi di protezione individuale
US11461973B2 (en) 2020-12-22 2022-10-04 Meta Platforms Technologies, Llc Virtual reality locomotion via hand gesture
EP4024034A1 (en) * 2021-01-05 2022-07-06 The Boeing Company Methods and apparatus for measuring fastener concentricity
US11896445B2 (en) 2021-07-07 2024-02-13 Augmedics Ltd. Iliac pin and adapter
US11991222B1 (en) 2023-05-02 2024-05-21 Meta Platforms Technologies, Llc Persistent call control user interface element in an artificial reality environment

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1376947A (zh) * 2001-03-26 2002-10-30 舒嘉 X射线立体图像观察***
WO2005016164A1 (de) * 2003-08-07 2005-02-24 Siemens Aktiengesellschaft Bedieneinheit, insbesondere für medizintechnische geräte
WO2005066744A1 (en) * 2003-12-31 2005-07-21 Abb Research Ltd A virtual control panel
CN104244833A (zh) * 2012-03-26 2014-12-24 皇家飞利浦有限公司 X射线焦斑移动的方向控制

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4196966A (en) * 1978-05-01 1980-04-08 Malis Leonard I Binocular magnification system
JP2000185072A (ja) * 1998-12-24 2000-07-04 Nidek Co Ltd レ―ザ用保護ゴ―グル及びこれを備えるレ―ザ治療装置
US6824265B1 (en) * 2003-03-31 2004-11-30 Wesley Stephen Harper Illuminated safety and work glasses
PL1718021T3 (pl) * 2005-04-29 2010-08-31 Sony Deutschland Gmbh Urządzenie odbiorcze i sposób komunikacji w systemie komunikacyjnym OFDM z nową strukturą preambuły
US7643862B2 (en) * 2005-09-15 2010-01-05 Biomet Manufacturing Corporation Virtual mouse for use in surgical navigation
EP2524280A1 (en) * 2010-01-14 2012-11-21 BrainLAB AG Controlling a surgical navigation system
US20140081659A1 (en) * 2012-09-17 2014-03-20 Depuy Orthopaedics, Inc. Systems and methods for surgical and interventional planning, support, post-operative follow-up, and functional recovery tracking
DE102013201773B4 (de) * 2013-02-04 2019-12-24 Leica Microsystems (Schweiz) Ag Kopfgetragenes optisches Instrument und Verfahren zum Justieren eines kopfgetragenen optischen Instruments
US10908681B2 (en) * 2015-02-20 2021-02-02 Covidien Lp Operating room and surgical site awareness
US20160324580A1 (en) * 2015-03-23 2016-11-10 Justin Esterberg Systems and methods for assisted surgical navigation
US9697383B2 (en) * 2015-04-14 2017-07-04 International Business Machines Corporation Numeric keypad encryption for augmented reality devices
DE102017202517A1 (de) * 2017-02-16 2018-08-16 Siemens Healthcare Gmbh Bedienvorrichtung und Bedienverfahren zum Bedienen eines medizinischen Geräts

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1376947A (zh) * 2001-03-26 2002-10-30 舒嘉 X射线立体图像观察***
WO2005016164A1 (de) * 2003-08-07 2005-02-24 Siemens Aktiengesellschaft Bedieneinheit, insbesondere für medizintechnische geräte
WO2005066744A1 (en) * 2003-12-31 2005-07-21 Abb Research Ltd A virtual control panel
CN104244833A (zh) * 2012-03-26 2014-12-24 皇家飞利浦有限公司 X射线焦斑移动的方向控制

Also Published As

Publication number Publication date
EP3318214A1 (en) 2018-05-09
CN108735290A (zh) 2018-11-02
US10709398B2 (en) 2020-07-14
EP3318214B1 (en) 2020-04-15
US20180303446A1 (en) 2018-10-25

Similar Documents

Publication Publication Date Title
CN108735290B (zh) 医疗成像设备和用于支持使用医疗成像设备的人的方法
CN109567954B (zh) 图像引导程序的工作流程辅助***及方法
JP7216768B2 (ja) 三次元のエクステンデットリアリティアプリケーションでの医療画像における二次元のデジタル撮像の活用および通信
US10966680B2 (en) Method for controlling the operation of a medical technology device, operator device, operating system and medical technology device
US11024207B2 (en) User interface systems for sterile fields and other working environments
EP2524289B1 (en) Controlling and/or operating a medical device by means of a light pointer
CN108433823B (zh) 用于操作医疗仪器的操作设备和操作方法
EP3445048A1 (en) A graphical user interface for a surgical navigation system for providing an augmented reality image during operation
CN110650704B (zh) 用于检测图像捕获装置的视野内的物体的***和方法
US20120323364A1 (en) Controlling a surgical navigation system
CN110177518B (zh) 用于在图像捕获装置的视场内检测物体的***和方法
US20210378757A1 (en) Augmented Reality with Medical Imaging
US20230065741A1 (en) Medical navigation system with wirelessly connected, touch-sensitive screen
CN103142309A (zh) 医用机器人***中的计算机显示屏上的辅助图像显示和操纵
WO2016195684A1 (en) Apparatus and methods for a projection display device on x-ray imaging devices
CN116196108A (zh) 戳卡与机械臂安装引导方法、装置、***、存储介质
Weber et al. Application of different visualization concepts in the navigated image viewer

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant