WO2021029180A1 - 超音波システムおよび超音波システムの制御方法 - Google Patents

超音波システムおよび超音波システムの制御方法 Download PDF

Info

Publication number
WO2021029180A1
WO2021029180A1 PCT/JP2020/027756 JP2020027756W WO2021029180A1 WO 2021029180 A1 WO2021029180 A1 WO 2021029180A1 JP 2020027756 W JP2020027756 W JP 2020027756W WO 2021029180 A1 WO2021029180 A1 WO 2021029180A1
Authority
WO
WIPO (PCT)
Prior art keywords
ultrasonic
image
wireless communication
communication unit
probe
Prior art date
Application number
PCT/JP2020/027756
Other languages
English (en)
French (fr)
Inventor
正人 服部
圭司 坪田
井上 知己
Original Assignee
富士フイルム株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 富士フイルム株式会社 filed Critical 富士フイルム株式会社
Priority to JP2021539177A priority Critical patent/JP7315678B2/ja
Priority to CN202080056796.6A priority patent/CN114206225A/zh
Priority to EP20852377.9A priority patent/EP4014888A4/en
Publication of WO2021029180A1 publication Critical patent/WO2021029180A1/ja
Priority to US17/648,253 priority patent/US20220133281A1/en
Priority to JP2023114266A priority patent/JP2023130474A/ja

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4444Constructional features of the ultrasonic, sonic or infrasonic diagnostic device related to the probe
    • A61B8/4472Wireless probes
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4411Device being modular
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4483Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer
    • A61B8/4488Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer the transducer being a phased array
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/463Displaying means of special interest characterised by displaying multiple images or images and diagnostic data on one display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/464Displaying means of special interest involving a plurality of displays
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/467Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient characterised by special input means
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5215Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data
    • A61B8/5238Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image
    • A61B8/5261Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving processing of medical diagnostic data for combining image data of patient, e.g. merging several images from different acquisition modes into one image combining images from different diagnostic modalities, e.g. ultrasound and X-ray
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/54Control of the diagnostic device
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/56Details of data transmission or power supply
    • A61B8/565Details of data transmission or power supply involving data transmission via a network
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • H04N7/185Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source from a mobile camera, e.g. for remote control
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/42Details of probe positioning or probe attachment to the patient
    • A61B8/4245Details of probe positioning or probe attachment to the patient involving determining the position of the probe, e.g. with respect to an external reference frame or to the patient
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4427Device being portable or laptop-like
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/44Constructional features of the ultrasonic, sonic or infrasonic diagnostic device
    • A61B8/4483Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer
    • A61B8/4494Constructional features of the ultrasonic, sonic or infrasonic diagnostic device characterised by features of the ultrasound transducer characterised by the arrangement of the transducer elements
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/46Ultrasonic, sonic or infrasonic diagnostic devices with special arrangements for interfacing with the operator or the patient
    • A61B8/461Displaying means of special interest
    • A61B8/462Displaying means of special interest characterised by constructional features of the display
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/485Diagnostic techniques involving measuring strain or elastic properties
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/486Diagnostic techniques involving arbitrary m-mode
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/48Diagnostic techniques
    • A61B8/488Diagnostic techniques involving Doppler signals
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/52Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/5269Devices using data or image processing specially adapted for diagnosis using ultrasonic, sonic or infrasonic waves involving detection or reduction of artifacts
    • AHUMAN NECESSITIES
    • A61MEDICAL OR VETERINARY SCIENCE; HYGIENE
    • A61BDIAGNOSIS; SURGERY; IDENTIFICATION
    • A61B8/00Diagnosis using ultrasonic, sonic or infrasonic waves
    • A61B8/56Details of data transmission or power supply

Definitions

  • the present invention relates to an ultrasonic system and a control method of an ultrasonic system, and more particularly to an ultrasonic system and a control method of an ultrasonic system for displaying an ultrasonic image on a head mount display.
  • this type of ultrasonic diagnostic apparatus has an ultrasonic probe having a built-in transducer array and an apparatus main body connected to the ultrasonic probe, and ultrasonic waves are directed from the ultrasonic probe toward a subject. Is transmitted, the ultrasonic echo from the subject is received by the ultrasonic probe, and the received signal is electrically processed by the main body of the apparatus to generate an ultrasonic image.
  • the monitor on which the ultrasonic image is displayed is usually placed at a position away from the ultrasonic probe such as the bedside, so that the operator can use the ultrasonic probe at hand. It is necessary to move the line of sight alternately between the and the monitor. Therefore, in order to reduce the movement of the line of sight of the operator, for example, an ultrasonic diagnostic apparatus provided with a so-called head-mounted display as disclosed in Patent Document 1 has been developed.
  • an ultrasonic image is taken in a remote place outside the hospital such as at home nursing
  • an operator who operates an ultrasonic probe to take an ultrasonic image and an ultrasonic image taken are shown.
  • Observers such as doctors who observe and make a diagnosis may differ.
  • the operator usually needs to operate the ultrasonic probe while checking the obtained ultrasonic image by himself / herself to take an ultrasonic image of the target site in the subject.
  • the skill level of the operator is low, it may be difficult for the operator to determine whether or not the target site of the subject can be accurately observed.
  • an operator with a low skill level may not be able to operate the ultrasonic probe by using an appropriate technique, and an ultrasonic image with low image quality may be obtained.
  • the observer confirms the ultrasonic image taken by the operator of the ultrasonic diagnostic apparatus to make a diagnosis, but since the operator cannot grasp how the ultrasonic image is taken, the skill level is particularly high. When an ultrasonic image was taken by a low-level operator, it was sometimes difficult to accurately determine whether or not the captured ultrasonic image was taken by an appropriate procedure.
  • the present invention has been made to solve such a conventional problem, and even when an ultrasonic image is taken at a remote place, an appropriate ultrasonic image can be obtained and ultrasonic diagnosis is performed. It is an object of the present invention to provide an ultrasonic system and a control method of an ultrasonic system capable of improving the accuracy of the ultrasonic system.
  • the first ultrasonic system is an ultrasonic system including an ultrasonic probe, a head mount display, and an external device, and the ultrasonic probe includes an oscillator array and a vibrator array.
  • a transmission / reception circuit that transmits ultrasonic waves from the transducer array and generates a sound line signal based on the received signal acquired by the transducer array, and an ultrasonic image is generated based on the sound line signal generated by the transmitter / receiver circuit.
  • the head mount display includes a camera unit that includes an ultrasonic image generation unit and a probe-side wireless communication unit that wirelessly transmits an ultrasonic image
  • a head mount display includes a camera unit that acquires a field image of a scanning portion of the ultrasonic probe in a subject and a camera.
  • the external device includes at least an external wireless communication unit wirelessly connected to the head mount display side wireless communication unit, an external monitor, and a super device, including a head mount display side wireless communication unit that wirelessly transmits the field image acquired by the unit. It is characterized by including a display control unit that displays an ultrasonic image wirelessly transmitted from a sound probe and a field image wirelessly transmitted from a head mount display on an external monitor.
  • the external wireless communication unit is wirelessly connected to both the probe-side wireless communication unit and the head-mounted display-side wireless communication unit, and the probe-side wireless communication unit wirelessly transmits an ultrasonic image to both the head-mounted display and the external device. Can be done. Further, the probe side wireless communication unit wirelessly transmits an ultrasonic image to the head mount display, and the head mount display side wireless communication unit is acquired by the ultrasonic image and the camera unit wirelessly transmitted from the probe side wireless communication unit. It is also possible to wirelessly transmit the field image to an external device.
  • the external device preferably includes an image synchronization unit that synchronizes the ultrasonic image and the visual field image with each other.
  • the head-mounted display includes a monitor on the head-mounted display side, and an ultrasonic image can be displayed on the monitor on the head-mounted display side.
  • the head-mounted display includes an image synchronization unit that synchronizes the ultrasonic image and the field image with each other.
  • the external device includes an input device, and the external wireless communication unit wirelessly transmits the external input information input via the input device to the head mount display side wireless communication unit, and the external input information is transmitted to the head mount display side monitor. It can also be displayed in.
  • voice data can be bidirectionally wirelessly communicated between the head-mounted display side wireless communication unit and the external wireless communication unit.
  • the first method for controlling an ultrasonic system is a method for controlling an ultrasonic system including an ultrasonic probe, a head mount display, and an external device.
  • an ultrasonic probe oscillator array.
  • Ultrasound is transmitted from and a sound line signal is generated based on the received signal acquired by the transducer array, an ultrasonic image is generated based on the generated sound line signal, and the ultrasonic image is transmitted wirelessly.
  • the head mount display a field image obtained by capturing the scanning portion of the ultrasonic probe in the subject is acquired, the acquired field image is wirelessly transmitted, and in an external device, the ultrasonic image and the head wirelessly transmitted from the ultrasonic probe. It is characterized in that a field image wirelessly transmitted from a mount display is displayed on an external monitor.
  • the second ultrasonic system is an ultrasonic system including an ultrasonic probe, a head mount display, and an external device, and the ultrasonic probe transmits ultrasonic waves from the vibrator array and the vibrator array.
  • a transmission / reception circuit that generates a sound line signal based on the reception signal acquired by the transducer array, and a reception that generates reception data before imaging by performing signal processing on the sound line signal generated by the transmission / reception circuit.
  • the head mount display includes a data generation unit and a probe-side wireless communication unit that wirelessly transmits received data, and the head mount display is acquired by a camera unit that acquires a field image of a scanned portion of an ultrasonic probe in a subject and a camera unit.
  • the external device includes at least the external wireless communication unit wirelessly connected to the head mount display side wireless communication unit, the external monitor, and the ultrasonic probe, including the head mount display side wireless communication unit that wirelessly transmits the visual field image. It is characterized by including a display control unit that displays an ultrasonic image generated based on wirelessly transmitted received data and a field image wirelessly transmitted from a head mount display on an external monitor.
  • the external wireless communication unit is wirelessly connected to both the probe-side wireless communication unit and the head-mounted display-side wireless communication unit, and the probe-side wireless communication unit wirelessly transmits the received data to both the head-mounted display and the external device. Can be done. Further, the probe-side wireless communication unit wirelessly transmits the received data to the head-mounted display, and the head-mounted display-side wireless communication unit wirelessly transmits the received data from the probe-side wireless communication unit and the field image acquired by the camera unit. Can also be wirelessly transmitted to an external device.
  • the external device can include an image processing unit that generates an ultrasonic image based on received data wirelessly transmitted from the probe-side wireless communication unit.
  • the probe-side wireless communication unit wirelessly transmits the received data to the head-mounted display, and the head-mounted display provides an image processing unit that generates an ultrasonic image based on the received data wirelessly transmitted from the probe-side wireless communication unit.
  • the head mount display side wireless communication unit can also wirelessly transmit the ultrasonic image generated by the image processing unit and the field image acquired by the camera unit to an external device.
  • the external device preferably includes an image synchronization unit that synchronizes the ultrasonic image and the visual field image with each other.
  • the head-mounted display includes a monitor on the head-mounted display side, and an ultrasonic image can be displayed on the monitor on the head-mounted display side.
  • the head-mounted display includes an image synchronization unit that synchronizes the ultrasonic image and the field image with each other.
  • the external device includes an input device, and the external wireless communication unit wirelessly transmits the external input information input via the input device to the head mount display side wireless communication unit, and the external input information is transmitted to the head mount display side monitor. It can also be displayed in.
  • voice data can be bidirectionally wirelessly communicated between the head-mounted display side wireless communication unit and the external wireless communication unit.
  • the second method for controlling an ultrasonic system is a method for controlling an ultrasonic system including an ultrasonic probe, a head mount display, and an external device.
  • the vibrator array of the ultrasonic probe In the ultrasonic probe, the vibrator array of the ultrasonic probe.
  • a sound line signal is generated based on the received signal acquired by the transducer array and ultrasonic waves are transmitted from, and the generated sound line signal is subjected to signal processing to generate and receive the received data before imaging.
  • Data is transmitted wirelessly, a field image obtained by capturing the scanning portion of the ultrasonic probe in the subject is acquired on the head mount display, the acquired field image is transmitted wirelessly, and transmitted wirelessly from the ultrasonic probe in an external device. It is characterized in that an ultrasonic image generated based on the received data and a field image wirelessly transmitted from a head mount display are displayed on an external monitor.
  • the ultrasonic probe includes an ultrasonic image generation unit that generates an ultrasonic image and a probe-side wireless communication unit that wirelessly transmits an ultrasonic image, and a head mount display scans the ultrasonic probe.
  • An external device wirelessly transmits at least a head-mounted display-side wireless communication unit, including a camera unit that acquires a field image of a portion captured and a head-mounted display-side wireless communication unit that wirelessly transmits the field-view image acquired by the camera unit. Because it includes a connected external wireless communication unit, an external monitor, and a display control unit that displays an ultrasonic image wirelessly transmitted from an ultrasonic probe and a field image wirelessly transmitted from a head mount display on the external monitor. Even when an ultrasonic image is taken at a remote place, an appropriate ultrasonic image can be obtained and the accuracy of ultrasonic diagnosis can be improved.
  • Embodiment 1 of this invention It is a block diagram which shows the structure of the ultrasonic system which concerns on Embodiment 1 of this invention. It is a block diagram which shows the internal structure of the transmission / reception circuit in Embodiment 1 of this invention. It is a figure which shows the example of HMD in Embodiment 1 of this invention. It is a figure which shows typically the ultrasonic image displayed on the HMD side monitor of the HMD in Embodiment 1 of this invention. It is a figure which shows typically the example of the external device in Embodiment 1 of this invention. It is a figure which shows typically the example of the cursor displayed on the field of view image on the external monitor in the modification of Embodiment 1 of this invention.
  • FIG. 1 shows the configuration of the ultrasonic system 1 according to the first embodiment of the present invention.
  • the ultrasonic system 1 includes an ultrasonic probe 2, an HMD (Head Mounted Display) 3, and an external device 4.
  • the HMD 3 and the external device 4 are connected to the ultrasonic probe 2 by wireless communication, and the HMD 3 and the external device 4 are connected to each other by wireless communication.
  • the ultrasonic probe 2 includes an oscillator array 21, and a transmission / reception circuit 22, a signal processing unit 23, and a probe-side wireless communication unit 24 are sequentially connected to the oscillator array 21.
  • the probe-side wireless communication unit 24 is connected to the HMD 3 and the external device 4 by wireless communication.
  • the signal processing unit 23 constitutes a reception data generation unit.
  • the probe control unit 26 is connected to the transmission / reception circuit 22, the signal processing unit 23, and the probe side wireless communication unit 24.
  • the probe side processor 27 is composed of the signal processing unit 23, the probe side wireless communication unit 24, and the probe control unit 26.
  • the HMD 3 includes an HMD side wireless communication unit 31 connected to the ultrasonic probe 2 and the external device 4 by wireless communication, and the HMD side wireless communication unit (head-mounted display side wireless communication unit) 31 has an image processing unit 32.
  • the display control unit 35 and the HMD side monitor (head mounted display side monitor) 36 are sequentially connected.
  • the HMD 3 includes a camera unit 33, and the camera unit 33 is connected to the HMD side wireless communication unit 31.
  • the HMD control unit (head-mounted display control unit) 37 is connected to the HMD side wireless communication unit 31, the image processing unit 32, the camera unit 33, and the display control unit 35.
  • the HMD side processor (head-mounted display side processor) 39 is configured by the HMD side wireless communication unit 31, the image processing unit 32, the display control unit 35, and the HMD control unit 37.
  • the external device 4 includes an external wireless communication unit 41 connected to the ultrasonic probe 2 and the HMD 3 by wireless communication, and the image processing unit 42 and the image synchronization unit 43 are connected to the external wireless communication unit 41. Further, the image processing unit 42 is connected to the image synchronization unit 43. Further, the display control unit 44 and the external monitor 45 are sequentially connected to the image synchronization unit 43. Further, the external control unit 46 is connected to the external wireless communication unit 41, the image processing unit 42, the image synchronization unit 43, and the display control unit 44. Further, the input device 47 is connected to the external control unit 46. Further, the external device side processor 48 is composed of the external wireless communication unit 41, the image processing unit 42, the image synchronization unit 43, the display control unit 44, and the external control unit 46.
  • the oscillator array 21 of the ultrasonic probe 2 has a plurality of oscillators arranged one-dimensionally or two-dimensionally. Each of these oscillators transmits ultrasonic waves according to the drive signal supplied from the transmission / reception circuit 22, receives ultrasonic echoes from the subject, and outputs a reception signal based on the ultrasonic echoes.
  • Each transducer includes, for example, a piezoelectric ceramic represented by PZT (Lead Zirconate Titanate), a polymer piezoelectric element represented by PVDF (PolyVinylidene DiFluoride), and PMN-PT (PMN-PT (polyvinylidene fluoride)).
  • piezoelectric material made of a piezoelectric single crystal or the like represented by Lead Magnesium Niobate-Lead Titanate (lead magnesiumidene fluoride-lead titanate solid solution).
  • the transmission / reception circuit 22 transmits ultrasonic waves from the oscillator array 21 and generates a sound line signal based on the received signal acquired by the oscillator array 21.
  • the transmission / reception circuit 22 includes a pulsar 51 connected to the oscillator array 21, an amplification unit 52 connected in series from the oscillator array 21, an AD (Analog Digital) conversion unit 53, and a beam former. Has 54.
  • the pulsar 51 includes, for example, a plurality of pulse generators, and is transmitted from the plurality of oscillators of the oscillator array 21 based on a transmission delay pattern selected according to a control signal from the probe control unit 26.
  • Each drive signal is supplied to a plurality of oscillators by adjusting the delay amount so that the ultrasonic waves form an ultrasonic beam.
  • a pulsed or continuous wave voltage is applied to the electrodes of the vibrator of the vibrator array 21, the piezoelectric body expands and contracts, and pulsed or continuous wave ultrasonic waves are generated from each vibrator.
  • An ultrasonic beam is formed from the combined waves of those ultrasonic waves.
  • the transmitted ultrasonic beam is reflected by, for example, a target such as a site of a subject, and propagates toward the vibrator array 21 of the ultrasonic probe 2.
  • the ultrasonic echo propagating toward the oscillator array 21 is expanded and contracted by each oscillator constituting the oscillator array 21 by receiving the propagating ultrasonic echo, and the received signal is an electric signal. Is generated, and these received signals are output to the amplification unit 52.
  • the amplification unit 52 amplifies the signal input from each of the vibrators constituting the vibrator array 21, and transmits the amplified signal to the AD conversion unit 53.
  • the AD conversion unit 53 converts the signal transmitted from the amplification unit 52 into digital reception data, and transmits these reception data to the beam former 54.
  • the beam former 54 follows the sound velocity or sound velocity distribution set based on the reception delay pattern selected according to the control signal from the probe control unit 26, and is used for each reception data converted by the AD conversion unit 53.
  • the so-called reception focus processing is performed by adding the delays of. By this reception focus processing, each received data converted by the AD conversion unit 53 is phase-adjusted and added, and a sound line signal in which the focus of the ultrasonic echo is narrowed down is acquired.
  • the signal processing unit 23 generates reception data before imaging by performing signal processing on the sound line signal generated by the beam former 54 of the transmission / reception circuit 22. More specifically, the signal processing unit 23 corrects the attenuation due to the propagation distance of the sound line signal generated by the beam former 54 of the transmission / reception circuit 22 according to the depth of the position where the ultrasonic waves are reflected. After that, the envelope detection process is performed to generate a signal representing tomographic image information about the tissue in the subject as the received data before imaging.
  • the probe-side wireless communication unit 24 includes an antenna for transmitting and receiving radio waves, and modulates a carrier based on the received data before imaging generated by the signal processing unit 23 to perform the carrier before imaging. Generates a transmission signal that represents received data.
  • the probe-side wireless communication unit 24 supplies the transmission signal generated in this manner to the antenna and transmits radio waves from the antenna, thereby transmitting the received data before imaging to the HMD-side wireless communication unit 31 of the HMD 3 and an external device. Wireless transmission is sequentially performed to the external wireless communication unit 41 of 4.
  • Carrier modulation methods include ASK (Amplitude Shift Keying), PSK (Phase Shift Keying: Phase Shift Keying), QPSK (Quadrature Phase Shift Keying: Quadrature Shift Keying), and 16QAM (16 Quadrature Amplitude). Modulation: 16 quadrature phase amplitude modulation) and the like are used.
  • the wireless communication between the probe-side wireless communication unit 24 of the ultrasonic probe 2, the HMD-side wireless communication unit 31 of the HMD3, and the external wireless communication unit 41 of the external device 4 is 5G (5th Generation: 5th generation mobile communication system).
  • Communication standards related to mobile communication such as 4G (4th Generation: 4th generation mobile communication system), short-range such as WiFi (registered trademark), Bluetooth (registered trademark), UWB (Ultra Wide Band) It can be done according to communication standards for wireless communication.
  • the ultrasonic probe 2 and the HMD 3 are located close to each other, either mobile communication or short-range wireless communication can be used as the wireless communication between the ultrasonic probe 2 and the HMD 3. It can also be adopted. Further, since the external device 4 is assumed to be located at a remote location with respect to the ultrasonic probe 2 and the HMD 3, wireless communication between the external device 4 and the ultrasonic probe 2 and communication between the external device 4 and the HMD 3 are performed. It is preferable that mobile communication is performed as wireless communication between the two.
  • wireless communication between the external device 4 and the ultrasonic probe 2 and between the external device 4 and the HMD 3 As the wireless communication of the above, it is preferable that mobile communication according to 5G is performed.
  • the probe control unit 26 controls each unit of the ultrasonic probe 2 based on a control program or the like stored in advance. Further, although not shown, a probe-side storage unit is connected to the probe control unit 26. The probe-side storage unit stores a control program for the ultrasonic probe 2 and the like. Further, as the probe side storage unit, for example, a flash memory, RAM (Random Access Memory), SD card (Secure Digital card), SSD (Solid State Drive) or the like is used. be able to. Further, although not shown, the ultrasonic probe 2 has a built-in battery, and power is supplied from this battery to each circuit of the ultrasonic probe 2.
  • the probe-side processor 27 having the signal processing unit 23, the probe-side wireless communication unit 24, and the probe control unit 26 controls the CPU (Central Processing Unit) and the CPU to perform various processes. It consists of programs, but FPGA (Field Programmable Gate Array: Feed Programmable Gate Array), DSP (Digital Signal Processor: Digital Signal Processor), ASIC (Application Specific Integrated Circuit), GPU (Graphics Processing Unit). : Graphics processing unit) and other ICs (Integrated Circuits) may be used, or they may be combined.
  • FPGA Field Programmable Gate Array: Feed Programmable Gate Array
  • DSP Digital Signal Processor: Digital Signal Processor
  • ASIC Application Specific Integrated Circuit
  • GPU Graphics Processing Unit
  • Graphics processing unit Graphics processing unit
  • other ICs Integrated Circuits
  • the signal processing unit 23 of the probe-side processor 27, the probe-side wireless communication unit 24, and the probe control unit 26 can be partially or wholly integrated into one CPU or the like.
  • the HMD3 is a display device attached to the operator's head and visually recognized by the operator, and has a so-called eyeglass-like shape as shown in FIG.
  • the HMD 3 includes two monitors 36A and 36B as the HMD side monitor 36.
  • the two monitors 36A and 36B are connected to each other by a bridge portion B, and a vine portion T is connected to the ends of the two monitors 36A and 36B, respectively.
  • the HMD3 is fixed to the operator's head by hooking the bridge portion B on the operator's nose and the two vine portions T on both ears of the operator.
  • the two monitors 36A and 36B face the operator's right eye and left eye.
  • a camera unit 33 in which the photographing lens F is arranged on the front surface is attached to the connecting portion between the monitor 36B and the vine portion T on the left side when viewed from the operator when the operator is wearing the HMD3.
  • a storage portion D in which various circuits and the like necessary for the operation of the HMD 3 are housed is arranged in the vine portion T connected to the monitor 36A on the right side.
  • the HMD-side wireless communication unit 31 shown in FIG. 1 includes an antenna for transmitting and receiving radio waves, and under the control of the HMD control unit 37, the probe-side wireless communication unit of the ultrasonic probe 2
  • the transmission signal representing the received data before imaging transmitted by 24 is received via the antenna, and the received data before imaging is output by demolating the received transmission signal. Further, the HMD side wireless communication unit 31 sends the received data before imaging to the image processing unit 32.
  • the image processing unit 32 raster-converts the received data before imaging transmitted from the HMD-side wireless communication unit 31 into an image signal according to a normal television signal scanning method, and HMD the converted image signal.
  • B mode (Brightness mode) by performing various necessary image processing such as brightness correction, gradation correction, sharpness correction, image size correction, refresh rate correction, scanning frequency correction and color correction according to the display format for the side monitor 36. : Brightness mode) Generates an image signal.
  • the B-mode image signal generated in this way is simply called an ultrasonic image U. Further, the image processing unit 32 sends the generated ultrasonic image U to the display control unit 35.
  • the HMD side monitor 36 displays an ultrasonic image U or the like under the control of the display control unit 35, and is translucent in order to secure the operator's field of view when the operator is wearing the HMD3. have. Therefore, the operator can confirm the ultrasonic image U and the like displayed on the HMD side monitor 36 while confirming the front field of view through the HMD side monitor 36.
  • the display control unit 35 Under the control of the HMD control unit 37, the display control unit 35 performs a predetermined process on the ultrasonic image U transmitted from the image processing unit 32, and superimposes the HMD side monitor 36 of the HMD 3 as shown in FIG.
  • the ultrasonic image U is displayed.
  • FIG. 4 the HMD side monitor so that the subject P located in front of the subject P is confirmed through the HMD side monitor 36 and the ultrasonic image U is superimposed on a part of the field of view in front of the operator.
  • An example displayed in 36 is shown.
  • the camera unit 33 acquires a visual field image C that captures the scanning portion of the ultrasonic probe 2 in the subject P.
  • the camera unit 33 captures a scanning portion of the ultrasonic probe 2 through the photographing lens F and the photographing lens F, obtains a field image signal which is an analog signal, an image sensor (not shown), and a field of view acquired by the image sensor.
  • Built-in analog signal processing circuit (not shown) that amplifies the image signal and converts it into a digital signal
  • digital signal processing circuit (not shown) that generates the field image C by performing various corrections such as gain on the converted digital signal. Has been done.
  • the analog signal processing circuit and the digital signal processing circuit can also be incorporated in the HMD side processor 39.
  • the camera unit 33 sends the generated field of view image C to the HMD side wireless communication unit 31.
  • the field image C transmitted to the HMD side wireless communication unit 31 is wirelessly transmitted to the external device 4 by the HMD side wireless communication unit 31.
  • the HMD control unit 37 controls each unit of the HMD 3 based on a control program or the like stored in advance. Further, although not shown, an HMD side storage unit is connected to the HMD control unit 37.
  • the HMD side storage unit stores the HMD3 control program and the like. Further, as the HMD side storage unit, for example, a flash memory, RAM, SD card, SSD or the like can be used. Further, although not shown, the HMD3 has a built-in battery, and power is supplied from this battery to each circuit of the HMD3.
  • the HMD side processor 39 having the HMD side wireless communication unit 31, the image processing unit 32, the display control unit 35, and the HMD control unit 37 is composed of a CPU and a control program for causing the CPU to perform various processes. However, it may be configured by using FPGA, DSP, ASIC, GPU, or other IC, or may be configured by combining them. Further, the HMD side wireless communication unit 31, the image processing unit 32, the display control unit 35, and the HMD control unit 37 of the HMD side processor 39 can be partially or wholly integrated into one CPU or the like. ..
  • the external wireless communication unit 41 of the external device 4 includes an antenna for transmitting and receiving radio waves, and is transmitted by the probe-side wireless communication unit 24 of the ultrasonic probe 2 under the control of the external control unit 46.
  • An image is obtained by receiving a transmission signal representing the received data before imaging and a transmission signal representing the field view image C transmitted by the HMD side wireless communication unit 31 of the HMD 3 via the antenna and demolating the received transmission signal.
  • the received data and the field image C before conversion are output.
  • the external wireless communication unit 41 sends the received data before imaging to the image processing unit 42, and sends the visual field image C to the image synchronization unit 43.
  • the image processing unit 42 rasterly converts the received data before imaging transmitted from the external wireless communication unit 41 into an image signal according to a normal television signal scanning method, and externally monitors the converted image signal.
  • An ultrasonic image U is generated by performing various necessary image processing such as brightness correction, gradation correction, sharpness correction, image size correction, refresh rate correction, scanning frequency correction, and color correction according to the display format for 45. ..
  • the image processing unit 42 sends the generated ultrasonic image U to the image synchronization unit 43.
  • the image synchronization unit 43 of the external device 4 synchronizes the ultrasonic image U transmitted from the image processing unit 42 and the visual field image C transmitted from the external wireless communication unit 41 with each other, and the ultrasonic image U synchronized with each other. And the composite image M is generated based on the field image C.
  • synchronizing the ultrasonic image U and the visual field image C with each other means associating the ultrasonic image U and the visual field image C taken at the same timing with each other.
  • the image processing unit 42 of the external device 4 gives a time stamp indicating the time when the ultrasonic image U was generated to the ultrasonic image U, and the camera unit 33 of the HMD 3 generates the field image C.
  • the image synchronization unit 43 When a time stamp representing the time is given to the field image C, the image synchronization unit 43 considers the time stamp of the ultrasonic image U to represent the time when the ultrasonic image U was taken, and the field image C The time stamp of the above is regarded as representing the time when the field image C was taken, and by referring to the time stamps of the ultrasonic image U and the field image C, the ultrasonic image U and the field image taken at the same timing C can be synchronized with each other.
  • the image synchronization unit 43 takes an ultrasonic image U by referring to, for example, the time stamp of the ultrasonic image U and the time stamp of the field image C. If the difference between the time and the time when the field image C is taken is within a certain range, for example, within 0.1 second, it is considered that the ultrasonic image U and the field image C are taken at the same timing. Can be associated. Further, the image synchronization unit 34 refers to, for example, the time stamp of the ultrasonic image U and the time stamp of the field image C, and takes a picture at the time closest to the time when the ultrasonic image U to be associated is taken.
  • the image synchronization unit 34 selects, for example, the ultrasonic image U captured at the time closest to the time when the visual field image C to be associated is captured, and sets the ultrasonic image U with the selected ultrasonic image U. It can also be associated with the field image C.
  • the image synchronization unit 43 sends the ultrasonic image U and the field image C synchronized in this way to the display control unit 44.
  • the display control unit 44 Under the control of the external control unit 46, the display control unit 44 performs a predetermined process on the composite image M transmitted from the image synchronization unit 43, and causes the external monitor 45 of the external device 4 to perform a predetermined process as shown in FIG.
  • the synchronized ultrasonic image U and the visual field image C are displayed together.
  • the external monitor 45 displays an ultrasonic image U, a field image C, and the like under the control of the display control unit 44.
  • (Liquid Crystal Display), an organic EL display (Organic Electroluminescence Display), and the like. Includes display devices.
  • the input device 47 of the external device 4 is for the operator to perform an input operation, and includes a touch sensor arranged so as to be superimposed on the external monitor 45.
  • the external control unit 46 controls each unit of the external device 4 based on a control program or the like stored in advance.
  • an external device side storage unit is connected to the external device 4.
  • the storage unit on the external device side stores a control program or the like of the external device 4.
  • a flash memory, RAM, SD card, SSD or the like can be used as the storage unit on the external device side.
  • the external device 4 has a built-in battery, and power is supplied from this battery to each circuit of the external device 4.
  • the external device side processor 48 having the external wireless communication unit 41, the image processing unit 42, the image synchronization unit 43, the display control unit 44, and the external control unit 46 is for causing the CPU and the CPU to perform various processes. Although it is composed of a control program, it may be configured by using FPGA, DSP, ASIC, GPU, or other IC, or may be configured by combining them. Further, the external wireless communication unit 41, the image processing unit 42, the image synchronization unit 43, the display control unit 44, and the external control unit 46 of the external device side processor 48 are partially or wholly integrated into one CPU or the like. It can also be configured.
  • the operator contacts the ultrasonic probe 2 on the body surface of the subject P, and under the control of the probe control unit 26, a plurality of oscillator arrays 21 are subjected to the drive signals from the pulsar 51 of the transmission / reception circuit 22.
  • An ultrasonic beam is transmitted into the subject P from the oscillator of the above.
  • the ultrasonic echo based on the transmitted ultrasonic beam is received by each oscillator, the received signal which is an analog signal is output to the amplification unit 52 and amplified, and the AD conversion unit 53 performs AD conversion to acquire the received data. Will be done.
  • a sound line signal is generated by performing reception focus processing on the received data by the beam former 54.
  • the generated sound line signal is converted by the signal processing unit 23 into received data before imaging, which is a signal representing tomographic image information about the tissue in the subject P.
  • the signal processing unit 23 corrects the attenuation caused by the propagation distance of the sound line signal according to the depth of the position where the ultrasonic wave is reflected, and then performs the envelope detection process.
  • the probe-side wireless communication unit 24 wirelessly transmits the generated sound line signal to the HMD 3 and the external device 4.
  • the HMD side wireless communication unit 31 of the HMD 3 receives the received data before imaging wirelessly transmitted from the ultrasonic probe 2, and sends the received received data before imaging to the image processing unit 32.
  • the image processing unit 32 rasterly converts the received data before imaging transmitted from the HMD-side wireless communication unit 31 into an image signal according to a normal television signal scanning method, and HMD the converted image signal.
  • the ultrasonic image U is subjected to various necessary image processing such as brightness correction, gradation correction, sharpness correction, image size correction, refresh rate correction, scanning frequency correction, and color correction according to the display format for the side monitor 36. Generate.
  • the ultrasonic image U generated in this way is sent to the display control unit 35.
  • the display control unit 35 After performing a predetermined process on the ultrasonic image U, the display control unit 35 sends the ultrasonic image U to the HMD side monitor 36, and as shown in FIG. 4, sends the ultrasonic image U to the HMD side monitor 36.
  • the operator simultaneously confirms the visual field in front and the ultrasonic image U and examines the subject.
  • the scanning location of the ultrasonic probe 2 in P and the tissue in the subject P observed thereby can be easily associated and grasped.
  • FIG. 4 a state in which the ultrasonic probe 2 is in contact with the abdomen of the subject P is shown as a field of view in front of the operator, and the ultrasonic image U shows the inside of the abdomen of the subject P.
  • the organization is depicted
  • the camera unit 33 of the HMD 3 acquires a field image C that captures the scanning portion of the ultrasonic probe 2 in the subject P under the control of the HMD control unit 37.
  • the camera unit 33 acquires a visual field image C that captures the scanning portion of the ultrasonic probe 2 in the subject P.
  • the field image C thus acquired is transmitted to the HMD side wireless communication unit 31.
  • the HMD side wireless communication unit 31 wirelessly transmits the field image C transmitted from the camera unit 33 to the external device 4.
  • the external wireless communication unit 41 of the external device 4 receives the received data before imaging wirelessly transmitted from the ultrasonic probe 2 and the field image C wirelessly transmitted from the HMD 3, and receives the received data before imaging. It is sent to the image processing unit 42, and the received field image C is sent to the image synchronization unit 43.
  • the image processing unit 42 rasterly converts the received data before imaging transmitted from the external wireless communication unit 41 into an image signal according to a normal television signal scanning method, and externally monitors the converted image signal.
  • An ultrasonic image U is generated by performing various necessary image processing such as brightness correction, gradation correction, sharpness correction, image size correction, refresh rate correction, scanning frequency correction, and color correction according to the display format for 45. ..
  • the image processing unit 42 sends the generated ultrasonic image U to the image synchronization unit 43.
  • the image synchronization unit 43 synchronizes the ultrasonic image U transmitted from the image processing unit 42 and the field image C transmitted from the external wireless communication unit 41 with each other, and the ultrasonic image U and the field image C synchronized with each other. Generates a composite image M in which For example, the image processing unit 42 of the external device 4 gives a time stamp indicating the time when the ultrasonic image U was generated to the ultrasonic image U, and the camera unit 33 of the HMD 3 generates the field image C.
  • the image synchronization unit 43 When a time stamp representing the time is given to the field image C, the image synchronization unit 43 considers the time stamp of the ultrasonic image U to represent the time when the ultrasonic image U was taken, and the field image C The time stamp of the above is regarded as representing the time when the field image C was taken, and by referring to the time stamps of the ultrasonic image U and the field image C, the ultrasonic image U and the field image taken at the same timing C can be synchronized with each other. At this time, the time in the HMD 3 and the time in the external device 4 can be shared with each other.
  • the time in the HMD 3 and the time in the external device 4 can be shared with each other. Specifically, for example, the time can be shared with reference to either the HMD 3 or the external device 4. Further, for example, when either one of the HMD 3 and the external device 4 is connected to the Internet, the time of the built-in clock is used by using a communication protocol such as NTP (Network Time Protocol) or NITZ (Network Identity and Time Zone). May be set.
  • NTP Network Time Protocol
  • NITZ Network Identity and Time Zone
  • the ultrasonic image U and the visual field image C synchronized with each other by the image synchronization unit 43 are sent to the display control unit 44 as a composite image M.
  • the display control unit 44 sends the composite image M to the external monitor 45, and as shown in FIG. 5, the ultrasonic image U and the visual field image are displayed on the external monitor 45.
  • Display with C In the example of FIG. 5, it is shown that the external device 4 is a portable thin computer called a so-called smartphone or tablet, and the field image C and the ultrasonic image U are displayed above and below the HMD side monitor 36 of the external device 4. Each is displayed.
  • the visual field image C depicts the state in which the ultrasonic probe 2 is in contact with the abdomen of the subject P
  • the ultrasonic image U depicts the internal tissue of the abdomen of the subject P. ..
  • the ultrasonic image U is displayed on the HMD side monitor 36 of the HMD3, and the field image C and the ultrasonic image U synchronized with each other are displayed on the external monitor 45 of the external device 4, but the HMD side.
  • the same ultrasonic image U is displayed on the monitor 36 and the external monitor 45 at almost the same time.
  • the external monitor 45 displays the visual field image C corresponding to the front visual field that the operator is observing through the HMD side monitor 36 in substantially real time. Therefore, for example, even when the external device 4 is located at a remote location with respect to the HMD 3, the observer observing the external monitor 45 takes an image at the inspection site where the subject P and the operator are located.
  • the resulting ultrasonic image U and the visual field image C corresponding to the visual field in front of the operator can be observed in substantially real time.
  • the operator who operates the ultrasonic probe to take the ultrasonic image and the photographed ultrasonic image are observed. Observers such as doctors making the diagnosis may differ from each other.
  • the operator usually needs to operate the ultrasonic probe while checking the obtained ultrasonic image by himself / herself to take an ultrasonic image of a part in the target subject P.
  • the skill level of the operator is low, it may be difficult for the operator to determine whether or not the target site of the subject P can be accurately observed.
  • an operator with a low skill level may not be able to operate the ultrasonic probe by using an appropriate technique, and an ultrasonic image with low image quality may be obtained.
  • the observer located at a remote location from the subject P and the operator will make a diagnosis by confirming the ultrasonic image taken by the operator of the ultrasonic diagnostic apparatus, but the operator makes an ultrasonic wave. Since it is not possible to grasp how the image is taken, whether or not the ultrasonic image taken is taken by an appropriate technique, especially when the ultrasonic image is taken by an operator with low skill level. Sometimes it was difficult to make an accurate judgment.
  • the same ultrasonic image U is displayed on the HMD side monitor 36 and the external monitor 45 at almost the same time, and further, the operator is displayed on the external monitor 45. Since the visual field image C corresponding to the visual field in front of is displayed in almost real time, for example, even when the external device 4 is located at a remote location with respect to the HMD 3, the observer observing the external monitor 45 The visual field image C and the ultrasonic image U taken at the inspection site where the subject P and the operator are located can be observed in almost real time.
  • a highly skilled observer can give advice to the operator in real time, so that even if the operator located at a remote location has a low skill level, the observer can be given advice in real time.
  • An appropriate ultrasonic image U can be obtained, and the accuracy of ultrasonic diagnosis can be improved.
  • the ultrasonic system 1 corresponds to a field image C showing a state in which a highly skilled operator operates the ultrasonic probe 2 and a field image C thereof. It is also possible to have the operator confirm the appropriate ultrasonic image U by an observer who is located at a remote location and has a low skill level. As described above, the ultrasonic system 1 according to the first embodiment of the present invention is very useful from the viewpoint of education.
  • the ultrasonic image U is displayed on the HMD side monitor 36 of the HMD 3, so that the operator can view the ultrasonic image U while checking the front field of view. You can check.
  • the field image C is captured by the camera unit 33 of the HMD3, the operator does not need to use his / her hand to capture the field image C. Therefore, for example, the operator performs a procedure of inserting a so-called puncture needle into the subject P by using the other hand while operating the ultrasonic probe 2 with one hand without taking the line of sight from the subject P. It is possible to perform various inspections such as.
  • the image processing unit 32 of the HMD 3 and the image processing unit 42 of the external device 4 each give a time stamp to the generated ultrasonic image U
  • the image processing unit of the HMD 3 Instead of the image processing unit 42 of the external device 4 and the external device 4 imparting a time stamp to the ultrasonic image U, the signal processing unit 23 of the ultrasonic probe 2 time stamps the signal subjected to the envelope detection processing. Can also be given.
  • the time in the ultrasonic probe 2 and the time in the HMD 3 are shared with each other, so that the ultrasonic image U generated by the image processing unit 32 of the HMD 3 based on the signal to which the time stamp is given is used.
  • the field image C generated by the camera unit 33 is synchronized with each other, and the ultrasonic image U generated by the image processing unit 42 of the external device 4 and the field image C generated by the camera unit 33 are synchronized with each other. be able to.
  • the time in the ultrasonic probe 2 and the time in the HMD 3 can be shared based on, for example, either the ultrasonic probe 2 or the HMD 3. Further, for example, when either one of the ultrasonic probe 2 and the HMD 3 is connected to the Internet, the time of the built-in clock may be set using a communication protocol such as NTP or NITZ.
  • the method of synchronizing the ultrasonic image U and the visual field image C with each other is not limited to the method using the time stamp described above.
  • the imaging timing of the ultrasonic image U by the ultrasonic probe 2 and the imaging timing of the field image C by the camera unit 33 of the HMD3 are synchronized, and further,
  • the image synchronization unit 43 of the external device 4 uses the ultrasonic image. It is considered that U and the field image C are taken at the same timing, and the ultrasonic image U and the field image C can be synchronized with each other.
  • the image synchronization unit 43 of the external device 4 generates a composite image M in which the ultrasonic image U and the field image C synchronized with each other are combined into one, and the generated composite image M is sent to the display control unit 44.
  • the ultrasonic image U and the field image C synchronized with each other can be transmitted to the display control unit 44, respectively.
  • the display control unit 44 performs predetermined processing on the ultrasonic image U and the visual field image C transmitted from the image synchronization unit 43, respectively, and on the external monitor 45, for example, as shown in FIG. 5, each other.
  • the synchronized ultrasonic image U and the visual field image C are displayed together. Therefore, the observer looking at the external monitor 45 can observe the visual field image C and the ultrasonic image U taken at the inspection site where the subject P and the operator are located in almost real time.
  • an eye camera unit for photographing the operator's eyes on the HMD3 and an eye image representing the operator's eyes photographed by the eye camera unit are analyzed to blink and the line of sight of the operator.
  • an eye movement detection unit for detecting can be used, for example, as input operations of the operator.
  • the number of blinks of the operator, the position of the line of sight, etc. detected by the eye movement detection unit can be used as a trigger for the camera unit 33 to start and stop shooting the visual field image C.
  • the operator can perform the input operation without using the hands even if both hands are blocked during the examination of the subject P. be able to.
  • the ultrasonic probe 2 and the HMD 3 are connected to each other by wireless communication, for example, instead of the connection by wireless communication, they can be connected to each other by wired communication.
  • the external device 4 is a portable thin computer called a so-called smartphone or tablet, but the external device 4 is not limited to this.
  • a so-called notebook type personal computer, a stationary type personal computer, or the like can be used as the external device 4.
  • the transmission / reception circuit 22 has a beam former 54 together with the amplification unit 52 and the AD conversion unit 53, but the beam former 54 is not inside the transmission / reception circuit 22 but the transmission / reception circuit 22. It may be arranged between the signal processing unit 23 and the signal processing unit 23. In this case, the beam former 54 can also be configured by the probe-side processor 27.
  • external input information such as a cursor A that can be moved by an observer's input operation via the input device 47 of the external device 4 is transmitted to the external monitor 45 of the external device 4. It can be displayed simultaneously on the HMD side monitor 36 of the HMD3.
  • the cursor A displayed on the external monitor 45 of the external device 4 is moved by the input operation of the observer via the input device 47 of the external device 4, it is displayed on the HMD side monitor 36 of the HMD3.
  • the cursor A is also moved in the same manner. Thereby, for example, more detailed information sharing can be performed between the operator of the ultrasonic probe 2 and the HMD3A and the observer located in the vicinity of the external device 4A.
  • a highly skilled observer observing the ultrasonic image U and the field image C on the external monitor 45 of the external device 4A makes an ultrasonic probe for an operator with a low skill of the ultrasonic probe 2 and the HMD3A. It is possible to easily support the inspection performed by the operator, such as indicating the position where 2 should be scanned by using the cursor A.
  • the cursor A that can be moved by the input operation of the operator is moved to the outside of the HMD side monitor 36 of the HMD 3 and the external device 4. It can also be displayed on the monitor 45 at the same time.
  • a highly skilled operator can more easily and in detail educate a less skilled observer located in the vicinity of the external device 4A on ultrasonic diagnosis. ..
  • the shape of the cursor A is not limited to the arrow shape, and can have any shape such as a circular shape or a polygonal shape.
  • FIG. 8 shows the configuration of HMD3A in the modified example of the first embodiment of the present invention.
  • the HMD3A is the HMD3 shown in FIG. 1 in which a microphone 61 and a speaker 62 are added, an HMD control unit 37A is provided in place of the HMD control unit 37, and an HMD side processor 39A is provided in place of the HMD side processor 39. Is.
  • the microphone 61 and the speaker 62 are connected to the HMD side wireless communication unit 31.
  • FIG. 9 shows the configuration of the external device 4A in the modified example of the first embodiment of the present invention.
  • a microphone 63 and a speaker 64 are added, an external control unit 46A is provided instead of the external control unit 46, and an external device side processor is provided instead of the external device side processor 48. It is equipped with 48A.
  • the microphone 63 and the speaker 64 are connected to the external wireless communication unit 41.
  • voice data is transmitted and received bidirectionally between the HMD 3A and the external device 4A.
  • the operator of the ultrasonic probe 2 and the HMD3A emits a voice toward the HMD3A
  • the emitted voice is input to the microphone 61 of the HMD3A
  • the microphone 61 generates voice data.
  • the generated voice data is wirelessly transmitted from the HMD side wireless communication unit 31 to the external device 4A.
  • the external wireless communication unit 41 of the external device 4A receives the voice data wirelessly transmitted from the HMD 3A, and transmits the received voice data to the speaker 64.
  • the speaker 64 reproduces the voice emitted by the operator of the ultrasonic probe 2 and the HMD 3A based on the voice data received from the external wireless communication unit 41.
  • the emitted sound is the external device 4A. It is input to the microphone 63, and audio data is generated by the microphone 63.
  • the generated voice data is wirelessly transmitted from the external wireless communication unit 41 to the HMD3A.
  • the HMD side wireless communication unit 31 of the HMD 3A receives the voice data wirelessly transmitted from the external device 4A, and transmits the received voice data to the speaker 62.
  • the speaker 62 reproduces the voice emitted by the observer located in the vicinity of the external device 4 based on the voice data received from the HMD side wireless communication unit 31.
  • the operator of the ultrasonic probe 2 and the HMD3A and the observer located in the vicinity of the external device 4A can communicate with each other. More detailed information can be shared. For example, a highly skilled observer observing the ultrasonic image U and the visual field image C on the external monitor 45 of the external device 4A can more easily perform the less skilled operator of the ultrasonic probe 2 and the HMD3A. Moreover, it becomes possible to give detailed advice. Further, for example, it is possible for a highly skilled operator to more easily and in detail educate an observer with a low skill level located in the vicinity of the external device 4A on ultrasonic diagnosis.
  • the operator's voice input to the microphone 61 of the HMD3A can be used as the operator's input operation.
  • the HMD control unit 37A acquires instruction information by analyzing the voice data generated based on the operator's voice by the microphone 61, and the camera unit 33 captures the field image C according to the acquired instruction information. It is possible to control each part of the HMD3A, such as starting and stopping imaging.
  • the ultrasonic probe 2 can be controlled based on the voice data analyzed by the HMD control unit 37A.
  • the voice data analyzed by the HMD control unit 37A is wirelessly transmitted from the HMD side wireless communication unit 31 to the ultrasonic probe 2 as input information from the operator, and is transmitted via the probe side wireless communication unit 24.
  • the probe control unit 26 controls each part of the ultrasonic probe 2 based on the input information, for example, transmission start and transmission stop of ultrasonic waves by the vibrator array 21, shooting start and shooting stop of the visual field image C by the camera unit 33, and the like. can do.
  • the observer's voice input to the microphone 63 of the external device 4A can be used as the observer's input operation.
  • the external control unit 46A acquires instruction information by analyzing the sound data generated based on the observer's sound by the microphone 63, and the camera unit 33 of the head-mounted display 3A follows the acquired instruction information. Control of each part of the head-mounted display 3A such as start and stop of imaging of the field image C, and control of each part of the ultrasonic probe 2 such as start and stop of transmission of ultrasonic waves by the transducer array 21 of the ultrasonic probe 2. You can also do it.
  • Embodiment 2 In the first embodiment, in the ultrasonic probe 2, the received data before imaging in which the sound line signal is subjected to the envelope detection processing is generated, and the generated received data before imaging is the HMD 3 and the external device 4.
  • the ultrasonic image U is generated by the ultrasonic probe 2, and the generated ultrasonic image U can be wirelessly transmitted to the HMD 3 and the external device 4.
  • FIG. 10 shows the configuration of the ultrasonic system 1B according to the second embodiment of the present invention.
  • the ultrasonic system 1 is provided with an ultrasonic probe 2A instead of the ultrasonic probe 2, an HMD 3B instead of the HMD 3, and instead of the external device 4. Is equipped with an external device 4B.
  • the image processing unit 71 is added to the ultrasonic probe 2 in the first embodiment, the probe control unit 26B is provided instead of the probe control unit 26, and the probe side processor is provided instead of the probe side processor 27. It is equipped with 27B.
  • the image processing unit 71 is connected to the signal processing unit 23. Further, the probe side wireless communication unit 24 and the probe control unit 26B are connected to the image processing unit 71.
  • the signal processing unit 23 and the image processing unit 71 constitute an ultrasonic image generation unit.
  • the image processing unit 32 is removed, the HMD control unit 37B is provided in place of the HMD control unit 37, and the HMD side processor 39B is provided in place of the HMD side processor 39.
  • the display control unit 35 and the camera unit 33 are connected to the HMD side wireless communication unit 31.
  • the external device 4B of the first embodiment the image processing unit 42 is removed, the external control unit 46B is provided in place of the external control unit 46, and the external device side processor 48 is replaced by the external device side processor 48. It is equipped with 48B.
  • the image processing unit 71 of the ultrasonic probe 2B raster-converts the signal subjected to the envelope detection processing by the signal processing unit 23 into an image signal according to a normal television signal scanning method, and with respect to the converted image signal.
  • the display format for the HMD side monitor 36 of the HMD3B by performing various necessary image processing such as brightness correction, gradation correction, sharpness correction, image size correction, refresh rate correction, scanning frequency correction, and color correction.
  • the ultrasonic image U and the ultrasonic image U according to the format for the external monitor 45 of the external device 4B are generated.
  • the image processing unit 71 wirelessly transmits the ultrasonic image U according to the display format for the HMD side monitor 36 of the HMD3B from the probe side wireless communication unit 24 to the HMD3B, and the ultrasonic wave according to the format for the external monitor 45 of the external device 4B.
  • the image U is wirelessly transmitted from the probe side wireless communication unit 24 to the external device 4B.
  • the HMD-side wireless communication unit 31 of the HMD 3B receives the ultrasonic image U wirelessly transmitted from the ultrasonic probe 2B, and sends the received ultrasonic image U to the display control unit 35.
  • the display control unit 35 performs a predetermined process on the ultrasonic image U transmitted from the HMD side wireless communication unit 31, and then transmits the ultrasonic image U to the HMD side monitor 36, as shown in FIG. , The ultrasonic image U is displayed on the HMD side monitor 36.
  • the external wireless communication unit 41 of the external device 4B receives the ultrasonic image U wirelessly transmitted from the ultrasonic probe 2B and the field image C wirelessly transmitted from the HMD 3B, and images the received ultrasonic image U and the field image C. It is sent to the synchronization unit 43.
  • the image synchronization unit 43 synchronizes the ultrasonic image U and the visual field image C transmitted from the external wireless communication unit 41 with each other, and generates a composite image M based on the ultrasonic image U and the visual field image C synchronized with each other. To do.
  • the display control unit 44 performs a predetermined process on the composite image M generated by the image synchronization unit 43, then sends the composite image M to the external monitor 45, and as shown in FIG. 5, the external monitor 45 , The ultrasonic image U and the visual field image C synchronized with each other are displayed together.
  • the HMD 3 includes the image processing unit 32 even when the ultrasonic probe 2B includes the image processing unit 71.
  • the same ultrasonic image U is displayed on the HMD side monitor 36 and the external monitor 45 almost at the same time, and further, the same ultrasonic image U is displayed on the external monitor 45.
  • the field image C corresponding to the field in front of the operator of the ultrasonic probe 2B and the HMD3B is displayed in near real time.
  • an observer observing the field image C and the ultrasonic image U by an external device 4B located at a remote location can give advice to the operator of the ultrasonic probe 2B and the HMD 3B, which is appropriate.
  • Ultrasonic image U can be obtained, and the accuracy of ultrasonic diagnosis can be improved.
  • the HMD 3 is provided with the image processing unit 32 and the external device 4 is provided with the image processing unit 42, but the ultrasonic wave according to the second embodiment is provided.
  • the ultrasonic probe 2B is provided with the image processing unit 71, it is not necessary for the HMD 3B and the external device 4B to have the image processing units 32 and 42, respectively, and the internal configuration of the HMD 3B and the external device 4B is implemented. This is simplified as compared with the internal configuration of the HMD 3 and the external device 4 in the ultrasonic system 1 of the first embodiment. Therefore, according to the ultrasonic system 1B according to the second embodiment, it is possible to reduce the power consumption and the calculation load of the HMD 3B and the external device 4B as compared with the ultrasonic system 1 of the first embodiment.
  • Embodiment 3 In the first embodiment, the ultrasonic image U and the visual field image C are synchronized in the external device 4, but for example, the ultrasonic image U and the visual field image C can be synchronized in the HMD3.
  • FIG. 11 shows the configuration of the ultrasonic system 1C according to the third embodiment of the present invention.
  • the ultrasonic system 1 is provided with an ultrasonic probe 2C having the same internal configuration as the ultrasonic probe 2 in the ultrasonic system 1 of the first embodiment shown in FIG. 1, and is provided with an HMD3C instead of the HMD3, and is externally provided.
  • An external device 4C is provided instead of the device 4.
  • the ultrasonic probe 2C is connected only to the HMD3C by wireless communication, and the external device 4C is connected only to the HMD3C by wireless communication.
  • the HMD3C is the HMD3 according to the first embodiment, in which the image synchronization unit 34 is added, the HMD control unit 37C is provided instead of the HMD control unit 37, and the HMD side processor 39C is provided instead of the HMD side processor 39.
  • the image synchronization unit 34 is connected to the HMD side wireless communication unit 31, the image processing unit 32, and the camera unit 33. Further, a display control unit 35 is connected to the image synchronization unit 34.
  • the image processing unit 42 and the image synchronization unit 43 are removed, and the external device 4C is provided with the external control unit 46C instead of the external control unit 46, instead of the external device side processor 48. Is provided with an external device side processor 48C.
  • the display control unit 44 is connected to the external wireless communication unit 41.
  • the probe-side wireless communication unit 24 of the ultrasonic probe 2C wirelessly transmits the received data before imaging that has been envelope-detected by the signal processing unit 23 to only the HMD3C.
  • the HMD side wireless communication unit 31 of the HMD 3C receives the received data before imaging wirelessly transmitted from the ultrasonic probe 2C, and sends the received received data before imaging to the image processing unit 32.
  • the image processing unit 32 rasterly converts the received data before imaging transmitted from the HMD side wireless communication unit 31 into an image signal according to a normal television signal scanning method, and the converted image signal is brightened.
  • Ultrasonic waves that follow the display format for the HMD side monitor 36 of the HMD3B by performing various necessary image processing such as correction, gradation correction, sharpness correction, image size correction, refresh rate correction, scanning frequency correction, and color correction.
  • the image U and the ultrasonic image U according to the format for the external monitor 45 of the external device 4B are generated.
  • the image processing unit 32 sends an ultrasonic image U according to the display format for the HMD side monitor 36 of the HMD 3B to the display control unit 35 via the image synchronization unit 34, and is used for the external monitor 45 of the external device 4B.
  • the ultrasonic image U according to the format is sent to the image synchronization unit 34.
  • the display control unit 35 performs a predetermined process on the ultrasonic image U according to the display format for the HMD side monitor 36 transmitted from the image processing unit 32 via the image synchronization unit 34, and then shows FIG. As shown, the ultrasonic image U is displayed on the HMD side monitor 36.
  • the camera unit 33 acquires a visual field image C that captures the scanning portion of the ultrasonic probe 2C in the subject P, and sends the acquired visual field image C to the image synchronization unit 34.
  • the image synchronization unit 34 synchronizes the ultrasonic image U sent from the image processing unit 32 and the field image C sent from the camera unit 33 with each other, and is based on the ultrasonic image U and the field image C synchronized with each other.
  • the image synchronization unit 34 sends the composite image M generated based on the ultrasonic image U and the field image C according to the display format for the external monitor 45 of the external device 4C to the HMD side wireless communication unit 31.
  • the HMD side wireless communication unit 31 wirelessly transmits the composite image M transmitted from the image synchronization unit 34 to the external device 4C.
  • the external wireless communication unit 41 of the external device 4C receives the composite image M wirelessly transmitted from the HMD3C, and sends the received composite image M to the display control unit 44.
  • the display control unit 44 performs a predetermined process on the composite image M sent from the external wireless communication unit 41, then sends the composite image M to the external monitor 45, and as shown in FIG. 5, the external monitor 45 In, the ultrasonic image U and the visual field image C synchronized with each other are displayed together.
  • the HMD 3 provides the image processing unit 32. Similar to the ultrasonic system 1 of the first embodiment in which the external device 4 includes the image processing unit 42 and the image synchronization unit 43, the same ultrasonic image U is displayed on the HMD side monitor 36 and the external monitor 45 almost at the same time. Further, the external monitor 45 displays the field image C corresponding to the field in front of the operator of the ultrasonic probe 2C and the HMD3C in almost real time.
  • an observer observing the field image C and the ultrasonic image U by an external device 4C located at a remote location can give advice to the operator of the ultrasonic probe 2C and the HMD3C, which is appropriate.
  • Ultrasonic image U can be obtained, and the accuracy of ultrasonic diagnosis can be improved.
  • the external device 4 is provided with an image processing unit 42 and an image synchronization unit 43, but in the ultrasonic system 1C according to the third embodiment, the HMD3C is provided. Since the composite image M generated based on the ultrasonic image U and the field image C is wirelessly transmitted to the external device 4C, the external device 4C does not need to have the image processing unit 42 and the image synchronization unit 43, and the external device 4C does not need to have the image processing unit 42 and the image synchronization unit 43.
  • the internal configuration of the 4C is simpler than the internal configuration of the external device 4 in the first embodiment. Therefore, according to the ultrasonic system 1C according to the third embodiment, it is possible to reduce the power consumption and the calculation load of the external device 4C.
  • Embodiment 4 In the third embodiment, the received data before imaging, which has been subjected to the envelope detection process by the signal processing unit 23 of the ultrasonic probe 2, is wirelessly transmitted to the HMD 3 and the external device 4, but the ultrasonic probe 2 uses ultrasonic waves.
  • the image U can also be generated.
  • FIG. 12 shows the configuration of the ultrasonic system 1D according to the fourth embodiment of the present invention.
  • the ultrasonic system 1D is the ultrasonic system 1C of the third embodiment shown in FIG. 11, in which the ultrasonic probe 2D is provided instead of the ultrasonic probe 2C, the HMD3D is provided instead of the HMD3C, and the external device 4C is replaced. Is equipped with an external device 4D.
  • the ultrasonic probe 2D is connected only to the HMD3D by wireless communication, and the external device 4D is connected only to the HMD3D by wireless communication.
  • the image processing unit 81 is added to the ultrasonic probe 2C according to the third embodiment, the probe control unit 26D is provided instead of the probe control unit 26, and the probe side processor is provided instead of the probe side processor 27. It is equipped with 27D.
  • the image processing unit 81 is connected to the signal processing unit 23, and the probe-side wireless communication unit 24 and the probe control unit 26D are connected to the image processing unit 81.
  • the signal processing unit 23 and the image processing unit 81 constitute an ultrasonic image generation unit.
  • the image processing unit 32 is removed, the HMD control unit 37D is provided in place of the HMD control unit 37C, and the HMD side processor 39D is provided in place of the HMD side processor 39C.
  • the image synchronization unit 34 is connected to the HMD side wireless communication unit 31. Further, the camera unit 33 is connected to the image synchronization unit 34.
  • the external device 4D is the external device 4C according to the third embodiment, in which the external control unit 46D is provided instead of the external control unit 46C, and the external device side processor 48D is provided instead of the external device side processor 48C. ..
  • the image processing unit 81 of the ultrasonic probe 2D rasterly converts the signal subjected to the envelope detection processing by the signal processing unit 23 into an image signal according to a normal television signal scanning method, and the converted image signal is subjected to raster conversion.
  • the display format for the HMD side monitor 36 of HMD3D by performing various necessary image processing such as brightness correction, gradation correction, sharpness correction, image size correction, refresh rate correction, scanning frequency correction and color correction.
  • the ultrasonic image U and the ultrasonic image U according to the format for the external monitor 45 of the external device 4D are generated. Further, the image processing unit 81 sends the generated ultrasonic image U to the probe side wireless communication unit 24.
  • the probe-side wireless communication unit 24 wirelessly transmits the ultrasonic image U transmitted from the image processing unit 81 to the HMD3D.
  • the HMD side wireless communication unit 31 receives the ultrasonic image U wirelessly transmitted from the ultrasonic probe 2D. Further, the HMD side wireless communication unit 31 sends an ultrasonic image U according to the display format for the HMD side monitor 36 to the display control unit 35 via the image synchronization unit 34, and the ultrasonic wave according to the format for the external monitor 45.
  • the image U is sent to the image synchronization unit 34.
  • the display control unit 35 performs a predetermined process on the ultrasonic image U transmitted from the HMD side wireless communication unit 31 via the image synchronization unit 34, and then, as shown in FIG. 4, the ultrasonic image. U is displayed on the HMD side monitor 36.
  • the camera unit 33 acquires a visual field image C that captures the scanning portion of the ultrasonic probe 2D in the subject P, and sends the acquired visual field image C to the image synchronization unit 34.
  • the image synchronization unit 34 synchronizes the ultrasonic image U transmitted from the HMD-side wireless communication unit 31 and the field image C transmitted from the camera unit 33 with each other, and creates the ultrasonic image U and the field image C synchronized with each other. Based on this, a composite image M is generated.
  • the image synchronization unit 34 sends a composite image M generated based on the ultrasonic image U and the field image C according to the format for the external monitor 45 synchronized with each other to the HMD side wireless communication unit 31.
  • the HMD side wireless communication unit 31 wirelessly transmits the composite image M transmitted from the image synchronization unit 34 to the external device 4D.
  • the external wireless communication unit 41 of the external device 4D receives the composite image M wirelessly transmitted from the HMD3D, and sends the received composite image M to the display control unit 44.
  • the display control unit 44 performs a predetermined process on the composite image M sent from the external wireless communication unit 41, then sends the composite image M to the external monitor 45, and as shown in FIG. 5, the external monitor 45 In, the ultrasonic image U and the visual field image C synchronized with each other are displayed together.
  • the HMD3C is provided. Is provided with the image processing unit 32 and the external device 4 is provided with the image processing unit 42 and the image synchronization unit 43. Similar to the ultrasonic system 1 of the first embodiment, the HMD side monitor 36 and the external monitor 45 are substantially the same ultrasonic system at the same time.
  • the ultrasonic image U is displayed, and further, the field image C corresponding to the field in front of the operator of the ultrasonic probe 2C and the HMD3C is displayed on the external monitor 45 in almost real time.
  • an observer observing the field image C and the ultrasonic image U by an external device 4D located at a remote location can give advice to the operator of the ultrasonic probe 2D and the HMD3D, which is appropriate.
  • Ultrasonic image U can be obtained, and the accuracy of ultrasonic diagnosis can be improved.
  • Embodiment 5 In the third embodiment, since the external device 4C receives the composite image M from the HMD3C and displays the received composite image M on the external monitor 45, the ultrasonic image U and the visual field image displayed on the external monitor 45. Although the arrangement and size of C could not be freely changed on the external device 4C side, according to the ultrasonic diagnostic apparatus 1E of the fifth embodiment shown in FIG. 13, the ultrasonic waves displayed on the external monitor 45. The arrangement and size of the image U and the field image C can be arbitrarily changed on the external device 4E side.
  • FIG. 13 shows the configuration of the ultrasonic system 1E according to the fifth embodiment of the present invention.
  • the ultrasonic system 1E is provided with the ultrasonic probe 2E having the same internal configuration as the ultrasonic probe 2C in the ultrasonic system 1C of the third embodiment, and is provided with the HMD3E instead of the HMD3C, instead of the external device 4C. Is equipped with an external device 4E.
  • the ultrasonic probe 2E is connected only to the HMD3E by wireless communication, and the external device 4E is connected only to the HMD3E by wireless communication.
  • the HMD3E is the HMD3C according to the third embodiment, in which the HMD control unit 37E is provided instead of the HMD control unit 37, and the HMD side processor 39E is provided instead of the HMD side processor 39.
  • the image synchronization unit 34 is connected to the HMD side wireless communication unit 31, the image processing unit 32, and the camera unit 33, and the display control unit 35 is connected to the image synchronization unit 34.
  • the external device 4E is the external device 4C according to the third embodiment, in which the external control unit 46E is provided instead of the external control unit 46, and the external device side processor 48E is provided instead of the external device side processor 48. ..
  • the probe-side wireless communication unit 24 of the ultrasonic probe 2E wirelessly transmits the received data before imaging that has been envelope-detected by the signal processing unit 23 to the HMD3E.
  • the HMD side wireless communication unit 31 of the HMD 3E receives the received data before imaging wirelessly transmitted from the ultrasonic probe 2E, and sends the received received data before imaging to the image processing unit 32.
  • the image processing unit 32 uses the ultrasonic image U according to the format for the HMD side monitor 36 of the HMD 3E and the external monitor 45 of the external device 4E based on the received data before imaging sent from the HMD side wireless communication unit 31. Generates an ultrasonic image U according to the display format. Further, the image processing unit 32 sends the ultrasonic image U according to the format for the HMD side monitor 36 to the display control unit 35 via the image synchronization unit 34, and the ultrasonic image U according to the format for the HMD side monitor 36. Is sent to the image synchronization unit 34.
  • the display control unit 35 performs a predetermined process on the ultrasonic image U transmitted from the image processing unit 32 via the image synchronization unit 34, and then displays the ultrasonic image U as shown in FIG. It is displayed on the HMD side monitor 36.
  • the camera unit 33 acquires a visual field image C that captures the scanning portion of the ultrasonic probe 2E in the subject P, and sends the acquired visual field image C to the image synchronization unit 34.
  • the image synchronization unit 34 synchronizes the ultrasonic image U transmitted from the HMD side wireless communication unit 31 and the field image C transmitted from the camera unit 33 with each other.
  • the image synchronization unit 34 produces the ultrasonic image U and the visual field image C without generating one composite image M based on the ultrasonic image U and the visual field image C according to the format for the external monitor 45 synchronized with each other. , Each of which is transmitted to the HMD side wireless communication unit 31.
  • the HMD side wireless communication unit 31 wirelessly transmits the ultrasonic image U and the visual field image C transmitted from the image synchronization unit 34 to the external device 4E.
  • the external wireless communication unit 41 of the external device 4E receives the ultrasonic image U and the visual field image C wirelessly transmitted from the HMD3E, and sends the received ultrasonic image U and the visual field image C to the display control unit 44, respectively.
  • the display control unit 44 performs predetermined processing on the ultrasonic image U and the visual field image C transmitted from the external wireless communication unit 41, and the external monitor 45 displays the ultrasonic image U and the visual field image C synchronized with each other. Display together.
  • the arrangement and size of the ultrasonic image U and the visual field image C displayed on the external monitor 45 can be adjusted by an observer's input operation via the input device 47.
  • the input instruction information is input to the external control unit 46E. Is input to the display control unit 44 via.
  • the display control unit 44 displays the ultrasonic image U and the visual field image C synchronized with each other based on the input instruction information, for example, by the arrangement and size as shown in FIG.
  • the external device 4E, the ultrasonic image U, and the field image C are rotated by 90 degrees as compared with the example shown in FIG. 5, and the field image C is superimposed on a part of the ultrasonic image U.
  • the ultrasonic image U and the visual field image C are displayed on the external monitor 45.
  • the arrangement and size of the ultrasonic image U and the field image C displayed on the external monitor 45 of the external device 4E can be adjusted.
  • An observer observing the ultrasonic image U and the field image C displayed on the monitor 45 can confirm the ultrasonic image U and the field image C more clearly according to his / her preference.
  • Embodiment 6 In the fifth embodiment, the received data before imaging, which has been subjected to the envelope detection process by the signal processing unit 23, is wirelessly transmitted to the HMD3E by the probe-side wireless communication unit 24, but the ultrasonic probe 2 uses ultrasonic waves.
  • the image U can also be generated.
  • FIG. 15 shows the configuration of the ultrasonic system 1F according to the sixth embodiment of the present invention.
  • the ultrasonic system 1F is provided with the ultrasonic probe 2F instead of the ultrasonic probe 2E, the HMD3F instead of the HMD3E, and the external device 4E. Instead, an external device 4F is provided.
  • the ultrasonic probe 2F is connected only to the HMD3F by wireless communication, and the external device 4F is connected only to the HMD3F by wireless communication.
  • the image processing unit 91 is added to the ultrasonic probe 2E according to the fifth embodiment, the probe control unit 26E is provided instead of the probe control unit 26, and the probe side processor is provided instead of the probe side processor 27. It is equipped with 27E.
  • the image processing unit 91 is connected to the signal processing unit 23, and the probe-side wireless communication unit 24 and the probe control unit 26F are connected to the image processing unit 91.
  • the signal processing unit 23 and the image processing unit 91 constitute an ultrasonic image generation unit.
  • the image processing unit 32 is removed, the HMD control unit 37F is provided in place of the HMD control unit 37E, and the HMD side processor 39F is provided in place of the HMD side processor 39E.
  • the image synchronization unit 34 is connected to the HMD side wireless communication unit 31. Further, the camera unit 33 is connected to the image synchronization unit 34.
  • the external device 4F is the external device 4E according to the fifth embodiment, in which the external control unit 46F is provided instead of the external control unit 46E, and the external device side processor 48F is provided instead of the external device side processor 48E. ..
  • the image processing unit 91 of the ultrasonic probe 2F rasterly converts the signal subjected to the envelope detection processing by the signal processing unit 23 into an image signal according to a normal television signal scanning method, and the converted image signal is subjected to raster conversion.
  • the display format for the HMD side monitor 36 of the HMD3F by performing various necessary image processing such as brightness correction, gradation correction, sharpness correction, image size correction, refresh rate correction, scanning frequency correction, and color correction.
  • the ultrasonic image U and the ultrasonic image U according to the format for the external monitor 45 of the external device 4F are generated. Further, the image processing unit 91 sends the generated ultrasonic image U to the probe side wireless communication unit 24.
  • the HMD side wireless communication unit 31 receives the ultrasonic image U wirelessly transmitted from the ultrasonic probe 2F. Further, the HMD side wireless communication unit 31 sends an ultrasonic image U according to the display format for the HMD side monitor 36 to the display control unit 35 via the image synchronization unit 34, and the ultrasonic wave according to the format for the external monitor 45. The image U is sent to the image synchronization unit 34. The display control unit 35 performs a predetermined process on the ultrasonic image U transmitted from the HMD side wireless communication unit 31 via the image synchronization unit 34, and then, as shown in FIG. 4, the ultrasonic image. U is displayed on the HMD side monitor 36.
  • the camera unit 33 acquires a visual field image C that captures the scanning portion of the ultrasonic probe 2F in the subject P, and sends the acquired visual field image C to the image synchronization unit 34.
  • the image synchronization unit 34 synchronizes the ultrasonic image U transmitted from the HMD side wireless communication unit 31 and the field image C transmitted from the camera unit 33 with each other.
  • the image synchronization unit 34 produces the ultrasonic image U and the visual field image C without generating one composite image M based on the ultrasonic image U and the visual field image C according to the format for the external monitor 45 synchronized with each other. , Each of which is transmitted to the HMD side wireless communication unit 31.
  • the HMD side wireless communication unit 31 wirelessly transmits the ultrasonic image U and the visual field image C transmitted from the image synchronization unit 34 to the external device 4F.
  • the external wireless communication unit 41 of the external device 4F receives the ultrasonic image U and the visual field image C wirelessly transmitted from the HMD 3F, and sends the received ultrasonic image U and the visual field image C to the display control unit 44, respectively.
  • the display control unit 44 performs predetermined processing on the ultrasonic image U and the visual field image C transmitted from the external wireless communication unit 41, and the ultrasonic image U and the visual field image C synchronized with each other on the external monitor 45. To be displayed together.
  • the display control unit 44 can adjust the arrangement and size of the ultrasonic image U and the visual field image C displayed on the external monitor 45 according to the input operation of the observer via the input device 47. As a result, for example, as shown in FIG. 14, the ultrasonic image U and the visual field image C synchronized with each other are displayed together on the external monitor 45.
  • the ultrasonic system 1F according to the sixth embodiment of the present invention, even when the ultrasonic probe 2F includes the image processing unit 91, it is displayed on the external monitor 45 of the external device 4F. Since the arrangement and size of the ultrasonic image U and the field image C can be adjusted, the observer observing the ultrasonic image U and the field image C displayed on the external monitor 45 can more clearly superimpose the ultrasonic image U and the field image C according to his / her preference. The ultrasonic image U and the field image C can be confirmed.

Landscapes

  • Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Engineering & Computer Science (AREA)
  • Radiology & Medical Imaging (AREA)
  • Heart & Thoracic Surgery (AREA)
  • Veterinary Medicine (AREA)
  • Public Health (AREA)
  • Biophysics (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Physics & Mathematics (AREA)
  • Medical Informatics (AREA)
  • Molecular Biology (AREA)
  • Surgery (AREA)
  • Animal Behavior & Ethology (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Gynecology & Obstetrics (AREA)
  • Ultra Sonic Daignosis Equipment (AREA)

Abstract

超音波システム(1)は、超音波プローブ(2)とヘッドマウントディスプレイ(3)と外部装置(4)とを備え、超音波プローブ(2)は、音線信号に基づいて画像化前の受信データを生成する受信データ生成部と、受信データを無線送信するプローブ側無線通信部(24)とを含み、ヘッドマウントディスプレイ(3)は、視野画像を取得するカメラ部(33)と、視野画像を無線送信するヘッドマウントディスプレイ側無線通信部(31)とを含み、外部装置(4)は、外部無線通信部(41)と、外部モニタ(45)と、受信データに基づいて生成された超音波画像とを外部モニタ(45)に表示する表示制御部(44)とを含む。

Description

超音波システムおよび超音波システムの制御方法
 本発明は、超音波システムおよび超音波システムの制御方法に係り、特に、ヘッドマウントディスプレイに超音波画像を表示する超音波システムおよび超音波システムの制御方法に関する。
 従来から、医療分野において、超音波画像を利用した超音波診断装置が実用化されている。一般に、この種の超音波診断装置は、振動子アレイを内蔵した超音波プローブと、この超音波プローブに接続された装置本体とを有しており、超音波プローブから被検体に向けて超音波を送信し、被検体からの超音波エコーを超音波プローブで受信し、その受信信号を装置本体で電気的に処理することにより超音波画像が生成される。
 このような超音波診断装置において、超音波画像が表示されるモニタは、通常、ベッドサイド等、超音波プローブから離れた位置に配置されることが多いため、操作者は、手元の超音波プローブとモニタとの間で交互に視線を移動する必要がある。そこで、操作者の視線の移動を軽減させるために、例えば、特許文献1に開示されているような、いわゆるヘッドマウントディスプレイを備えた超音波診断装置が開発されている。
特開2011-183056号公報
 一般的に、特許文献1に開示されるような超音波診断装置を用いた超音波診断において、超音波画像を確認することにより超音波画像に描出されている被検体内の部位を正確に把握するためには、一定以上の熟練度が必要であることが知られている。また、生成される超音波画像の画質は、操作者の手技に大きく左右されることが知られている。
 ここで、例えば、在宅看護等、病院外の遠隔地において超音波画像が撮影される場合には、超音波プローブを操作して超音波画像を撮影する操作者と、撮影された超音波画像を観察して診断を行う医師等の観察者が異なることがある。
 この際に、操作者は、通常、得られた超音波画像を自分で確認しながら超音波プローブを操作して、目的とする被検体内の部位の超音波画像を撮影する必要があるため、特に、操作者の熟練度が低い場合には、操作者は、目的とする被検体の部位を正確に観察できているか否かを判断することが困難なことがあった。また、熟練度の低い操作者は、適切な手技を用いて超音波プローブを操作できない場合があり、画質の低い超音波画像が得られてしまうことがあった。また、観察者は、超音波診断装置の操作者が撮影した超音波画像を確認して診断を行うことになるが、操作者が超音波画像を撮影する様子を把握できないため、特に、熟練度の低い操作者により超音波画像が撮影された場合に、撮影された超音波画像が適切な手技により撮影されたものであるか否かを正確に判断することが困難なことがあった。
 本発明は、このような従来の問題点を解消するためになされたものであり、遠隔地において超音波画像が撮影される場合であっても、適切な超音波画像が得られ且つ超音波診断の精度を向上することができる超音波システムおよび超音波システムの制御方法を提供することを目的とする。
 上記目的を達成するために、本発明に係る第1の超音波システムは、超音波プローブとヘッドマウントディスプレイと外部装置とを備える超音波システムであって、超音波プローブは、振動子アレイと、振動子アレイから超音波を送信し且つ振動子アレイにより取得された受信信号に基づいて音線信号を生成する送受信回路と、送受信回路により生成された音線信号に基づいて超音波画像を生成する超音波画像生成部と、超音波画像を無線送信するプローブ側無線通信部とを含み、ヘッドマウントディスプレイは、被検体における超音波プローブの走査箇所を撮像した視野画像を取得するカメラ部と、カメラ部により取得された視野画像を無線送信するヘッドマウントディスプレイ側無線通信部とを含み、外部装置は、少なくともヘッドマウントディスプレイ側無線通信部に無線接続された外部無線通信部と、外部モニタと、超音波プローブから無線送信された超音波画像とヘッドマウントディスプレイから無線送信された視野画像とを外部モニタに表示する表示制御部とを含むことを特徴とする。
 外部無線通信部は、プローブ側無線通信部およびヘッドマウントディスプレイ側無線通信部の双方に無線接続され、プローブ側無線通信部は、超音波画像をヘッドマウントディスプレイおよび外部装置の双方に無線送信することができる。
 また、プローブ側無線通信部は、超音波画像をヘッドマウントディスプレイに無線送信し、ヘッドマウントディスプレイ側無線通信部は、プローブ側無線通信部から無線送信された超音波画像とカメラ部により取得された視野画像とを外部装置に無線送信することもできる。
 外部装置は、超音波画像と視野画像とを互いに同期させる画像同期部を含むことが好ましい。
 また、ヘッドマウントディスプレイは、ヘッドマウントディスプレイ側モニタを含み、超音波画像がヘッドマウントディスプレイ側モニタに表示されることもできる。
 この際に、ヘッドマウントディスプレイは、超音波画像と視野画像とを互いに同期させる画像同期部を含むことが好ましい。
 また、外部装置は、入力装置を含み、外部無線通信部は、入力装置を介して入力された外部入力情報をヘッドマウントディスプレイ側無線通信部に無線送信し、外部入力情報がヘッドマウントディスプレイ側モニタに表示されることもできる。
 また、ヘッドマウントディスプレイ側無線通信部と外部無線通信部との間において音声データを双方向に無線通信することができる。
 本発明に係る第1の超音波システムの制御方法は、超音波プローブとヘッドマウントディスプレイと外部装置とを備える超音波システムの制御方法であって、超音波プローブにおいて、超音波プローブの振動子アレイから超音波を送信し且つ振動子アレイにより取得された受信信号に基づいて音線信号を生成し、生成された音線信号に基づいて超音波画像を生成し、超音波画像を無線送信し、ヘッドマウントディスプレイにおいて、被検体における超音波プローブの走査箇所を撮像した視野画像を取得し、取得された視野画像を無線送信し、外部装置において、超音波プローブから無線送信された超音波画像とヘッドマウントディスプレイから無線送信された視野画像とを外部モニタに表示することを特徴とする。
 本発明に係る第2の超音波システムは、超音波プローブとヘッドマウントディスプレイと外部装置とを備える超音波システムであって、超音波プローブは、振動子アレイと、振動子アレイから超音波を送信し且つ振動子アレイにより取得された受信信号に基づいて音線信号を生成する送受信回路と、送受信回路により生成された音線信号に信号処理を施すことにより画像化前の受信データを生成する受信データ生成部と、受信データを無線送信するプローブ側無線通信部とを含み、ヘッドマウントディスプレイは、被検体における超音波プローブの走査箇所を撮像した視野画像を取得するカメラ部と、カメラ部により取得された視野画像を無線送信するヘッドマウントディスプレイ側無線通信部とを含み、外部装置は、少なくともヘッドマウントディスプレイ側無線通信部に無線接続された外部無線通信部と、外部モニタと、超音波プローブから無線送信された受信データに基づいて生成された超音波画像とヘッドマウントディスプレイから無線送信された視野画像とを外部モニタに表示する表示制御部とを含むことを特徴とする。
 外部無線通信部は、プローブ側無線通信部および前記ヘッドマウントディスプレイ側無線通信部の双方に無線接続され、プローブ側無線通信部は、受信データをヘッドマウントディスプレイおよび外部装置の双方に無線送信することができる。
 また、プローブ側無線通信部は、受信データをヘッドマウントディスプレイに無線送信し、ヘッドマウントディスプレイ側無線通信部は、プローブ側無線通信部から無線送信された受信データとカメラ部により取得された視野画像とを外部装置に無線送信することもできる。
 外部装置は、プローブ側無線通信部から無線送信された受信データに基づいて超音波画像を生成する画像処理部を含むことができる。
 また、プローブ側無線通信部は、受信データをヘッドマウントディスプレイに無線送信し、ヘッドマウントディスプレイは、プローブ側無線通信部から無線送信された受信データに基づいて超音波画像を生成する画像処理部を含み、ヘッドマウントディスプレイ側無線通信部は、画像処理部により生成された超音波画像とカメラ部により取得された視野画像とを外部装置に無線送信することもできる。
 外部装置は、超音波画像と視野画像とを互いに同期させる画像同期部を含むことが好ましい。
 また、ヘッドマウントディスプレイは、ヘッドマウントディスプレイ側モニタを含み、超音波画像がヘッドマウントディスプレイ側モニタに表示されることもできる。
 この際に、ヘッドマウントディスプレイは、超音波画像と視野画像とを互いに同期させる画像同期部を含むことが好ましい。
 また、外部装置は、入力装置を含み、外部無線通信部は、入力装置を介して入力された外部入力情報をヘッドマウントディスプレイ側無線通信部に無線送信し、外部入力情報がヘッドマウントディスプレイ側モニタに表示されることもできる。
 また、ヘッドマウントディスプレイ側無線通信部と外部無線通信部との間において音声データを双方向に無線通信することができる。
 本発明に係る第2の超音波システムの制御方法は、超音波プローブとヘッドマウントディスプレイと外部装置とを備える超音波システムの制御方法であって、超音波プローブにおいて、超音波プローブの振動子アレイから超音波を送信し且つ振動子アレイにより取得された受信信号に基づいて音線信号を生成し、生成された音線信号に信号処理を施すことにより画像化前の受信データを生成し、受信データを無線送信し、ヘッドマウントディスプレイにおいて、被検体における超音波プローブの走査箇所を撮像した視野画像を取得し、取得された視野画像を無線送信し、外部装置において、超音波プローブから無線送信された受信データに基づいて生成された超音波画像とヘッドマウントディスプレイから無線送信された視野画像とを外部モニタに表示することを特徴とする。
 本発明によれば、超音波プローブが、超音波画像を生成する超音波画像生成部と、超音波画像を無線送信するプローブ側無線通信部とを含み、ヘッドマウントディスプレイが、超音波プローブの走査箇所を撮像した視野画像を取得するカメラ部と、カメラ部により取得された視野画像を無線送信するヘッドマウントディスプレイ側無線通信部とを含み、外部装置が、少なくともヘッドマウントディスプレイ側無線通信部に無線接続された外部無線通信部と、外部モニタと、超音波プローブから無線送信された超音波画像とヘッドマウントディスプレイから無線送信された視野画像とを外部モニタに表示する表示制御部とを含むため、遠隔地において超音波画像が撮影される場合であっても、適切な超音波画像が得られ且つ超音波診断の精度を向上することができる。
本発明の実施の形態1に係る超音波システムの構成を示すブロック図である。 本発明の実施の形態1における送受信回路の内部構成を示すブロック図である。 本発明の実施の形態1におけるHMDの例を示す図である。 本発明の実施の形態1におけるHMDのHMD側モニタに表示される超音波画像を模式的に示す図である。 本発明の実施の形態1における外部装置の例を模式的に示す図である。 本発明の実施の形態1の変形例における外部モニタにおいて視野画像上に表示されたカーソルの例を模式的に示す図である。 本発明の実施の形態1の変形例におけるHMD側モニタにおいて表示されたカーソルの例を模式的に示す図である。 本発明の実施の形態1の他の変形例におけるHMDの構成を示すブロック図である。 本発明の実施の形態1の他の変形例における外部装置の構成を示すブロック図である。 本発明の実施の形態2に係る超音波システムの構成を示すブロック図である。 本発明の実施の形態3に係る超音波システムの構成を示すブロック図である。 本発明の実施の形態4に係る超音波システムの構成を示すブロック図である。 本発明の実施の形態5に係る超音波システムの構成を示すブロック図である。 本発明の実施の形態5における外部装置に表示される超音波画像と視野画像の例を模式的に示す図である。 本発明の実施の形態6に係る超音波システムの構成を示すブロック図である。
 以下、この発明の実施の形態を添付図面に基づいて説明する。
 以下に記載する構成要件の説明は、本発明の代表的な実施態様に基づいてなされるが、本発明はそのような実施態様に限定されるものではない。
 なお、本明細書において、「~」を用いて表される数値範囲は、「~」の前後に記載される数値を下限値および上限値として含む範囲を意味する。
 本明細書において、「同一」、「同じ」は、技術分野で一般的に許容される誤差範囲を含むものとする。
実施の形態1
 図1に、本発明の実施の形態1に係る超音波システム1の構成を示す。超音波システム1は、超音波プローブ2とHMD(Head Mounted Display:ヘッドマウントディスプレイ)3と外部装置4とを備えている。超音波プローブ2に、HMD3および外部装置4が無線通信により接続されており、HMD3と外部装置4は、無線通信により互いに接続されている。
 超音波プローブ2は、振動子アレイ21を備えており、振動子アレイ21に送受信回路22、信号処理部23およびプローブ側無線通信部24が順次接続されている。プローブ側無線通信部24は、HMD3および外部装置4に無線通信により接続されている。また、図示しないが、信号処理部23により、受信データ生成部が構成されている。
 また、送受信回路22、信号処理部23およびプローブ側無線通信部24に、プローブ制御部26が接続されている。また、信号処理部23、プローブ側無線通信部24およびプローブ制御部26により、プローブ側プロセッサ27が構成されている。
 HMD3は、超音波プローブ2および外部装置4に無線通信により接続されるHMD側無線通信部31を備えており、HMD側無線通信部(ヘッドマウントディスプレイ側無線通信部)31に、画像処理部32、表示制御部35、HMD側モニタ(ヘッドマウントディスプレイ側モニタ)36が順次接続されている。また、HMD3は、カメラ部33を備えており、カメラ部33は、HMD側無線通信部31に接続されている。
 また、HMD側無線通信部31、画像処理部32、カメラ部33、表示制御部35に、HMD制御部(ヘッドマウントディスプレイ制御部)37が接続されている。また、HMD側無線通信部31、画像処理部32、表示制御部35およびHMD制御部37により、HMD側プロセッサ(ヘッドマウントディスプレイ側プロセッサ)39が構成されている。
 外部装置4は、超音波プローブ2およびHMD3に無線通信により接続される外部無線通信部41を備えており、外部無線通信部41に、画像処理部42および画像同期部43が接続されている。また、画像処理部42は、画像同期部43に接続されている。また、画像同期部43に、表示制御部44と外部モニタ45が順次接続されている。
 また、外部無線通信部41、画像処理部42、画像同期部43および表示制御部44に、外部制御部46が接続されている。また、外部制御部46に、入力装置47が接続されている。また、外部無線通信部41、画像処理部42、画像同期部43、表示制御部44および外部制御部46により、外部装置側プロセッサ48が構成されている。
 超音波プローブ2の振動子アレイ21は、1次元または2次元に配列された複数の振動子を有している。これらの振動子は、それぞれ送受信回路22から供給される駆動信号に従って超音波を送信すると共に、被検体からの超音波エコーを受信して、超音波エコーに基づく受信信号を出力する。各振動子は、例えば、PZT(Lead Zirconate Titanate:チタン酸ジルコン酸鉛)に代表される圧電セラミック、PVDF(Poly Vinylidene Di Fluoride:ポリフッ化ビニリデン)に代表される高分子圧電素子およびPMN-PT(Lead Magnesium Niobate-Lead Titanate:マグネシウムニオブ酸鉛-チタン酸鉛固溶体)に代表される圧電単結晶等からなる圧電体の両端に電極を形成することにより構成される。
 送受信回路22は、プローブ制御部26による制御の下で、振動子アレイ21から超音波を送信し且つ振動子アレイ21により取得された受信信号に基づいて音線信号を生成する。送受信回路22は、図2に示すように、振動子アレイ21に接続されるパルサ51と、振動子アレイ21から順次直列に接続される増幅部52、AD(Analog Digital)変換部53、ビームフォーマ54を有している。
 パルサ51は、例えば、複数のパルス発生器を含んでおり、プローブ制御部26からの制御信号に応じて選択された送信遅延パターンに基づいて、振動子アレイ21の複数の振動子から送信される超音波が超音波ビームを形成するようにそれぞれの駆動信号を、遅延量を調節して複数の振動子に供給する。このように、振動子アレイ21の振動子の電極にパルス状または連続波状の電圧が印加されると、圧電体が伸縮し、それぞれの振動子からパルス状または連続波状の超音波が発生して、それらの超音波の合成波から、超音波ビームが形成される。
 送信された超音波ビームは、例えば、被検体の部位等の対象において反射され、超音波プローブ2の振動子アレイ21に向かって伝搬する。このように振動子アレイ21に向かって伝搬する超音波エコーは、振動子アレイ21を構成するそれぞれの振動子は、伝搬する超音波エコーを受信することにより伸縮して、電気信号である受信信号を発生させ、これらの受信信号を増幅部52に出力する。
 増幅部52は、振動子アレイ21を構成するそれぞれの振動子から入力された信号を増幅し、増幅した信号をAD変換部53に送信する。AD変換部53は、増幅部52から送信された信号をデジタルの受信データに変換し、これらの受信データをビームフォーマ54に送信する。ビームフォーマ54は、プローブ制御部26からの制御信号に応じて選択された受信遅延パターンに基づいて設定される音速または音速の分布に従い、AD変換部53により変換された各受信データに対してそれぞれの遅延を与えて加算することにより、いわゆる受信フォーカス処理を行う。この受信フォーカス処理により、AD変換部53で変換された各受信データが整相加算され且つ超音波エコーの焦点が絞り込まれた音線信号が取得される。
 信号処理部23は、送受信回路22のビームフォーマ54により生成された音線信号に信号処理を施すことにより、画像化前の受信データを生成する。より具体的には、信号処理部23は、送受信回路22のビームフォーマ54により生成された音線信号に対して、超音波が反射した位置の深度に応じて伝搬距離に起因する減衰の補正を施した後、包絡線検波処理を施して、画像化前の受信データとして、被検体内の組織に関する断層画像情報を表す信号を生成する。
 プローブ側無線通信部24は、電波の送信および受信を行うためのアンテナを含んでおり、信号処理部23により生成された画像化前の受信データに基づいてキャリアを変調して、画像化前の受信データを表す伝送信号を生成する。プローブ側無線通信部24は、このようにして生成された伝送信号をアンテナに供給してアンテナから電波を送信することにより、画像化前の受信データをHMD3のHMD側無線通信部31および外部装置4の外部無線通信部41に対して順次無線送信する。キャリアの変調方式としては、ASK(Amplitude Shift Keying:振幅偏移変調)、PSK(Phase Shift Keying:位相偏移変調)、QPSK(Quadrature Phase Shift Keying:四位相偏移変調)、16QAM(16 Quadrature Amplitude Modulation:16直角位相振幅変調)等が用いられる。
 また、超音波プローブ2のプローブ側無線通信部24、HMD3のHMD側無線通信部31および外部装置4の外部無線通信部41の間の無線通信は、5G(5th Generation:第5世代移動通信システム)、4G(4th Generation:第4世代移動通信システム)等の移動体通信に関する通信規格、WiFi(登録商標)、Bluetooth(登録商標)、UWB(Ultra Wide Band:超広帯域無線システム)等の近距離無線通信に関する通信規格に従ってなされることができる。
 超音波プローブ2とHMD3とは、互いに近傍に位置することが想定されるため、超音波プローブ2とHMD3との間の無線通信として、移動体通信および近距離無線通信のいずれの無線通信方式が採用されることもできる。
 また、外部装置4は、超音波プローブ2およびHMD3に対して遠隔地に位置することが想定されるため、外部装置4と超音波プローブ2との間の無線通信および外部装置4とHMD3との間の無線通信として、移動体通信がなされることが好ましい。特に、外部装置4と超音波プローブ2およびHMD3との間のデータの伝送におけるタイムラグを低減する観点から、外部装置4と超音波プローブ2との間の無線通信および外部装置4とHMD3との間の無線通信として、5Gに従う移動体通信がなされることが好ましい。
 プローブ制御部26は、予め記憶している制御プログラム等に基づいて、超音波プローブ2の各部の制御を行う。
 また、図示しないが、プローブ制御部26に、プローブ側格納部が接続されている。プローブ側格納部は、超音波プローブ2の制御プログラム等を記憶している。また、プローブ側格納部としては、例えば、フラッシュメモリ、RAM(Random Access Memory:ランダムアクセスメモリ)、SDカード(Secure Digital card:セキュアデジタルカード)、SSD(Solid State Drive:ソリッドステートドライブ)等を用いることができる。
 また、図示しないが、超音波プローブ2には、バッテリが内蔵されており、このバッテリから超音波プローブ2の各回路に電力が供給される。
 なお、信号処理部23、プローブ側無線通信部24およびプローブ制御部26を有するプローブ側プロセッサ27は、CPU(Central Processing Unit:中央処理装置)、および、CPUに各種の処理を行わせるための制御プログラムから構成されるが、FPGA(Field Programmable Gate Array:フィードプログラマブルゲートアレイ)、DSP(Digital Signal Processor:デジタルシグナルプロセッサ)、ASIC(Application Specific Integrated Circuit:アプリケーションスペシフィックインテグレイテッドサーキット)、GPU(Graphics Processing Unit:グラフィックスプロセッシングユニット)、その他のIC(Integrated Circuit:集積回路)を用いて構成されてもよく、もしくはそれらを組み合わせて構成されてもよい。
 また、プローブ側プロセッサ27の信号処理部23、プローブ側無線通信部24およびプローブ制御部26は、部分的にあるいは全体的に1つのCPU等に統合させて構成することもできる。
 HMD3は、操作者の頭部に装着され且つ装着された操作者に視認される表示装置であり、図3に示すように、いわゆる眼鏡状の形状を有している。HMD3は、HMD側モニタ36として2つのモニタ36A、36Bを備えている。2つのモニタ36A、36Bは、橋部Bにより互いに連結され、2つのモニタ36A、36Bの端部に、それぞれ蔓部Tが連結されている。例えば、橋部Bが操作者の鼻に、2つの蔓部Tが操作者の両耳に引っ掛かることにより、HMD3が操作者の頭部に固定される。この際に、2つのモニタ36A、36Bは、操作者の右眼および左眼と対面する。
 また、操作者がHMD3を装着した状態において操作者から見て左側のモニタ36Bと蔓部Tとの連結部分には、撮影レンズFが前面に配置されたカメラ部33が取り付けられている。また、右側のモニタ36Aに連結された蔓部Tに、HMD3の動作に必要な各種の回路等が収納された収納部Dが配置されている。
 ここで、図1に示すHMD側無線通信部31は、電波の送信および受信を行うためのアンテナを含んでおり、HMD制御部37の制御の下で、超音波プローブ2のプローブ側無線通信部24により送信された画像化前の受信データを表す伝送信号を、アンテナを介して受信し、受信した伝送信号を復調することにより画像化前の受信データを出力する。さらに、HMD側無線通信部31は、画像化前の受信データを画像処理部32に送出する。
 画像処理部32は、HMD側無線通信部31から送出された画像化前の受信データを、通常のテレビジョン信号の走査方式に従う画像信号にラスター変換し、変換された画像信号に対して、HMD側モニタ36用の表示フォーマットに従う明るさ補正、階調補正、シャープネス補正、画像サイズ補正、リフレッシュレート補正、走査周波数補正および色補正等の各種の必要な画像処理を施すことによりBモード(Brightness mode:輝度モード)画像信号を生成する。このようにして生成されたBモード画像信号を、単に、超音波画像Uと呼ぶ。また、画像処理部32は、生成された超音波画像Uを表示制御部35に送出する。
 HMD側モニタ36は、表示制御部35の制御の下、超音波画像U等を表示するものであり、さらに、操作者がHMD3を装着した状態において操作者の視野を確保するために透光性を有している。そのため、操作者は、HMD側モニタ36を通して前方の視野を確認しながら、HMD側モニタ36に表示される超音波画像U等を確認することができる。
 表示制御部35は、HMD制御部37の制御の下、画像処理部32から送出された超音波画像Uに所定の処理を施して、図4に示すように、HMD3のHMD側モニタ36に超音波画像Uを表示する。図4には、操作者により、その前方に位置する被検体PがHMD側モニタ36を通して確認され、且つ、超音波画像Uが操作者の前方の視野の一部に重畳するようにHMD側モニタ36に表示される例が示されている。
 カメラ部33は、被検体Pにおける超音波プローブ2の走査箇所を撮像した視野画像Cを取得する。カメラ部33は、撮影レンズFと、撮影レンズFを通して超音波プローブ2の走査箇所を撮影して、アナログ信号である視野画像信号を取得する図示しないイメージセンサと、そのイメージセンサにより取得された視野画像信号を増幅し且つデジタル信号に変換する図示しないアナログ信号処理回路と、変換されたデジタル信号に対してゲイン等の各種の補正を行って視野画像Cを生成する図示しないデジタル信号処理回路が内蔵されている。アナログ信号処理回路およびデジタル信号処理回路は、HMD側プロセッサ39に内蔵されることもできる。カメラ部33は、生成された視野画像Cを、HMD側無線通信部31に送出する。HMD側無線通信部31に送出された視野画像Cは、HMD側無線通信部31により、外部装置4に無線送信される。
 HMD制御部37は、予め記憶している制御プログラム等に基づいて、HMD3の各部の制御を行う。
 また、図示しないが、HMD制御部37に、HMD側格納部が接続されている。HMD側格納部は、HMD3の制御プログラム等を記憶している。また、HMD側格納部としては、例えば、フラッシュメモリ、RAM、SDカード、SSD等を用いることができる。
 また、図示しないが、HMD3には、バッテリが内蔵されており、このバッテリからHMD3の各回路に電力が供給される。
 なお、HMD側無線通信部31、画像処理部32、表示制御部35およびHMD制御部37を有するHMD側プロセッサ39は、CPU、および、CPUに各種の処理を行わせるための制御プログラムから構成されるが、FPGA、DSP、ASIC、GPU、その他のICを用いて構成されてもよく、もしくはそれらを組み合わせて構成されてもよい。
 また、HMD側プロセッサ39のHMD側無線通信部31、画像処理部32、表示制御部35およびHMD制御部37は、部分的にあるいは全体的に1つのCPU等に統合させて構成することもできる。
 外部装置4の外部無線通信部41は、電波の送信および受信を行うためのアンテナを含んでおり、外部制御部46の制御の下で、超音波プローブ2のプローブ側無線通信部24により送信された画像化前の受信データを表す伝送信号およびHMD3のHMD側無線通信部31により送信された視野画像Cを表す伝送信号を、アンテナを介して受信し、受信した伝送信号を復調することにより画像化前の受信データおよび視野画像Cを出力する。さらに、外部無線通信部41は、画像化前の受信データを画像処理部42に送出し、視野画像Cを画像同期部43に送出する。
 画像処理部42は、外部無線通信部41から送出された画像化前の受信データを、通常のテレビジョン信号の走査方式に従う画像信号にラスター変換し、変換された画像信号に対して、外部モニタ45用の表示フォーマットに従う明るさ補正、階調補正、シャープネス補正、画像サイズ補正、リフレッシュレート補正、走査周波数補正および色補正等の各種の必要な画像処理を施すことにより超音波画像Uを生成する。画像処理部42は、生成された超音波画像Uを画像同期部43に送出する。
 外部装置4の画像同期部43は、画像処理部42から送出された超音波画像Uと外部無線通信部41から送出された視野画像Cとを互いに同期させて、互いに同期された超音波画像Uと視野画像Cに基づいて合成画像Mを生成する。ここで、超音波画像Uと視野画像Cとを互いに同期させるとは、同一のタイミングで撮影された超音波画像Uと視野画像Cとを互いに関連付けることである。例えば、外部装置4の画像処理部42により、超音波画像Uが生成された時刻を表すタイムスタンプが超音波画像Uに対して付与され、HMD3のカメラ部33により、視野画像Cが生成された時刻を表すタイムスタンプが視野画像Cに対して付与された場合に、画像同期部43は、超音波画像Uのタイムスタンプを超音波画像Uが撮影された時刻を表すものとみなし、視野画像Cのタイムスタンプを視野画像Cが撮影された時刻を表すものとみなして、超音波画像Uおよび視野画像Cのタイムスタンプを参照することにより、同一のタイミングで撮影された超音波画像Uと視野画像Cとを互いに同期することができる。
 また、画像同期部43は、超音波画像Uと視野画像Cとを関連付ける際に、例えば、超音波画像Uのタイムスタンプと視野画像Cのタイムスタンプを参照して、超音波画像Uが撮影された時刻と視野画像Cが撮影された時刻との差が、一定の範囲内、例えば0.1秒以内であれば、超音波画像Uと視野画像Cが同一のタイミングで撮影されたものとみなして、関連付けを行うことができる。また、画像同期部34は、例えば、超音波画像Uのタイムスタンプと視野画像Cのタイムスタンプを参照し、関連付けの対象となる超音波画像Uが撮影された時刻に対して最も近い時刻に撮影された視野画像Cを選択して、選択された視野画像Cと超音波画像Uとを関連付けることもできる。また、画像同期部34は、例えば、関連付けの対象となる視野画像Cが撮影された時刻に対して最も近い時刻に撮影された超音波画像Uを選択して、選択された超音波画像Uと視野画像Cとを関連付けることもできる。
 画像同期部43は、このようにして同期した超音波画像Uと視野画像Cを、表示制御部44に送出する。
 表示制御部44は、外部制御部46の制御の下、画像同期部43から送出された合成画像Mに所定の処理を施して、図5に示すように、外部装置4の外部モニタ45に、同期された超音波画像Uと視野画像Cとを一緒に表示する。
 外部モニタ45は、表示制御部44の制御の下、超音波画像Uおよび視野画像C等を表示するものであり、例えば、(Liquid Crystal Display:液晶ディスプレイ)、有機ELディスプレイ(Organic Electroluminescence Display)等のディスプレイ装置を含む。
 外部装置4の入力装置47は、操作者が入力操作を行うためのものであり、外部モニタ45に重ねて配置されたタッチセンサを含んでいる。
 外部制御部46は、予め記憶している制御プログラム等に基づいて、外部装置4の各部の制御を行う。
 また、図示しないが、外部装置4に、外部装置側格納部が接続されている。外部装置側格納部は、外部装置4の制御プログラム等を記憶している。また、外部装置側格納部としては、例えば、フラッシュメモリ、RAM、SDカード、SSD等を用いることができる。
 また、図示しないが、外部装置4には、バッテリが内蔵されており、このバッテリから外部装置4の各回路に電力が供給される。
 なお、外部無線通信部41、画像処理部42、画像同期部43、表示制御部44および外部制御部46を有する外部装置側プロセッサ48は、CPU、および、CPUに各種の処理を行わせるための制御プログラムから構成されるが、FPGA、DSP、ASIC、GPU、その他のICを用いて構成されてもよく、もしくはそれらを組み合わせて構成されてもよい。
また、外部装置側プロセッサ48の外部無線通信部41、画像処理部42、画像同期部43、表示制御部44および外部制御部46は、部分的にあるいは全体的に1つのCPU等に統合させて構成することもできる。
 次に、本発明の実施の形態1に係る超音波システム1の動作について説明する。
 まず、操作者により、被検体Pの体表面上に超音波プローブ2が接触されて、プローブ制御部26の制御の下で、送受信回路22のパルサ51からの駆動信号に従って振動子アレイ21の複数の振動子から被検体P内に超音波ビームが送信される。送信された超音波ビームに基づく超音波エコーは、各振動子により受信され、アナログ信号である受信信号が増幅部52に出力されて増幅され、AD変換部53でAD変換されて受信データが取得される。この受信データに対してビームフォーマ54により受信フォーカス処理が施されることにより、音線信号が生成される。
 生成された音線信号は、信号処理部23により、被検体P内の組織に関する断層画像情報を表す信号である画像化前の受信データに変換される。この際に、信号処理部23は、音線信号に対して、超音波が反射した位置の深度に応じて伝搬距離に起因する減衰の補正を施した後、包絡線検波処理を施す。
 プローブ側無線通信部24は、生成された音線信号をHMD3および外部装置4に対して無線送信する。
 HMD3のHMD側無線通信部31は、超音波プローブ2から無線送信された画像化前の受信データを受信して、受信された画像化前の受信データを画像処理部32に送出する。画像処理部32は、HMD側無線通信部31から送出された画像化前の受信データを、通常のテレビジョン信号の走査方式に従う画像信号にラスター変換し、変換された画像信号に対して、HMD側モニタ36用の表示フォーマットに従う明るさ補正、階調補正、シャープネス補正、画像サイズ補正、リフレッシュレート補正、走査周波数補正および色補正等の各種の必要な画像処理を施すことにより超音波画像Uを生成する。このようにして生成された超音波画像Uは、表示制御部35に送出される。
 表示制御部35は、超音波画像Uに対して所定の処理を施した後、超音波画像UをHMD側モニタ36に送出し、図4に示すように、超音波画像UをHMD側モニタ36に表示させる。超音波画像Uは、操作者の前方の視野の一部に重畳するようにHMD側モニタ36に表示されるため、操作者は、前方の視野と超音波画像Uを同時に確認して、被検体Pにおける超音波プローブ2の走査箇所と、それによって観察される被検体P内の組織を容易に対応付けて把握することができる。図4の例において、操作者の前方の視野として、被検体Pの腹部に超音波プローブ2が接触されている様子が示されており、超音波画像Uには、被検体Pの腹部の内部組織が描出されている
 また、HMD3のカメラ部33は、HMD制御部37の制御の下で、被検体Pにおける超音波プローブ2の走査箇所を撮像した視野画像Cを取得する。例えば図4に示すように、操作者が前方の視野を被検体Pに向けることで、カメラ部33により、被検体Pにおける超音波プローブ2の走査箇所を撮像した視野画像Cが取得される。このようにして取得された視野画像Cは、HMD側無線通信部31に送出される。
 HMD側無線通信部31は、カメラ部33から送出された視野画像Cを外部装置4に無線送信する。
 外部装置4の外部無線通信部41は、超音波プローブ2から無線送信された画像化前の受信データとHMD3から無線送信された視野画像Cを受信して、受信した画像化前の受信データを画像処理部42に送出し、受信した視野画像Cを画像同期部43に送出する。
 画像処理部42は、外部無線通信部41から送出された画像化前の受信データを、通常のテレビジョン信号の走査方式に従う画像信号にラスター変換し、変換された画像信号に対して、外部モニタ45用の表示フォーマットに従う明るさ補正、階調補正、シャープネス補正、画像サイズ補正、リフレッシュレート補正、走査周波数補正および色補正等の各種の必要な画像処理を施すことにより超音波画像Uを生成する。画像処理部42は、生成された超音波画像Uを画像同期部43に送出する。
 画像同期部43は、画像処理部42から送出された超音波画像Uと外部無線通信部41から送出された視野画像Cとを互いに同期させて、互いに同期された超音波画像Uと視野画像Cが1つにまとめられた合成画像Mを生成する。例えば、外部装置4の画像処理部42により、超音波画像Uが生成された時刻を表すタイムスタンプが超音波画像Uに対して付与され、HMD3のカメラ部33により、視野画像Cが生成された時刻を表すタイムスタンプが視野画像Cに対して付与された場合に、画像同期部43は、超音波画像Uのタイムスタンプを超音波画像Uが撮影された時刻を表すものとみなし、視野画像Cのタイムスタンプを視野画像Cが撮影された時刻を表すものとみなして、超音波画像Uおよび視野画像Cのタイムスタンプを参照することにより、同一のタイミングで撮影された超音波画像Uと視野画像Cとを互いに同期することができる。この際に、HMD3における時刻と外部装置4における時刻とは、互いに共有されることができる。
 なお、HMD3における時刻と外部装置4における時刻は、互いに共有されることができるが、具体的には、例えば、HMD3と外部装置4のいずれかを基準として、時刻が共有されることができる。また、例えば、HMD3と外部装置4のいずれか一方がインターネットに接続されている場合には、NTP(Network Time Protocol)、NITZ(Network Identity and Time Zone)等の通信プロトコルを用いて内蔵時計の時刻が設定されてもよい。
 画像同期部43により互いに同期された超音波画像Uと視野画像Cは、合成画像Mとして表示制御部44に送出される。表示制御部44は、合成画像Mに対して所定の処理を施した後、合成画像Mを外部モニタ45に送出し、図5に示すように、外部モニタ45において、超音波画像Uと視野画像Cとを一緒に表示させる。図5の例では、外部装置4がいわゆるスマートフォンまたはタブレットと呼ばれる携帯型の薄型コンピュータであることが示されており、外部装置4のHMD側モニタ36の上下に視野画像Cと超音波画像Uのそれぞれが表示されている。また、この例では、視野画像Cに、被検体Pの腹部に超音波プローブ2が接触されている様子が描出され、超音波画像Uに、被検体Pの腹部の内部組織が描出されている。
 ここで、HMD3のHMD側モニタ36には、超音波画像Uが表示され、外部装置4の外部モニタ45には、互いに同期された視野画像Cと超音波画像Uが表示されるが、HMD側モニタ36と外部モニタ45には、ほぼ同時に同一の超音波画像Uが表示される。また、外部モニタ45には、操作者がHMD側モニタ36を通して観察している前方の視野に対応する視野画像Cがほぼリアルタイムに表示される。そのため、例えば、外部装置4がHMD3に対して遠隔地に位置している場合でも、外部モニタ45を観察している観察者は、被検体Pと操作者が位置している検査の現場において撮影された超音波画像Uと、操作者の前方の視野に対応する視野画像Cをほぼリアルタイムに観察することができる。
 ところで、一般的に、超音波画像を確認することにより超音波画像に描出されている被検体P内の部位を正確に把握するためには、一定以上の熟練度が必要であることが知られている。また、超音波診断装置において生成される超音波画像の画質は、操作者の手技に大きく左右されることが知られている。
 例えば、在宅看護等、病院外の遠隔地において超音波画像が撮影される場合には、超音波プローブを操作して超音波画像を撮影する操作者と、撮影された超音波画像を観察して診断を行う医師等の観察者が互いに異なることがある。この際に、操作者は、通常、得られた超音波画像を自分で確認しながら超音波プローブを操作して、目的とする被検体P内の部位の超音波画像を撮影する必要があるため、特に、操作者の熟練度が低い場合には、操作者は、目的とする被検体Pの部位を正確に観察できているか否かを判断することが困難なことがあった。また、熟練度の低い操作者は、適切な手技を用いて超音波プローブを操作できない場合があり、画質の低い超音波画像が得られてしまうことがあった。
 また、被検体Pおよび操作者に対して遠隔地に位置する観察者は、超音波診断装置の操作者が撮影した超音波画像を確認して診断を行うことになるが、操作者が超音波画像を撮影する様子を把握できないため、特に、熟練度の低い操作者により超音波画像が撮影された場合に、撮影された超音波画像が適切な手技により撮影されたものであるか否かを正確に判断することが困難なことがあった。
 本発明の実施の形態1に係る超音波システム1によれば、HMD側モニタ36と外部モニタ45には、ほぼ同時に同一の超音波画像Uが表示され、さらに、外部モニタ45には、操作者の前方の視野に対応する視野画像Cがほぼリアルタイムに表示されるため、例えば、外部装置4がHMD3に対して遠隔地に位置している場合でも、外部モニタ45を観察している観察者は、被検体Pと操作者が位置している検査の現場において撮影された視野画像Cと超音波画像Uをほぼリアルタイムに観察することができる。これにより、例えば、熟練度の高い観察者が操作者に対してリアルタイムに助言を与えることができるため、観察者に対して遠隔地に位置する操作者の熟練度が低い場合であっても、適切な超音波画像Uが得られ、且つ、超音波診断の精度を向上することができる。
 また、本発明の実施の形態1に係る超音波システム1によれば、例えば、熟練度の高い操作者が超音波プローブ2を操作する様子を表す視野画像Cと、その視野画像Cに対応する適切な超音波画像Uを、操作者に対して遠隔地に位置し且つ熟練度の低い観察者に確認させることもできる。このように、本発明の実施の形態1に係る超音波システム1は、教育の観点においても非常に有用である。
 また、本発明の実施の形態1に係る超音波システム1では、HMD3のHMD側モニタ36に超音波画像Uが表示されるため、操作者は、前方の視野を確認しながら超音波画像Uを確認することができる。さらに、HMD3のカメラ部33により視野画像Cが撮影されるため、操作者は、視野画像Cを撮影するために、手を使用する必要がない。
 そのため、操作者は、例えば、被検体Pから視線を離すことなく、一方の手を用いて超音波プローブ2を操作しながら他方の手を用いて被検体Pにいわゆる穿刺針を挿入する手技を行う等、多様な検査を行うことが可能である。
 なお、HMD3の画像処理部32および外部装置4の画像処理部42において、それぞれ、生成された超音波画像Uに対してタイムスタンプが付与されることが説明されているが、HMD3の画像処理部32および外部装置4の画像処理部42が超音波画像Uに対してタイムスタンプを付与する代わりに、超音波プローブ2の信号処理部23が、包絡線検波処理を施した信号に対してタイムスタンプを付与することもできる。この場合に、例えば、超音波プローブ2における時刻とHMD3における時刻とが互いに共有されることにより、タイムスタンプが付与された信号に基づいてHMD3の画像処理部32により生成された超音波画像Uとカメラ部33により生成された視野画像Cとを互いに同期し、且つ、外部装置4の画像処理部42により生成された超音波画像Uとカメラ部33により生成された視野画像Cとを互いに同期することができる。
 ここで、超音波プローブ2における時刻とHMD3における時刻とは、例えば、超音波プローブ2とHMD3のいずれかを基準として、共有されることができる。また、例えば、超音波プローブ2とHMD3のいずれか一方がインターネットに接続されている場合には、NTP、NITZ等の通信プロトコルを用いて内蔵時計の時刻が設定されてもよい。
 また、超音波画像Uと視野画像Cとを互いに同期する方法は、上述したタイムスタンプを用いる方法に限定されない。例えば、特開2011-183056号公報に開示されているように、超音波プローブ2による超音波画像Uの撮影タイミングとHMD3のカメラ部33による視野画像Cの撮影タイミングとを同期させ、さらに、超音波画像Uが撮影された時点と視野画像Cが撮影された時点との時間差が一定の範囲内、例えば0.1秒以内である場合に、外部装置4の画像同期部43は、超音波画像Uと視野画像Cとが同一のタイミングで撮影されたとみなし、超音波画像Uと視野画像Cとを互いに同期することができる。
 また、外部装置4の画像同期部43は、互いに同期された超音波画像Uと視野画像Cが1つにまとめられた合成画像Mを生成し、生成された合成画像Mを表示制御部44に送出しているが、合成画像Mを生成する代わりに、互いに同期された超音波画像Uと視野画像Cをそれぞれ表示制御部44に送出することもできる。この場合に、表示制御部44は、画像同期部43から送出された超音波画像Uと視野画像Cに対してそれぞれ所定の処理を施し、外部モニタ45において、例えば図5に示すように、互いに同期された超音波画像Uと視野画像Cとを一緒に表示させる。そのため、外部モニタ45を見ている観察者は、被検体Pと操作者が位置している検査の現場において撮影された視野画像Cと超音波画像Uをほぼリアルタイムに観察することができる。
 また、図示しないが、例えば、HMD3に操作者の眼を撮影するための眼カメラ部と、眼カメラ部により撮影された操作者の眼を表す眼画像を解析して操作者のまばたきおよび視線等を検出する眼動作検出部を備えることができる。検出された操作者のまばたきおよび視線の動きは、例えば、操作者の入力操作として使用されることができる。例えば、眼動作検出部により検出された操作者のまばたきの回数、視線の位置等を、カメラ部33による視野画像Cの撮影開始および撮影停止のトリガ等として用いることができる。このように、操作者のまばたきおよび視線の動き等を入力操作として使用することにより、操作者は、被検体Pの検査中に両手が塞がっている場合でも、手を使わずに入力操作をすることができる。
 また、超音波プローブ2とHMD3とは、互いに無線通信により接続されているが、例えば、無線通信による接続の代わりに、有線通信により互いに接続されることもできる。
 また、図4において、外部装置4が、いわゆるスマートフォンまたはタブレットと呼ばれる携帯型の薄型コンピュータであることが例示されているが、外部装置4は、これに限定されない。例えば、外部装置4として、いわゆるノート型のパーソナルコンピュータおよび据え置き型のパーソナルコンピュータ等を用いることもできる。
 また、図2に示すように、送受信回路22が増幅部52およびAD変換部53と一緒にビームフォーマ54を有しているが、ビームフォーマ54は、送受信回路22の内部ではなく、送受信回路22と信号処理部23との間に配置されていてもよい。この場合に、プローブ側プロセッサ27によりビームフォーマ54を構成することもできる。
 また、例えば、図6および図7に示すように、外部装置4の入力装置47を介した観察者の入力操作により移動可能なカーソルA等の外部入力情報を、外部装置4の外部モニタ45とHMD3のHMD側モニタ36に同時に表示することができる。この場合に、例えば、外部装置4の外部モニタ45に表示されたカーソルAが外部装置4の入力装置47を介した観察者の入力操作により移動されると、HMD3のHMD側モニタ36に表示されているカーソルAも同様に移動される。これにより、例えば、超音波プローブ2およびHMD3Aの操作者と外部装置4Aの近傍に位置する観察者との間において、より詳細な情報共有を行うことができる。例えば、外部装置4Aの外部モニタ45で超音波画像Uと視野画像Cを観察している熟練度の高い観察者が超音波プローブ2およびHMD3Aの熟練度の低い操作者に対して、超音波プローブ2を走査させるべき位置を、カーソルAを用いて示す等、操作者が行う検査を容易に支援することができる。
 また、例えば、操作者の視線の動き等によりHMD3を介して入力操作が可能な場合には、操作者の入力操作により移動可能なカーソルAを、HMD3のHMD側モニタ36と外部装置4の外部モニタ45に同時に表示することもできる。この場合には、例えば、熟練度の高い操作者が、外部装置4Aの近傍に位置する熟練度の低い観察者に対して、より容易に且つ詳細に超音波診断についての教育を行うことができる。
 なお、カーソルAの形状は、矢印形状には限定されず、円形状、多角形状等の任意の形状を有することができる。
 また、例えば、HMD3と外部装置4との間で音声データを双方向に無線通信することもできる。図8に、本発明の実施の形態1の変形例におけるHMD3Aの構成を示す。HMD3Aは、図1に示すHMD3において、マイク61とスピーカ62が追加され、HMD制御部37の代わりにHMD制御部37Aが備えられ、HMD側プロセッサ39の代わりにHMD側プロセッサ39Aが備えられたものである。HMD3Aにおいて、HMD側無線通信部31に、マイク61とスピーカ62が接続されている。
 また、図9に、本発明の実施の形態1の変形例における外部装置4Aの構成を示す。外部装置4Aは、図1に示す外部装置4において、マイク63とスピーカ64が追加され、外部制御部46の代わりに外部制御部46Aが備えられ、外部装置側プロセッサ48の代わりに外部装置側プロセッサ48Aが備えられたものである。外部装置4Aにおいて、外部無線通信部41に、マイク63とスピーカ64が接続されている。
 本発明の実施の形態1の変形例では、HMD3Aと外部装置4Aの間で音声データが双方向に送受信される。例えば、HMD3Aに向かって超音波プローブ2およびHMD3Aの操作者が音声を発すると、発せられた音声は、HMD3Aのマイク61に入力され、マイク61により音声データが生成される。生成された音声データは、HMD側無線通信部31から外部装置4Aに無線送信される。外部装置4Aの外部無線通信部41は、HMD3Aから無線送信された音声データを受信して、受信した音声データをスピーカ64に送出する。スピーカ64は、外部無線通信部41から受け取った音声データに基づいて、超音波プローブ2およびHMD3Aの操作者が発した音声を再生する。
 また、例えば、外部装置4Aの外部モニタ45で超音波画像Uと視野画像Cを観察している観察者が、外部装置4Aに向かって音声を発すると、発せられた音声は、外部装置4Aのマイク63に入力され、マイク63により音声データが生成される。生成された音声データは、外部無線通信部41からHMD3Aに無線送信される。HMD3AのHMD側無線通信部31は、外部装置4Aから無線送信された音声データを受信して、受信した音声データをスピーカ62に送出する。スピーカ62は、HMD側無線通信部31から受け取った音声データに基づいて、外部装置4の近傍に位置する観察者が発した音声を再生する。
 このようにして、HMD3Aと外部装置4Aの間で音声データが双方向に送受信されることにより、超音波プローブ2およびHMD3Aの操作者と外部装置4Aの近傍に位置する観察者との間において、より詳細な情報共有を行うことができる。例えば、外部装置4Aの外部モニタ45で超音波画像Uと視野画像Cを観察している熟練度の高い観察者が超音波プローブ2およびHMD3Aの熟練度の低い操作者に対して、より容易に且つ詳細に助言を行うことが可能となる。また、例えば、熟練度の高い操作者が、外部装置4Aの近傍に位置する熟練度の低い観察者に対して、より容易に且つ詳細に超音波診断についての教育を行うことも可能である。
 また、HMD3Aのマイク61に入力された操作者の音声を操作者の入力操作として使用することもできる。例えば、HMD制御部37Aが、マイク61により操作者の音声に基づいて生成された音声データを解析することにより指示情報を取得し、取得された指示情報に従って、カメラ部33による視野画像Cの撮影開始および撮影停止等、HMD3Aの各部の制御を行うことができる。さらに、HMD制御部37Aにより解析された音声データに基づいて超音波プローブ2の制御が行われることもできる。この場合に、例えば、HMD制御部37Aにより解析された音声データが、操作者からの入力情報としてHMD側無線通信部31から超音波プローブ2に無線送信され、プローブ側無線通信部24を経由してプローブ制御部26に入力される。プローブ制御部26は、入力情報に基づいて、例えば振動子アレイ21による超音波の送信開始および送信停止、カメラ部33による視野画像Cの撮影開始および撮影停止等、超音波プローブ2の各部を制御することができる。
 また、外部装置4Aのマイク63に入力された観察者の音声を、観察者の入力操作として使用することもできる。例えば、外部制御部46Aが、マイク63により観察者の音声に基づいて生成された音声データを解析することにより指示情報を取得し、取得された指示情報に従って、ヘッドマウントディスプレイ3Aのカメラ部33による視野画像Cの撮影開始および撮影停止等のヘッドマウントディスプレイ3Aの各部の制御および超音波プローブ2の振動子アレイ21による超音波の送信開始および送信停止等の、超音波プローブ2の各部の制御を行うこともできる。
実施の形態2
 実施の形態1では、超音波プローブ2において、音線信号に対して包絡線検波処理がなされた画像化前の受信データが生成され、生成された画像化前の受信データがHMD3および外部装置4に無線送信されているが、超音波プローブ2において超音波画像Uが生成され、生成された超音波画像UがHMD3および外部装置4に無線送信されることもできる。
 図10に、本発明の実施の形態2に係る超音波システム1Bの構成を示す。超音波システム1は、図1に示す実施の形態1の超音波システム1において、超音波プローブ2の代わりに超音波プローブ2Aが備えられ、HMD3の代わりにHMD3Bが備えられ、外部装置4の代わりに外部装置4Bが備えられたものである。
 超音波プローブ2Bは、実施の形態1における超音波プローブ2において、画像処理部71が追加され、プローブ制御部26の代わりにプローブ制御部26Bが備えられ、プローブ側プロセッサ27の代わりにプローブ側プロセッサ27Bが備えられたものである。超音波プローブ2Bにおいて、信号処理部23に、画像処理部71が接続されている。また、画像処理部71に、プローブ側無線通信部24およびプローブ制御部26Bが接続されている。図示しないが、信号処理部23と画像処理部71により、超音波画像生成部が構成されている。
 HMD3Bは、実施の形態1におけるHMD3において、画像処理部32が取り除かれ、HMD制御部37の代わりにHMD制御部37Bが備えられ、HMD側プロセッサ39の代わりにHMD側プロセッサ39Bが備えられたものである。HMD3Bにおいて、HMD側無線通信部31に表示制御部35およびカメラ部33が接続されている。
 外部装置4Bは、実施の形態1における外部装置4において、画像処理部42が取り除かれ、外部制御部46の代わりに外部制御部46Bが備えられ、外部装置側プロセッサ48の代わりに外部装置側プロセッサ48Bが備えられたものである。
 超音波プローブ2Bの画像処理部71は、信号処理部23により包絡線検波処理がなされた信号を、通常のテレビジョン信号の走査方式に従う画像信号にラスター変換し、変換された画像信号に対して、明るさ補正、階調補正、シャープネス補正、画像サイズ補正、リフレッシュレート補正、走査周波数補正および色補正等の各種の必要な画像処理を施すことにより、HMD3BのHMD側モニタ36用の表示フォーマットに従う超音波画像Uと外部装置4Bの外部モニタ45用のフォーマットに従う超音波画像Uを生成する。さらに、画像処理部71は、HMD3BのHMD側モニタ36用の表示フォーマットに従う超音波画像Uをプローブ側無線通信部24からHMD3Bに無線送信し、外部装置4Bの外部モニタ45用のフォーマットに従う超音波画像Uをプローブ側無線通信部24から外部装置4Bに無線送信する。
 HMD3BのHMD側無線通信部31は、超音波プローブ2Bから無線送信された超音波画像Uを受信し、受信した超音波画像Uを表示制御部35に送出する。
 表示制御部35は、HMD側無線通信部31から送出された超音波画像Uに対して所定の処理を施した後、超音波画像UをHMD側モニタ36に送出し、図4に示すように、超音波画像UをHMD側モニタ36に表示させる。
 外部装置4Bの外部無線通信部41は、超音波プローブ2Bから無線送信された超音波画像UとHMD3Bから無線送信された視野画像Cを受信し、受信した超音波画像Uと視野画像Cを画像同期部43に送出する。
 画像同期部43は、外部無線通信部41から送出された超音波画像Uと視野画像Cとを互いに同期させて、互いに同期された超音波画像Uと視野画像Cに基づいて合成画像Mを生成する。
 表示制御部44は、画像同期部43により生成された合成画像Mに対して所定の処理を施した後、合成画像Mを外部モニタ45に送出し、図5に示すように、外部モニタ45において、互いに同期された超音波画像Uと視野画像Cを一緒に表示させる。
 以上のように、本発明の実施の形態2に係る超音波システム1Bによれば、超音波プローブ2Bが画像処理部71を備えている場合であっても、HMD3が画像処理部32を備え且つ外部装置4が画像処理部42を備える実施の形態1の超音波システム1と同様に、HMD側モニタ36と外部モニタ45にほぼ同時に同一の超音波画像Uが表示され、さらに、外部モニタ45に、超音波プローブ2BおよびHMD3Bの操作者の前方の視野に対応する視野画像Cがほぼリアルタイムに表示される。そのため、例えば、超音波プローブ2BおよびHMD3Bの操作者に対して、遠隔地に配置された外部装置4Bにより視野画像Cと超音波画像Uを観察する観察者が助言を与えることができるため、適切な超音波画像Uが得られ、且つ、超音波診断の精度を向上することができる。
 また、図1に示す実施の形態1の超音波システム1では、HMD3に画像処理部32が備えられ且つ外部装置4に画像処理部42が備えられているが、実施の形態2に係る超音波システム1Bでは、超音波プローブ2Bに画像処理部71が備えられているため、HMD3Bおよび外部装置4Bがそれぞれ画像処理部32、42を有する必要がなく、HMD3Bおよび外部装置4Bの内部構成は、実施の形態1の超音波システム1におけるHMD3および外部装置4の内部構成と比較して簡略化されている。そのため、実施の形態2に係る超音波システム1Bによれば、実施の形態1の超音波システム1と比べて、HMD3Bおよび外部装置4Bの消費電力および計算負荷等を軽減することが可能である。
実施の形態3
 実施の形態1では、外部装置4において超音波画像Uと視野画像Cを同期しているが、例えば、HMD3において超音波画像Uと視野画像Cを同期することもできる。
 図11に、本発明の実施の形態3に係る超音波システム1Cの構成を示す。超音波システム1は、図1に示す実施の形態1の超音波システム1において、超音波プローブ2と同一の内部構成を有する超音波プローブ2Cが備えられ、HMD3の代わりにHMD3Cが備えられ、外部装置4の代わりに外部装置4Cが備えられたものである。超音波プローブ2Cは、HMD3Cにのみ無線通信により接続され、外部装置4Cは、HMD3Cにのみ無線通信により接続される。
 HMD3Cは、実施の形態1におけるHMD3において、画像同期部34が追加され、HMD制御部37の代わりにHMD制御部37Cが備えられ、HMD側プロセッサ39の代わりにHMD側プロセッサ39Cが備えられたものである。HMD3Cにおいて、HMD側無線通信部31および画像処理部32およびカメラ部33に、画像同期部34が接続されている。また、画像同期部34に、表示制御部35が接続されている。
 外部装置4Cは、実施の形態1における外部装置4において、画像処理部42と画像同期部43が取り除かれ、外部制御部46の代わりに外部制御部46Cが備えられ、外部装置側プロセッサ48の代わりに外部装置側プロセッサ48Cが備えられている。外部装置4Cにおいて、外部無線通信部41に、表示制御部44が接続されている。
 超音波プローブ2Cのプローブ側無線通信部24は、信号処理部23により包絡線検波処理がなされた画像化前の受信データをHMD3Cのみに無線送信する。
 HMD3CのHMD側無線通信部31は、超音波プローブ2Cから無線送信された画像化前の受信データを受信して、受信した画像化前の受信データを画像処理部32に送出する。
 画像処理部32は、HMD側無線通信部31から送出された画像化前の受信データを、通常のテレビジョン信号の走査方式に従う画像信号にラスター変換し、変換された画像信号に対して、明るさ補正、階調補正、シャープネス補正、画像サイズ補正、リフレッシュレート補正、走査周波数補正および色補正等の各種の必要な画像処理を施すことにより、HMD3BのHMD側モニタ36用の表示フォーマットに従う超音波画像Uと外部装置4Bの外部モニタ45用のフォーマットに従う超音波画像Uを生成する。さらに、画像処理部32は、HMD3BのHMD側モニタ36用の表示フォーマットに従う超音波画像Uを、画像同期部34を経由して表示制御部35に送出し、外部装置4Bの外部モニタ45用のフォーマットに従う超音波画像Uを画像同期部34に送出する。
 表示制御部35は、画像同期部34を経由して画像処理部32から送出された、HMD側モニタ36用の表示フォーマットに従う超音波画像Uに対して所定の処理を施した後、図4に示すように、その超音波画像UをHMD側モニタ36に表示させる。
 また、カメラ部33は、被検体Pにおける超音波プローブ2Cの走査箇所を撮像した視野画像Cを取得し、取得された視野画像Cを画像同期部34に送出する。
 画像同期部34は、画像処理部32から送出された超音波画像Uとカメラ部33から送出された視野画像Cとを互いに同期させて、互いに同期された超音波画像Uと視野画像Cに基づいて合成画像Mを生成する。
 また、画像同期部34は、外部装置4Cの外部モニタ45用の表示フォーマットに従う超音波画像Uと視野画像Cに基づいて生成された合成画像Mを、HMD側無線通信部31に送出する。
 HMD側無線通信部31は、画像同期部34から送出された合成画像Mを外部装置4Cに無線送信する。
 外部装置4Cの外部無線通信部41は、HMD3Cから無線送信された合成画像Mを受信し、受信した合成画像Mを表示制御部44に送出する。表示制御部44は、外部無線通信部41から送出された合成画像Mに対して所定の処理を施した後、合成画像Mを外部モニタ45に送出し、図5に示すように、外部モニタ45において、互いに同期された超音波画像Uと視野画像Cを一緒に表示させる。
 以上から、本発明の実施の形態3に係る超音波システム1Cによれば、画像処理部32と画像同期部34がHMD3Cにのみ備えられている場合であっても、HMD3が画像処理部32を備え且つ外部装置4が画像処理部42と画像同期部43を備える実施の形態1の超音波システム1と同様に、HMD側モニタ36と外部モニタ45にほぼ同時に同一の超音波画像Uが表示され、さらに、外部モニタ45に、超音波プローブ2CおよびHMD3Cの操作者の前方の視野に対応する視野画像Cがほぼリアルタイムに表示される。そのため、例えば、超音波プローブ2CおよびHMD3Cの操作者に対して、遠隔地に配置された外部装置4Cにより視野画像Cと超音波画像Uを観察する観察者が助言を与えることができるため、適切な超音波画像Uが得られ、且つ、超音波診断の精度を向上することができる。
 また、図1に示す実施の形態1の超音波システム1では、外部装置4に画像処理部42および画像同期部43が備えられているが、実施の形態3に係る超音波システム1Cでは、HMD3Cから超音波画像Uと視野画像Cに基づいて生成された合成画像Mが外部装置4Cに無線送信されるため、外部装置4Cが画像処理部42と画像同期部43を有する必要がなく、外部装置4Cの内部構成は、実施の形態1における外部装置4の内部構成よりも簡略化されている。そのため、実施の形態3に係る超音波システム1Cによれば、外部装置4Cの消費電力および計算負荷等を軽減することが可能である。
実施の形態4
 実施の形態3では、超音波プローブ2の信号処理部23により包絡線検波処理がなされた画像化前の受信データがHMD3と外部装置4に無線送信されているが、超音波プローブ2において超音波画像Uが生成されることもできる。
 図12に、本発明の実施の形態4に係る超音波システム1Dの構成を示す。超音波システム1Dは、図11に示す実施の形態3の超音波システム1Cにおいて、超音波プローブ2Cの代わりに超音波プローブ2Dが備えられ、HMD3Cの代わりにHMD3Dが備えられ、外部装置4Cの代わりに外部装置4Dが備えられたものである。超音波プローブ2Dは、HMD3Dにのみ無線通信により接続され、外部装置4Dは、HMD3Dにのみ無線通信により接続される。
 超音波プローブ2Dは、実施の形態3における超音波プローブ2Cにおいて、画像処理部81が追加され、プローブ制御部26の代わりにプローブ制御部26Dが備えられ、プローブ側プロセッサ27の代わりにプローブ側プロセッサ27Dが備えられたものである。超音波プローブ2Dにおいて、信号処理部23に画像処理部81が接続されており、画像処理部81に、プローブ側無線通信部24とプローブ制御部26Dが接続されている。図示しないが、信号処理部23と画像処理部81により、超音波画像生成部が構成されている。
 HMD3Dは、実施の形態3におけるHMD3Cにおいて、画像処理部32が取り除かれ、HMD制御部37Cの代わりにHMD制御部37Dが備えられ、HMD側プロセッサ39Cの代わりにHMD側プロセッサ39Dが備えられたものである。HMD3Dにおいて、HMD側無線通信部31に画像同期部34が接続されている。また、カメラ部33は、画像同期部34に接続している。
 外部装置4Dは、実施の形態3における外部装置4Cにおいて、外部制御部46Cの代わりに外部制御部46Dが備えられ、外部装置側プロセッサ48Cの代わりに外部装置側プロセッサ48Dが備えられたものである。
 超音波プローブ2Dの画像処理部81は、信号処理部23により包絡線検波処理がなされた信号を、通常のテレビジョン信号の走査方式に従う画像信号にラスター変換し、変換された画像信号に対して、明るさ補正、階調補正、シャープネス補正、画像サイズ補正、リフレッシュレート補正、走査周波数補正および色補正等の各種の必要な画像処理を施すことにより、HMD3DのHMD側モニタ36用の表示フォーマットに従う超音波画像Uと外部装置4Dの外部モニタ45用のフォーマットに従う超音波画像Uを生成する。また、画像処理部81は、生成されたこれらの超音波画像Uをプローブ側無線通信部24に送出する。
 プローブ側無線通信部24は、画像処理部81から送出された超音波画像UをHMD3Dに無線送信する。
 HMD側無線通信部31は、超音波プローブ2Dから無線送信された超音波画像Uを受信する。また、HMD側無線通信部31は、HMD側モニタ36用の表示フォーマットに従う超音波画像Uを、画像同期部34を経由して表示制御部35に送出し、外部モニタ45用のフォーマットに従う超音波画像Uを画像同期部34に送出する。
 表示制御部35は、画像同期部34を経由してHMD側無線通信部31から送出された超音波画像Uに対して所定の処理を施した後、図4に示すように、その超音波画像UをHMD側モニタ36に表示させる。
 カメラ部33は、被検体Pにおける超音波プローブ2Dの走査箇所を撮像した視野画像Cを取得し、取得された視野画像Cを画像同期部34に送出する。
 画像同期部34は、HMD側無線通信部31から送出された超音波画像Uとカメラ部33から送出された視野画像Cとを互いに同期させ、互いに同期された超音波画像Uと視野画像Cに基づいて合成画像Mを生成する。
 画像同期部34は、互いに同期された外部モニタ45用のフォーマットに従う超音波画像Uと視野画像Cに基づいて生成された合成画像MをHMD側無線通信部31に送出する。
 HMD側無線通信部31は、画像同期部34から送出された合成画像Mを外部装置4Dに無線送信する。
 外部装置4Dの外部無線通信部41は、HMD3Dから無線送信された合成画像Mを受信し、受信した合成画像Mを表示制御部44に送出する。
 表示制御部44は、外部無線通信部41から送出された合成画像Mに対して所定の処理を施した後、合成画像Mを外部モニタ45に送出し、図5に示すように、外部モニタ45において、互いに同期された超音波画像Uと視野画像Cを一緒に表示する。
 以上から、実施の形態4に係る超音波システム1Dによれば、画像処理部81が超音波プローブ2Dのみに備えられ、画像同期部34がHMD3Dにのみ備えられている場合であっても、HMD3Cが画像処理部32を備え且つ外部装置4が画像処理部42と画像同期部43を備える実施の形態1の超音波システム1と同様に、HMD側モニタ36と外部モニタ45にほぼ同時に同一の超音波画像Uが表示され、さらに、外部モニタ45に、超音波プローブ2CおよびHMD3Cの操作者の前方の視野に対応する視野画像Cがほぼリアルタイムに表示される。そのため、例えば、超音波プローブ2DおよびHMD3Dの操作者に対して、遠隔地に配置された外部装置4Dにより視野画像Cと超音波画像Uを観察する観察者が助言を与えることができるため、適切な超音波画像Uが得られ、且つ、超音波診断の精度を向上することができる。
実施の形態5
 実施の形態3において、外部装置4Cは、HMD3Cから合成画像Mを受信し、受信した合成画像Mを外部モニタ45に表示しているため、外部モニタ45に表示される超音波画像Uおよび視野画像Cの配置および大きさを外部装置4C側で自由に変更することができなかったが、図13に示す実施の形態5の超音波診断装置1Eによれば、外部モニタ45に表示される超音波画像Uおよび視野画像Cの配置および大きさを、外部装置4E側で任意に変更可能にすることができる。
 図13に、本発明の実施の形態5に係る超音波システム1Eの構成を示す。超音波システム1Eは、実施の形態3の超音波システム1Cにおいて、超音波プローブ2Cと同一の内部構成を有する超音波プローブ2Eが備えられ、HMD3Cの代わりにHMD3Eが備えられ、外部装置4Cの代わりに外部装置4Eが備えられたものである。超音波プローブ2Eは、HMD3Eとのみ無線通信により接続され、外部装置4Eは、HMD3Eとのみ無線通信により接続されている。
 HMD3Eは、実施の形態3におけるHMD3Cにおいて、HMD制御部37の代わりにHMD制御部37Eが備えられ、HMD側プロセッサ39の代わりにHMD側プロセッサ39Eが備えられたものである。HMD3Eにおいて、HMD側無線通信部31、画像処理部32およびカメラ部33に画像同期部34が接続され、画像同期部34に表示制御部35が接続されている。
 外部装置4Eは、実施の形態3における外部装置4Cにおいて、外部制御部46の代わりに外部制御部46Eが備えられ、外部装置側プロセッサ48の代わりに外部装置側プロセッサ48Eが備えられたものである。
 超音波プローブ2Eのプローブ側無線通信部24は、信号処理部23により包絡線検波処理がなされた画像化前の受信データをHMD3Eに無線送信する。
 HMD3EのHMD側無線通信部31は、超音波プローブ2Eから無線送信された画像化前の受信データを受信し、受信した画像化前の受信データを画像処理部32に送出する。
 画像処理部32は、HMD側無線通信部31から送出された画像化前の受信データに基づいて、HMD3EのHMD側モニタ36用のフォーマットに従う超音波画像Uと外部装置4Eの外部モニタ45用の表示フォーマットに従う超音波画像Uを生成する。また、画像処理部32は、HMD側モニタ36用のフォーマットに従う超音波画像Uを、画像同期部34を経由して表示制御部35に送出し、HMD側モニタ36用のフォーマットに従う超音波画像Uを画像同期部34に送出する。
 表示制御部35は、画像同期部34を経由して画像処理部32から送出された超音波画像Uに対して所定の処理を施した後、図4に示すように、その超音波画像UをHMD側モニタ36に表示する。
 また、カメラ部33は、被検体Pにおける超音波プローブ2Eの走査箇所を撮像した視野画像Cを取得し、取得された視野画像Cを画像同期部34に送出する。
 画像同期部34は、HMD側無線通信部31から送出された超音波画像Uとカメラ部33から送出された視野画像Cとを互いに同期させる。
 また、画像同期部34は、互いに同期された外部モニタ45用のフォーマットに従う超音波画像Uと視野画像Cに基づいて1つの合成画像Mを生成することなく、超音波画像Uと視野画像Cを、それぞれ、HMD側無線通信部31に送出する。
 HMD側無線通信部31は、画像同期部34から送出された超音波画像Uと視野画像Cを外部装置4Eに無線送信する。
 外部装置4Eの外部無線通信部41は、HMD3Eから無線送信された超音波画像Uと視野画像Cを受信し、受信した超音波画像Uと視野画像Cをそれぞれ表示制御部44に送出する。
 表示制御部44は、外部無線通信部41から送出された超音波画像Uと視野画像Cに対して所定の処理を施し、外部モニタ45において、互いに同期された超音波画像Uと視野画像Cを一緒に表示する。
 ここで、外部モニタ45に表示される超音波画像Uと視野画像Cの配置および大きさは、入力装置47を介した観察者の入力操作により、調整されることができる。例えば、観察者が入力装置47を介して超音波画像Uと視野画像Cの外部モニタ45における配置および大きさを調整する旨の指示情報を入力すると、入力された指示情報は、外部制御部46Eを経由して表示制御部44に入力される。表示制御部44は、入力された指示情報に基づいて、例えば、図14に示すような配置および大きさにより、互いに同期された超音波画像Uと視野画像Cを表示する。図14に示す例では、図5に示す例と比較して外部装置4E、超音波画像Uおよび視野画像Cが90度回転しており、超音波画像Uの一部に視野画像Cが重畳されるように、超音波画像Uと視野画像Cが外部モニタ45に表示されている。
 以上から、本発明の実施の形態5に係る超音波システム1Eによれば、外部装置4Eの外部モニタ45において表示される超音波画像Uと視野画像Cの配置および大きさを調整できるため、外部モニタ45に表示される超音波画像Uと視野画像Cを観察する観察者は、その好みに合わせて、より明確に超音波画像Uと視野画像Cを確認することができる。
実施の形態6
 実施の形態5では、信号処理部23により包絡線検波処理がなされた画像化前の受信データが、プローブ側無線通信部24により、HMD3Eに無線送信されているが、超音波プローブ2において超音波画像Uが生成されることもできる。
 図15に、本発明の実施の形態6に係る超音波システム1Fの構成を示す。超音波システム1Fは、図13に示す実施の形態5に係る超音波システム1Eにおいて、超音波プローブ2Eの代わりに超音波プローブ2Fが備えられ、HMD3Eの代わりにHMD3Fが備えられ、外部装置4Eの代わりに外部装置4Fが備えられたものである。超音波プローブ2Fは、HMD3Fにのみ無線通信により接続され、外部装置4Fは、HMD3Fにのみ無線通信により接続される。
 超音波プローブ2Fは、実施の形態5における超音波プローブ2Eにおいて、画像処理部91が追加され、プローブ制御部26の代わりにプローブ制御部26Eが備えられ、プローブ側プロセッサ27の代わりにプローブ側プロセッサ27Eが備えられたものである。超音波プローブ2Fにおいて、信号処理部23に画像処理部91が接続されており、画像処理部91に、プローブ側無線通信部24とプローブ制御部26Fが接続されている。図示しないが、信号処理部23と画像処理部91により、超音波画像生成部が構成されている。
 HMD3Fは、実施の形態5におけるHMD3Eにおいて、画像処理部32が取り除かれ、HMD制御部37Eの代わりにHMD制御部37Fが備えられ、HMD側プロセッサ39Eの代わりにHMD側プロセッサ39Fが備えられたものである。HMD3Fにおいて、HMD側無線通信部31に画像同期部34が接続されている。また、カメラ部33は、画像同期部34に接続している。
 外部装置4Fは、実施の形態5における外部装置4Eにおいて、外部制御部46Eの代わりに外部制御部46Fが備えられ、外部装置側プロセッサ48Eの代わりに外部装置側プロセッサ48Fが備えられたものである。
 超音波プローブ2Fの画像処理部91は、信号処理部23により包絡線検波処理がなされた信号を、通常のテレビジョン信号の走査方式に従う画像信号にラスター変換し、変換された画像信号に対して、明るさ補正、階調補正、シャープネス補正、画像サイズ補正、リフレッシュレート補正、走査周波数補正および色補正等の各種の必要な画像処理を施すことにより、HMD3FのHMD側モニタ36用の表示フォーマットに従う超音波画像Uと外部装置4Fの外部モニタ45用のフォーマットに従う超音波画像Uを生成する。また、画像処理部91は、生成されたこれらの超音波画像Uをプローブ側無線通信部24に送出する。
 HMD側無線通信部31は、超音波プローブ2Fから無線送信された超音波画像Uを受信する。また、HMD側無線通信部31は、HMD側モニタ36用の表示フォーマットに従う超音波画像Uを、画像同期部34を経由して表示制御部35に送出し、外部モニタ45用のフォーマットに従う超音波画像Uを画像同期部34に送出する。
 表示制御部35は、画像同期部34を経由してHMD側無線通信部31から送出された超音波画像Uに対して所定の処理を施した後、図4に示すように、その超音波画像UをHMD側モニタ36に表示させる。
 また、カメラ部33は、被検体Pにおける超音波プローブ2Fの走査箇所を撮像した視野画像Cを取得し、取得された視野画像Cを画像同期部34に送出する。
 画像同期部34は、HMD側無線通信部31から送出された超音波画像Uとカメラ部33から送出された視野画像Cとを互いに同期させる。
 また、画像同期部34は、互いに同期された外部モニタ45用のフォーマットに従う超音波画像Uと視野画像Cに基づいて1つの合成画像Mを生成することなく、超音波画像Uと視野画像Cを、それぞれ、HMD側無線通信部31に送出する。
 HMD側無線通信部31は、画像同期部34から送出された超音波画像Uと視野画像Cを外部装置4Fに無線送信する。
 外部装置4Fの外部無線通信部41は、HMD3Fから無線送信された超音波画像Uと視野画像Cを受信し、受信した超音波画像Uと視野画像Cをそれぞれ表示制御部44に送出する。
 表示制御部44は、外部無線通信部41から送出された超音波画像Uと視野画像Cに対して所定の処理を施して、外部モニタ45において、互いに同期された超音波画像Uと視野画像Cを一緒に表示する。
 この際に、表示制御部44は、入力装置47を介した観察者の入力操作に従って外部モニタ45に表示される超音波画像Uと視野画像Cの配置および大きさを調整することができる。これにより、例えば、図14に示すように、外部モニタ45において、互いに同期された超音波画像Uと視野画像Cが一緒に表示される。
 以上から、本発明の実施の形態6に係る超音波システム1Fによれば、超音波プローブ2Fが画像処理部91を備えている場合であっても、外部装置4Fの外部モニタ45において表示される超音波画像Uと視野画像Cの配置および大きさを調整できるため、外部モニタ45に表示される超音波画像Uと視野画像Cを観察する観察者は、その好みに合わせて、より明確に超音波画像Uと視野画像Cを確認することができる。
1,1B,1C,1D,1E,1F 超音波システム、2,2B,2C,2D,2E,2F 超音波プローブ、3,3A,3B,3C,3D,3E,3F HMD、4,4A,4B,4C,4D,4E,4F 外部装置、21 振動子アレイ、22 送受信回路、23 信号処理部、24 プローブ側無線通信部、26,26B,26D,26F プローブ制御部、27,27B,27D,27F プローブ側プロセッサ、31 HMD側無線通信部、32,42,71,81,91 画像処理部、33 カメラ部、34,43 画像同期部、35,44 表示制御部、36 HMD側モニタ、36A,36B モニタ、37,37A,37B,37C,37D,37E,37F HMD制御部、39,39A,39B,39C,39D,39E,39F HMD側プロセッサ、41 外部無線通信部、45 外部モニタ、46,46A,46B,46C,46D,4E6,46F 外部制御部、47 入力装置、48,48A,48B,48C,48D,48E,48F 外部装置側プロセッサ、51 パルサ、52 増幅部、53 AD変換部、54 ビームフォーマ、61,63 マイク、62,64 スピーカ、A カーソル、B 橋部、C 視野画像、D 収納部、F 撮影レンズ、P 被検体、T 蔓部、U 超音波画像。

Claims (20)

  1.  超音波プローブとヘッドマウントディスプレイと外部装置とを備える超音波システムであって、
     前記超音波プローブは、
     振動子アレイと、
     前記振動子アレイから超音波を送信し且つ前記振動子アレイにより取得された受信信号に基づいて音線信号を生成する送受信回路と、
     前記送受信回路により生成された前記音線信号に基づいて超音波画像を生成する超音波画像生成部と、
     前記超音波画像を無線送信するプローブ側無線通信部と
     を含み、
     前記ヘッドマウントディスプレイは、
     被検体における前記超音波プローブの走査箇所を撮像した視野画像を取得するカメラ部と、
     前記カメラ部により取得された前記視野画像を無線送信するヘッドマウントディスプレイ側無線通信部と
     を含み、
     前記外部装置は、少なくとも前記ヘッドマウントディスプレイ側無線通信部に無線接続された外部無線通信部と、
     外部モニタと、
     前記超音波プローブから無線送信された前記超音波画像と前記ヘッドマウントディスプレイから無線送信された前記視野画像とを前記外部モニタに表示する表示制御部と
     を含む超音波システム。
  2.  前記外部無線通信部は、前記プローブ側無線通信部および前記ヘッドマウントディスプレイ側無線通信部の双方に無線接続され、
     前記プローブ側無線通信部は、前記超音波画像を前記ヘッドマウントディスプレイおよび前記外部装置の双方に無線送信する請求項1に記載の超音波システム。
  3.  前記プローブ側無線通信部は、前記超音波画像を前記ヘッドマウントディスプレイに無線送信し、
     前記ヘッドマウントディスプレイ側無線通信部は、前記プローブ側無線通信部から無線送信された前記超音波画像と前記カメラ部により取得された前記視野画像とを前記外部装置に無線送信する請求項1に記載の超音波システム。
  4.  前記外部装置は、前記超音波画像と前記視野画像とを互いに同期させる画像同期部を含む請求項1~3のいずれか一項に記載の超音波システム。
  5.  前記ヘッドマウントディスプレイは、ヘッドマウントディスプレイ側モニタを含み、
     前記超音波画像が前記ヘッドマウントディスプレイ側モニタに表示される請求項2または3に記載の超音波システム。
  6.  前記ヘッドマウントディスプレイは、前記超音波画像と前記視野画像とを互いに同期させる画像同期部を含む請求項5に記載の超音波システム。
  7.  前記外部装置は、入力装置を含み、
     前記外部無線通信部は、前記入力装置を介して入力された外部入力情報を前記ヘッドマウントディスプレイ側無線通信部に無線送信し、
     前記外部入力情報が前記ヘッドマウントディスプレイ側モニタに表示される請求項5または6に記載の超音波システム。
  8.  前記ヘッドマウントディスプレイ側無線通信部と前記外部無線通信部との間において音声データを双方向に無線通信する請求項1~7のいずれか一項に記載の超音波システム。
  9.  超音波プローブとヘッドマウントディスプレイと外部装置とを備える超音波システムの制御方法であって、
     前記超音波プローブにおいて、
     前記超音波プローブの前記振動子アレイから超音波を送信し且つ前記振動子アレイにより取得された受信信号に基づいて音線信号を生成し、
     生成された前記音線信号に基づいて超音波画像を生成し、
     前記超音波画像を無線送信し、
     前記ヘッドマウントディスプレイにおいて、
     被検体における前記超音波プローブの走査箇所を撮像した視野画像を取得し、
     取得された前記視野画像を無線送信し、
     前記外部装置において、
     前記超音波プローブから無線送信された前記超音波画像と前記ヘッドマウントディスプレイから無線送信された前記視野画像とを外部モニタに表示する
     超音波システムの制御方法。
  10.  超音波プローブとヘッドマウントディスプレイと外部装置とを備える超音波システムであって、
     前記超音波プローブは、
     振動子アレイと、
     前記振動子アレイから超音波を送信し且つ前記振動子アレイにより取得された受信信号に基づいて音線信号を生成する送受信回路と、
     前記送受信回路により生成された前記音線信号に信号処理を施すことにより画像化前の受信データを生成する受信データ生成部と、
     前記受信データを無線送信するプローブ側無線通信部と
     を含み、
     前記ヘッドマウントディスプレイは、
     被検体における前記超音波プローブの走査箇所を撮像した視野画像を取得するカメラ部と、
     前記カメラ部により取得された前記視野画像を無線送信するヘッドマウントディスプレイ側無線通信部と
     を含み、
     前記外部装置は、少なくとも前記ヘッドマウントディスプレイ側無線通信部に無線接続された外部無線通信部と、
     外部モニタと、
     前記超音波プローブから無線送信された前記受信データに基づいて生成された超音波画像と前記ヘッドマウントディスプレイから無線送信された前記視野画像とを前記外部モニタに表示する表示制御部と
     を含む超音波システム。
  11.  前記外部無線通信部は、前記プローブ側無線通信部および前記ヘッドマウントディスプレイ側無線通信部の双方に無線接続され、
     前記プローブ側無線通信部は、前記受信データを前記ヘッドマウントディスプレイおよび前記外部装置の双方に無線送信する請求項10に記載の超音波システム。
  12.  前記プローブ側無線通信部は、前記受信データを前記ヘッドマウントディスプレイに無線送信し、
     前記ヘッドマウントディスプレイ側無線通信部は、前記プローブ側無線通信部から無線送信された前記受信データと前記カメラ部により取得された前記視野画像とを前記外部装置に無線送信する請求項10に記載の超音波システム。
  13.  前記外部装置は、前記プローブ側無線通信部から無線送信された前記受信データに基づいて超音波画像を生成する画像処理部を含む請求項11または12に記載の超音波システム。
  14.  前記プローブ側無線通信部は、前記受信データを前記ヘッドマウントディスプレイに無線送信し、
     前記ヘッドマウントディスプレイは、前記プローブ側無線通信部から無線送信された前記受信データに基づいて超音波画像を生成する画像処理部を含み、
     前記ヘッドマウントディスプレイ側無線通信部は、前記画像処理部により生成された前記超音波画像と前記カメラ部により取得された前記視野画像とを前記外部装置に無線送信する請求項10に記載の超音波システム。
  15.  前記外部装置は、前記超音波画像と前記視野画像とを互いに同期させる画像同期部を含む請求項13または14に記載の超音波システム。
  16.  前記ヘッドマウントディスプレイは、ヘッドマウントディスプレイ側モニタを含み、
     前記超音波画像が前記ヘッドマウントディスプレイ側モニタに表示される請求項14に記載の超音波システム。
  17.  前記ヘッドマウントディスプレイは、前記超音波画像と前記視野画像とを互いに同期させる画像同期部を含む請求項16に記載の超音波システム。
  18.  前記外部装置は、入力装置を含み、
     前記外部無線通信部は、前記入力装置を介して入力された外部入力情報を前記ヘッドマウントディスプレイ側無線通信部に無線送信し、
     前記外部入力情報が前記ヘッドマウントディスプレイ側モニタに表示される請求項16または17に記載の超音波システム。
  19.  前記ヘッドマウントディスプレイ側無線通信部と前記外部無線通信部との間において音声データを双方向に無線通信する請求項10~18のいずれか一項に記載の超音波システム。
  20.  超音波プローブとヘッドマウントディスプレイと外部装置とを備える超音波システムの制御方法であって、
     前記超音波プローブにおいて、
     前記超音波プローブの前記振動子アレイから超音波を送信し且つ前記振動子アレイにより取得された受信信号に基づいて音線信号を生成し、
     生成された前記音線信号に信号処理を施すことにより画像化前の受信データを生成し、
     前記受信データを無線送信し、
     前記ヘッドマウントディスプレイにおいて、
     被検体における前記超音波プローブの走査箇所を撮像した視野画像を取得し、
     取得された前記視野画像を無線送信し、
     前記外部装置において、
     前記超音波プローブから無線送信された前記受信データに基づいて生成された超音波画像と前記ヘッドマウントディスプレイから無線送信された前記視野画像とを外部モニタに表示する
     超音波システムの制御方法。
PCT/JP2020/027756 2019-08-15 2020-07-17 超音波システムおよび超音波システムの制御方法 WO2021029180A1 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2021539177A JP7315678B2 (ja) 2019-08-15 2020-07-17 超音波システムおよび超音波システムの制御方法
CN202080056796.6A CN114206225A (zh) 2019-08-15 2020-07-17 超声波***及超声波***的控制方法
EP20852377.9A EP4014888A4 (en) 2019-08-15 2020-07-17 ULTRASOUND SYSTEM AND ULTRASOUND SYSTEM CONTROL METHOD
US17/648,253 US20220133281A1 (en) 2019-08-15 2022-01-18 Ultrasound system and method of controlling ultrasound system
JP2023114266A JP2023130474A (ja) 2019-08-15 2023-07-12 超音波システムおよび超音波システムの制御方法

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2019-149058 2019-08-15
JP2019149058 2019-08-15

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US17/648,253 Continuation US20220133281A1 (en) 2019-08-15 2022-01-18 Ultrasound system and method of controlling ultrasound system

Publications (1)

Publication Number Publication Date
WO2021029180A1 true WO2021029180A1 (ja) 2021-02-18

Family

ID=74571018

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2020/027756 WO2021029180A1 (ja) 2019-08-15 2020-07-17 超音波システムおよび超音波システムの制御方法

Country Status (5)

Country Link
US (1) US20220133281A1 (ja)
EP (1) EP4014888A4 (ja)
JP (2) JP7315678B2 (ja)
CN (1) CN114206225A (ja)
WO (1) WO2021029180A1 (ja)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230389895A1 (en) * 2022-06-01 2023-12-07 Fujifilm Sonosite, Inc. Ultrasound scanner that supports handset wireless network connectivity

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011183056A (ja) 2010-03-10 2011-09-22 Fujifilm Corp 超音波診断装置
US20190008486A1 (en) * 2016-01-28 2019-01-10 Samsung Medison Co., Ltd. Ultrasound probe and ultrasound diagnosis system including same

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1513068A (zh) * 2001-04-30 2004-07-14 热控制材料、装置和方法
JP2007158467A (ja) * 2005-11-30 2007-06-21 Toshiba Corp 超音波プローブ及びその製造方法
WO2008017051A2 (en) * 2006-08-02 2008-02-07 Inneroptic Technology Inc. System and method of providing real-time dynamic imagery of a medical procedure site using multiple modalities
CN102727248A (zh) * 2011-04-15 2012-10-17 西门子公司 超声***以及超声***中的图像处理方法和装置
KR20170093632A (ko) * 2016-02-05 2017-08-16 삼성전자주식회사 전자 장치 및 그의 동작 방법

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011183056A (ja) 2010-03-10 2011-09-22 Fujifilm Corp 超音波診断装置
US20190008486A1 (en) * 2016-01-28 2019-01-10 Samsung Medison Co., Ltd. Ultrasound probe and ultrasound diagnosis system including same

Also Published As

Publication number Publication date
CN114206225A (zh) 2022-03-18
US20220133281A1 (en) 2022-05-05
EP4014888A4 (en) 2022-10-05
JP2023130474A (ja) 2023-09-20
EP4014888A1 (en) 2022-06-22
JPWO2021029180A1 (ja) 2021-02-18
JP7315678B2 (ja) 2023-07-26

Similar Documents

Publication Publication Date Title
JP7119127B2 (ja) 超音波システムおよび超音波システムの制御方法
JP2004290404A (ja) 超音波撮像方法および超音波診断装置
KR20080086578A (ko) 초음파 영상을 형성하는 초음파 시스템 및 방법
US20220125409A1 (en) Ultrasound system and method of controlling ultrasound system
JP2024026718A (ja) 超音波システムおよび超音波システムの制御方法
JP2023130474A (ja) 超音波システムおよび超音波システムの制御方法
JP7333338B2 (ja) 超音波診断装置および超音波診断装置の制御方法
US20230103571A1 (en) Ultrasound diagnostic apparatus, control method for ultrasound diagnostic apparatus, and processor for ultrasound diagnostic apparatus
WO2021049148A1 (ja) 超音波システムおよび超音波システムの制御方法
JP2010057562A (ja) 超音波診断装置
JPWO2021029179A5 (ja)
JPWO2021029180A5 (ja)
WO2022202351A1 (ja) 超音波診断装置および超音波診断装置の制御方法
WO2023008155A1 (ja) 超音波診断装置および超音波診断装置の制御方法
WO2023021943A1 (ja) 超音波診断装置および超音波診断装置の制御方法
WO2023281997A1 (ja) 超音波システムおよび超音波システムの制御方法
US20240000431A1 (en) Ultrasound system and control method of ultrasound system
US20230414205A1 (en) Ultrasound diagnostic apparatus and control method for ultrasound diagnostic apparatus
WO2022113585A1 (ja) 超音波診断装置および超音波診断装置の制御方法
WO2022044400A1 (ja) 超音波診断装置および超音波診断装置の制御方法
WO2020137162A1 (ja) 超音波診断装置および超音波診断装置の制御方法
KR20090099953A (ko) 상이한 디스플레이를 갖는 초음파 시스템
JP2011072583A (ja) 超音波プローブ、および超音波診断システム
JP2012176205A (ja) 超音波診断装置および超音波画像生成方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 20852377

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2021539177

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

ENP Entry into the national phase

Ref document number: 2020852377

Country of ref document: EP

Effective date: 20220315